मात्रात्मक प्रतिगमन: Difference between revisions
(→इतिहास) |
(→मात्रा) |
||
| Line 17: | Line 17: | ||
== मात्रा == | == मात्रा == | ||
मात्रात्मक प्रतिगमन एक आश्रित चर के सशर्त मात्रा को व्याख्यात्मक चर के रैखिक कार्य के रूप में व्यक्त करता है। मात्रात्मक प्रतिगमन की व्यावहारिकता के लिए महत्वपूर्ण यह है कि मात्रा को एक न्यूनतम समस्या के समाधान के रूप में व्यक्त किया जा सकता है, जैसा कि हम अगले भाग में सशर्त मात्रा पर चर्चा करने से पहले इस भाग में दिखाएंगे। | |||
=== एक यादृच्छिक चर की मात्रा === | === एक यादृच्छिक चर की मात्रा === | ||
मान लेते हैं <math>Y</math> संचयी वितरण कार्य के साथ एक वास्तविक-मूल्यवान यादृच्छिक चर बनें <math>F_{Y}(y)=P(Y\leq y)</math> . <math>\tau</math> Y का वां क्वांटाइल किसके द्वारा दिया जाता है। | |||
:<math>q_{Y}(\tau)=F_{Y}^{-1}(\tau)=\inf\left\{ y:F_{Y}(y)\geq\tau\right\}</math> | :<math>q_{Y}(\tau)=F_{Y}^{-1}(\tau)=\inf\left\{ y:F_{Y}(y)\geq\tau\right\}</math> | ||
जहाँ पर <math>\tau\in(0,1).</math>हानि फलन को इस प्रकार परिभाषित करें <math>\rho_{\tau}(m)=m(\tau-\mathbb{I}_{(m<0)})</math>, सूचक कार्य है की अपेक्षित हानि को कम करके एक विशिष्ट मात्रा पाई जा सकती है <math>Y-u</math> इसके संबंध में <math>u</math> : <ref name="Koenker20052">{{Cite book|title=Quantile Regression|url=https://archive.org/details/quantileregressi00koen_757|url-access=limited|last=Koenker|first=Roger|publisher=Cambridge University Press|year=2005|isbn=978-0-521-60827-5|pages=[https://archive.org/details/quantileregressi00koen_757/page/n151 146]–7}}</ref> ( pp. 5) | |||
हानि | |||
की अपेक्षित हानि को कम करके एक विशिष्ट मात्रा पाई जा सकती है <math>Y-u</math> इसके संबंध में <math>u</math>:<ref name=" | |||
:<math>q_{Y}(\tau)=\underset{u}{\mbox{arg min}}E(\rho_{\tau}(Y-u))=\underset{u}{\mbox{arg min}}\biggl\{(\tau-1)\int_{-\infty}^{u}(y-u)dF_{Y}(y)+\tau\int_{u}^{\infty}(y-u)dF_{Y}(y)\biggr\}.</math> | :<math>q_{Y}(\tau)=\underset{u}{\mbox{arg min}}E(\rho_{\tau}(Y-u))=\underset{u}{\mbox{arg min}}\biggl\{(\tau-1)\int_{-\infty}^{u}(y-u)dF_{Y}(y)+\tau\int_{u}^{\infty}(y-u)dF_{Y}(y)\biggr\}.</math> | ||
यह | यह अपेक्षित हानि के व्युत्पन्न की गणना करके, इसे 0 पर सेट करके, और q को समाधान देकर लाइबनिज़ अभिन्न नियम (Leibniz integral rule) के एक आवेदन के माध्यम से दिखाया जा सकता है। | ||
:<math>0=(1-\tau)\int_{-\infty}^{q_{\tau}}dF_{Y}(y)-\tau\int_{q_{\tau}}^{\infty}dF_{Y}(y).</math> | :<math>0=(1-\tau)\int_{-\infty}^{q_{\tau}}dF_{Y}(y)-\tau\int_{q_{\tau}}^{\infty}dF_{Y}(y).</math> | ||
यह समीकरण कम हो जाता है | यह समीकरण कम हो जाता है | ||
| Line 34: | Line 31: | ||
और फिर करने के लिए | और फिर करने के लिए | ||
:<math>F_{Y}(q_{\tau})=\tau.</math> | :<math>F_{Y}(q_{\tau})=\tau.</math> | ||
अगर समाधान <math>q_{\tau}</math> अद्वितीय नहीं है, तो हमें प्राप्त करने के लिए ऐसा सबसे छोटा हल लेना होगा | अगर समाधान <math>q_{\tau}</math> अद्वितीय नहीं है, तो हमें प्राप्त करने के लिए ऐसा सबसे छोटा हल लेना होगा <math>\tau</math> यादृच्छिक चर का ''Y'' वां मात्रा। | ||
==== उदाहरण ==== | ==== उदाहरण ==== | ||
मान लेते हैं <math>Y</math> एक असतत यादृच्छिक चर है <math>y_i = i</math> साथ <math>i = 1,2,\dots,9</math> समान संभावनाओं के साथ कार्य Y की माध्यिका ज्ञात करना है, और इसलिए मान <math>\tau=0.5</math> चुना जाता है। तब की अपेक्षित हानि <math>Y-u</math> है। | |||
:<math>L(u)=E(\rho_{\tau}(Y-u))=\frac{(\tau-1)}{9}\sum_{y_{i}<u}</math><math>(y_{i}-u)</math><math>+\frac{\tau}{9}\sum_{y_{i}\geq u}</math><math>(y_{i}-u)</math><math>=\frac{0.5}{9}\Bigl(</math><math>-</math><math>\sum_{y_{i}<u}</math><math>(y_{i}-u)</math><math>+\sum_{y_{i}\geq u}</math><math>(y_{i}-u)</math><math>\Bigr) .</math> | :<math>L(u)=E(\rho_{\tau}(Y-u))=\frac{(\tau-1)}{9}\sum_{y_{i}<u}</math><math>(y_{i}-u)</math><math>+\frac{\tau}{9}\sum_{y_{i}\geq u}</math><math>(y_{i}-u)</math><math>=\frac{0.5}{9}\Bigl(</math><math>-</math><math>\sum_{y_{i}<u}</math><math>(y_{i}-u)</math><math>+\sum_{y_{i}\geq u}</math><math>(y_{i}-u)</math><math>\Bigr) .</math> | ||
तब से <math>{0.5/9}</math> एक स्थिरांक है, इसे अपेक्षित हानि फलन से निकाला जा सकता है (यह केवल तभी सत्य है जब <math>\tau=0.5</math>) फिर, u=3 पर, | तब से <math>{0.5/9}</math> एक स्थिरांक है, इसे अपेक्षित हानि फलन से निकाला जा सकता है (यह केवल तभी सत्य है जब <math>\tau=0.5</math>) फिर, u=3 पर, | ||
:<math>L(3) \propto\sum_{i=1}^{2}</math><math>-(i-3)</math><math>+\sum_{i=3}^{9}</math><math>(i-3)</math><math> =[(2+1)+(0+1+2+...+6)] =24.</math> | :<math>L(3) \propto\sum_{i=1}^{2}</math><math>-(i-3)</math><math>+\sum_{i=3}^{9}</math><math>(i-3)</math><math> =[(2+1)+(0+1+2+...+6)] =24.</math> | ||
मान लीजिए कि u में 1 इकाई की वृद्धि की गई है। तब अपेक्षित नुकसान बदल जाएगा <math>(3)-(6)=-3</math> u को 4 में बदलने पर यदि, u=5, अपेक्षित हानि | मान लीजिए कि u में 1 इकाई की वृद्धि की गई है। तब अपेक्षित नुकसान बदल जाएगा <math>(3)-(6)=-3</math> u को 4 में बदलने पर यदि, u=5, अपेक्षित हानि है। | ||
:<math>L(5) \propto \sum_{i=1}^{4}i+\sum_{i=0}^{4}i=20,</math> | :<math>L(5) \propto \sum_{i=1}^{4}i+\sum_{i=0}^{4}i=20,</math> | ||
और आप में कोई भी बदलाव अपेक्षित नुकसान को बढ़ा देगा। अत: u=5 माध्यिका है। नीचे दी गई तालिका अपेक्षित हानि दर्शाती है (द्वारा विभाजित <math>{0.5/9}</math>) यू के विभिन्न मूल्यों के लिए। | और आप में कोई भी बदलाव अपेक्षित नुकसान को बढ़ा देगा। अत: u=5 माध्यिका है। नीचे दी गई तालिका अपेक्षित हानि दर्शाती है (द्वारा विभाजित <math>{0.5/9}</math>) यू के विभिन्न मूल्यों के लिए। | ||
| Line 55: | Line 50: | ||
==== अंतर्ज्ञान ==== | ==== अंतर्ज्ञान ==== | ||
मान लेते हैं <math>\tau=0.5</math> और q के लिए एक प्रारंभिक अनुमान है <math>q_{\tau}</math> । q पर मूल्यांकन की गई अपेक्षित हानि है | |||
:<math>L(q)=-0.5\int_{-\infty}^{q}(y-q)dF_{Y}(y)+0.5\int_{q}^{\infty}(y-q)dF_{Y}(y) .</math> | :<math>L(q)=-0.5\int_{-\infty}^{q}(y-q)dF_{Y}(y)+0.5\int_{q}^{\infty}(y-q)dF_{Y}(y) .</math> | ||
अपेक्षित हानि को कम करने के लिए, हम q के मान को थोड़ा आगे बढ़ाते हैं यह देखने के लिए कि क्या अपेक्षित हानि बढ़ेगी या घटेगी। | अपेक्षित हानि को कम करने के लिए, हम q के मान को थोड़ा आगे बढ़ाते हैं यह देखने के लिए कि क्या अपेक्षित हानि बढ़ेगी या घटेगी। मान लीजिए हम q को 1 इकाई बढ़ाते हैं। तब प्रत्याशित हानि का परिवर्तन होगा। | ||
मान लीजिए हम q को 1 इकाई बढ़ाते हैं। तब प्रत्याशित हानि का परिवर्तन | |||
:<math>\int_{-\infty}^{q}1dF_{Y}(y)-\int_{q}^{\infty}1dF_{Y}(y) .</math> | :<math>\int_{-\infty}^{q}1dF_{Y}(y)-\int_{q}^{\infty}1dF_{Y}(y) .</math> | ||
समीकरण का पहला पद है <math>F_{Y}(q)</math> और समीकरण का दूसरा पद है <math>1-F_{Y}(q)</math>. इसलिए, अपेक्षित हानि फ़ंक्शन का परिवर्तन नकारात्मक है यदि और केवल यदि <math>F_{Y}(q)<0.5</math>, अर्थात् यदि और केवल यदि q माध्यिका से छोटा है। इसी तरह, यदि हम q को 1 इकाई से कम करते हैं, तो अपेक्षित हानि फलन का परिवर्तन ऋणात्मक होता है यदि और केवल यदि q माध्यिका से बड़ा हो। | समीकरण का पहला पद है <math>F_{Y}(q)</math> और समीकरण का दूसरा पद है <math>1-F_{Y}(q)</math>. इसलिए, अपेक्षित हानि फ़ंक्शन का परिवर्तन नकारात्मक है यदि और केवल यदि <math>F_{Y}(q)<0.5</math>, अर्थात् यदि और केवल यदि q माध्यिका से छोटा है। इसी तरह, यदि हम q को 1 इकाई से कम करते हैं, तो अपेक्षित हानि फलन का परिवर्तन ऋणात्मक होता है यदि और केवल यदि q माध्यिका से बड़ा हो। | ||
| Line 64: | Line 58: | ||
प्रत्याशित हानि फलन को न्यूनतम करने के लिए, यदि q माध्यिका से छोटा (बड़ा) है, तब तक हम L(q) को बढ़ाएंगे (कमी) करेंगे, जब तक कि q माध्यिका तक नहीं पहुंच जाता। न्यूनीकरण के पीछे विचार उन बिंदुओं की संख्या (घनत्व के साथ भारित) की गणना करना है जो q से बड़े या छोटे हैं और फिर q को उस बिंदु पर ले जाएं जहां q से बड़ा है <math>100\tau</math>अंक का%। | प्रत्याशित हानि फलन को न्यूनतम करने के लिए, यदि q माध्यिका से छोटा (बड़ा) है, तब तक हम L(q) को बढ़ाएंगे (कमी) करेंगे, जब तक कि q माध्यिका तक नहीं पहुंच जाता। न्यूनीकरण के पीछे विचार उन बिंदुओं की संख्या (घनत्व के साथ भारित) की गणना करना है जो q से बड़े या छोटे हैं और फिर q को उस बिंदु पर ले जाएं जहां q से बड़ा है <math>100\tau</math>अंक का%। | ||
'''नमूना मात्रा''' | |||
<math>\tau</math> निम्न न्यूनीकरण समस्या को हल करके नमूना मात्रा प्राप्त की जा सकती है | |||
:<math>\hat{q}_{\tau}=\underset{q\in \mathbb{R}}{\mbox{arg min}}\sum_{i=1}^{n}\rho_{\tau}(y_{i}-q) ,</math> | :<math>\hat{q}_{\tau}=\underset{q\in \mathbb{R}}{\mbox{arg min}}\sum_{i=1}^{n}\rho_{\tau}(y_{i}-q) ,</math> | ||
:<math>=\underset{q\in \mathbb{R}}{\mbox{arg min}} \left[(\tau - 1)\sum_{y_{i}<q}(y_{i}-q)+\tau\sum_{y_{i}\geq q}(y_{i}-q) \right]</math>, | :<math>=\underset{q\in \mathbb{R}}{\mbox{arg min}} \left[(\tau - 1)\sum_{y_{i}<q}(y_{i}-q)+\tau\sum_{y_{i}\geq q}(y_{i}-q) \right]</math>, | ||
जहां समारोह <math>\rho_{\tau}</math> झुका हुआ निरपेक्ष मान | जहां समारोह <math>\rho_{\tau}</math> झुका हुआ निरपेक्ष मान फलन है। अंतर्ज्ञान जनसंख्या मात्रात्मक के समान है। | ||
'''सशर्त मात्रात्मक और मात्रात्मक प्रतिगमन''' | |||
Y दिए गए X की <math>\tau</math> सशर्त मात्रा है Y दिए गए X के सशर्त संभाव्यता वितरण की <math>\tau</math> मात्रा है। | |||
सशर्त संभाव्यता वितरण <math> | |||
:<math>Q_{Y|X}(\tau)=\inf\left\{ y:F_{Y|X}(y)\geq\tau\right\}</math>. | :<math>Q_{Y|X}(\tau)=\inf\left\{ y:F_{Y|X}(y)\geq\tau\right\}</math>. | ||
हम एक | हम एक सशर्त मात्रा को इंगित करने के लिए पूंजी q का उपयोग करते हैं यह इंगित करने के लिए कि यह एक यादृच्छिक चर है। | ||
के लिए मात्रात्मक प्रतिगमन में <math>\tau</math>वें | के लिए मात्रात्मक प्रतिगमन में <math>\tau</math>वें मात्रा हम यह धारणा बनाते हैं कि <math>\tau</math>वें सशर्त मात्रा को व्याख्यात्मक चर के रैखिक कार्य के रूप में दिया गया है: | ||
:<math> Q_{Y|X}(\tau)=X\beta_{\tau}</math>. | :<math> Q_{Y|X}(\tau)=X\beta_{\tau}</math>. | ||
के वितरण समारोह को देखते हुए <math>Y</math>, <math>\beta_{\tau}</math> हल करके प्राप्त किया जा सकता | के वितरण समारोह को देखते हुए <math>Y</math>, <math>\beta_{\tau}</math> हल करके प्राप्त किया जा सकता है। | ||
:<math>\beta_{\tau}=\underset{\beta\in \mathbb{R}^{k}}{\mbox{arg min}}E(\rho_{\tau}(Y-X\beta)).</math> | :<math>\beta_{\tau}=\underset{\beta\in \mathbb{R}^{k}}{\mbox{arg min}}E(\rho_{\tau}(Y-X\beta)).</math> | ||
नमूना एनालॉग को हल करने का अनुमानक देता है <math>\beta</math>. | नमूना एनालॉग को हल करने का अनुमानक देता है <math>\beta</math>. | ||
:<math>\hat{\beta_{\tau}}=\underset{\beta\in \mathbb{R}^{k}}{\mbox{arg min}}\sum_{i=1}^{n}(\rho_{\tau}(Y_{i}-X_{i}\beta)) .</math> | :<math>\hat{\beta_{\tau}}=\underset{\beta\in \mathbb{R}^{k}}{\mbox{arg min}}\sum_{i=1}^{n}(\rho_{\tau}(Y_{i}-X_{i}\beta)) .</math> | ||
ध्यान दें कि जब <math>\tau = 0.5</math> हानि समारोह <math>\rho_\tau</math> निरपेक्ष मान फलन के समानुपाती होता है और इस प्रकार माध्यिका प्रतिगमन | ध्यान दें कि जब <math>\tau = 0.5</math>, हानि समारोह <math>\rho_\tau</math> निरपेक्ष मान फलन के समानुपाती होता है, और इस प्रकार माध्यिका प्रतिगमन कम से कम निरपेक्ष विचलन द्वारा रैखिक प्रतिगमन के समान होता है। | ||
कम से कम | |||
==प्रतिगमन मापदंडों के लिए अनुमानों की गणना == | ==प्रतिगमन मापदंडों के लिए अनुमानों की गणना == | ||
मात्रात्मक प्रतिगमन से उत्पन्न होने वाले गणितीय रूप कम से कम वर्गों की विधि में उत्पन्न होने वाले रूपों से भिन्न होते हैं। कम से कम वर्गों की विधि एक आंतरिक उत्पाद स्थान में समस्याओं पर विचार करती है, जिसमें उप-स्थानों पर प्रक्षेपण शामिल होता है, और इस प्रकार वर्ग त्रुटियों को कम करने की समस्या को संख्यात्मक रैखिक बीजगणित में एक समस्या में कम किया जा सकता है। मात्रात्मक प्रतिगमन में यह संरचना नहीं होती है, और इसके बजाय न्यूनतम समस्या को रैखिक प्रोग्रामिंग समस्या के रूप में सुधार किया जा सकता है | |||
:<math>\underset{\beta,u^{+},u^{-}\in \mathbb{R}^{k}\times \mathbb{R}_{+}^{2n}}{\min}\left\{ \tau1_{n}^{'}u^{+}+(1-\tau)1_{n}^{'}u^{-}|X\beta+u^{+}-u^{-}=Y\right\} ,</math> | :<math>\underset{\beta,u^{+},u^{-}\in \mathbb{R}^{k}\times \mathbb{R}_{+}^{2n}}{\min}\left\{ \tau1_{n}^{'}u^{+}+(1-\tau)1_{n}^{'}u^{-}|X\beta+u^{+}-u^{-}=Y\right\} ,</math> | ||
कहाँ पे | कहाँ पे | ||
| Line 130: | Line 128: | ||
== | == मात्रात्मक प्रतिगमन के लिए बायेसियन तरीके == | ||
चूंकि | चूंकि मात्रात्मक प्रतिगमन आमतौर पर वाई | एक्स के सशर्त वितरण के लिए पैरामीट्रिक संभावना नहीं मानता है, बायेसियन विधियां काम करने की संभावना के साथ काम करती हैं। एक सुविधाजनक विकल्प असममित लाप्लासियन संभावना है,<ref>{{cite journal |last=Kozumi |first=H. |last2=Kobayashi |first2=G. |year=2011 |title=Gibbs sampling methods for Bayesian quantile regression |journal=[[Journal of Statistical Computation and Simulation]] |volume=81 |issue=11 |pages=1565–1578 |doi=10.1080/00949655.2010.496117 |url=https://www.b.kobe-u.ac.jp/papers_files/2009_02.pdf }}</ref> क्योंकि एक फ्लैट पूर्व के तहत परिणामी पश्च का तरीका सामान्य मात्रात्मक प्रतिगमन अनुमान है। हालाँकि, पीछे के अनुमान की व्याख्या सावधानी से की जानी चाहिए। यांग, वांग और हे<ref>{{cite journal |last=Yang |first=Y. |last2=Wang |first2=H.X. | last3=He |first3=X.| year=2016 |title=Posterior Inference in Bayesian Quantile Regression with Asymmetric Laplace Likelihood |journal=[[International Statistical Review]] |volume=84 |issue=3 |pages=327–344 |doi=10.1111/insr.12114 |hdl=2027.42/135059 |hdl-access=free }}</ref> वैध अनुमान के लिए एक पश्च विचरण समायोजन प्रदान किया। इसके साथ ही, | ||
यांग और हे<ref>{{cite journal |last=Yang |first=Y. |last2=He |first2=X. |year=2010 |title=Bayesian empirical likelihood for quantile regression |journal=[[Annals of Statistics]] |volume=40 |issue=2 |pages=1102–1131 |doi=10.1214/12-AOS1005 |arxiv=1207.5378 }}</ref> दिखाया गया है कि यदि कार्य संभावना को अनुभवजन्य संभावना के रूप में चुना जाता है, तो किसी के पास अस्वाभाविक रूप से मान्य पश्च अनुमान हो सकता है। | यांग और हे<ref>{{cite journal |last=Yang |first=Y. |last2=He |first2=X. |year=2010 |title=Bayesian empirical likelihood for quantile regression |journal=[[Annals of Statistics]] |volume=40 |issue=2 |pages=1102–1131 |doi=10.1214/12-AOS1005 |arxiv=1207.5378 }}</ref> दिखाया गया है कि यदि कार्य संभावना को अनुभवजन्य संभावना के रूप में चुना जाता है, तो किसी के पास अस्वाभाविक रूप से मान्य पश्च अनुमान हो सकता है। | ||
== मात्रात्मक प्रतिगमन के लिए मशीन सीखने के तरीके == | == मात्रात्मक प्रतिगमन के लिए मशीन सीखने के तरीके == | ||
सरल रेखीय प्रतिगमन के अलावा, कई मशीन सीखने के तरीके हैं जिन्हें | सरल रेखीय प्रतिगमन के अलावा, कई मशीन सीखने के तरीके हैं जिन्हें मात्रात्मक प्रतिगमन तक बढ़ाया जा सकता है। स्क्वेर्ड एरर से टिल्टेड एब्सोल्यूट वैल्यू लॉस फंक्शन में स्विच करने से ग्रेडिएंट डिसेंट आधारित लर्निंग एल्गोरिदम को माध्य के बजाय एक निर्दिष्ट मात्रा सीखने की अनुमति मिलती है। इसका मतलब है कि हम सभी न्यूरल नेटवर्क और डीप लर्निंग एल्गोरिदम को मात्रात्मक प्रतिगमन पर लागू कर सकते हैं।<ref>{{cite arXiv | last=Petneházi | first=Gábor | title=QCNN: Quantile Convolutional Neural Network | date=2019-08-21 | eprint=1908.07978 | class=cs.LG }}</ref><ref>{{cite arXiv | last1=Rodrigues | first1=Filipe | last2=Pereira | first2=Francisco C. | title=Beyond expectation: Deep joint mean and quantile regression for spatio-temporal problems | date=2018-08-27 | eprint=1808.08798 | class=stat }}</ref> ट्री-आधारित शिक्षण एल्गोरिदम मात्रात्मक प्रतिगमन के लिए भी उपलब्ध हैं (देखें, उदाहरण के लिए, मात्रात्मक प्रतिगमन फ़ॉरेस्ट,<ref>{{cite journal | last=Meinshausen | first=Nicolai | title=Quantile Regression Forests | url=http://www.jmlr.org/papers/volume7/meinshausen06a/meinshausen06a.pdf | journal=Journal of Machine Learning Research | volume=7 | issue=6 | pages=983–999 | year=2006 }}</ref> यादृच्छिक वनों के सरल सामान्यीकरण के रूप में)। | ||
== सेंसर मात्रात्मक प्रतिगमन == | == सेंसर मात्रात्मक प्रतिगमन == | ||
यदि प्रतिक्रिया चर सेंसरिंग के अधीन है, तो सशर्त माध्य अतिरिक्त वितरण संबंधी मान्यताओं के बिना पहचाने जाने योग्य नहीं है, लेकिन सशर्त मात्रा अक्सर पहचान योग्य होती है। सेंसर किए गए | यदि प्रतिक्रिया चर सेंसरिंग के अधीन है, तो सशर्त माध्य अतिरिक्त वितरण संबंधी मान्यताओं के बिना पहचाने जाने योग्य नहीं है, लेकिन सशर्त मात्रा अक्सर पहचान योग्य होती है। सेंसर किए गए मात्रात्मक प्रतिगमन पर हाल के काम के लिए, देखें: पोर्टनॉय<ref name="Portnoy2003">{{cite journal |last=Portnoy |first=S. L. |year=2003 |title=Censored Regression Quantiles |journal=[[Journal of the American Statistical Association]] |volume=98 |issue=464 |pages=1001–1012 |doi=10.1198/016214503000000954 }}</ref> | ||
और वांग और वांग<ref>{{cite journal |last=Wang |first=H. |author1-link= Huixia Judy Wang |last2=Wang |first2=L. |year=2009 |title=Locally Weighted Censored Quantile Regression |journal=[[Journal of the American Statistical Association]] |volume=104 |issue=487 |pages=1117–1128 |doi=10.1198/jasa.2009.tm08230 |citeseerx=10.1.1.504.796 }}</ref> | और वांग और वांग<ref>{{cite journal |last=Wang |first=H. |author1-link= Huixia Judy Wang |last2=Wang |first2=L. |year=2009 |title=Locally Weighted Censored Quantile Regression |journal=[[Journal of the American Statistical Association]] |volume=104 |issue=487 |pages=1117–1128 |doi=10.1198/jasa.2009.tm08230 |citeseerx=10.1.1.504.796 }}</ref> | ||
उदाहरण (2): | उदाहरण (2): | ||
होने देना <math>Y^{c}=\max(0,Y)</math> तथा <math>Q_{Y|X}=X\beta_{\tau}</math>. फिर <math>Q_{Y^{c}|X}(\tau)=\max(0,X\beta_{\tau})</math>. यह सेंसर किया गया मात्रात्मक प्रतिगमन मॉडल है: अनुमानित मूल्य बिना किसी वितरण संबंधी धारणा के प्राप्त किए जा सकते हैं, लेकिन कम्प्यूटेशनल कठिनाई की कीमत पर,<ref>{{cite journal |first=James L. |last=Powell |year=1986 |title=Censored Regression Quantiles |journal=[[Journal of Econometrics]] |volume=32 |issue=1 |pages=143–155 |doi=10.1016/0304-4076(86)90016-3 }}</ref> जिनमें से कुछ को एक अनुमान के रूप में एक साधारण तीन चरण सेंसर वाली मात्रात्मक प्रतिगमन प्रक्रिया का उपयोग करके टाला जा सकता है।<ref>{{cite journal |first=Victor |last=Chernozhukov |first2=Han |last2=Hong |title=Three-Step Censored Quantile Regression and Extramarital Affairs |journal=[[Journal of the American Statistical Association|J. Amer. Statist. Assoc.]] |volume=97 |issue=459 |pages=872–882 |year=2002 |doi=10.1198/016214502388618663 }}</ref> | होने देना <math>Y^{c}=\max(0,Y)</math> तथा <math>Q_{Y|X}=X\beta_{\tau}</math>. फिर <math>Q_{Y^{c}|X}(\tau)=\max(0,X\beta_{\tau})</math>. यह सेंसर किया गया मात्रात्मक प्रतिगमन मॉडल है: अनुमानित मूल्य बिना किसी वितरण संबंधी धारणा के प्राप्त किए जा सकते हैं, लेकिन कम्प्यूटेशनल कठिनाई की कीमत पर,<ref>{{cite journal |first=James L. |last=Powell |year=1986 |title=Censored Regression Quantiles |journal=[[Journal of Econometrics]] |volume=32 |issue=1 |pages=143–155 |doi=10.1016/0304-4076(86)90016-3 }}</ref> जिनमें से कुछ को एक अनुमान के रूप में एक साधारण तीन चरण सेंसर वाली मात्रात्मक प्रतिगमन प्रक्रिया का उपयोग करके टाला जा सकता है।<ref>{{cite journal |first=Victor |last=Chernozhukov |first2=Han |last2=Hong |title=Three-Step Censored Quantile Regression and Extramarital Affairs |journal=[[Journal of the American Statistical Association|J. Amer. Statist. Assoc.]] |volume=97 |issue=459 |pages=872–882 |year=2002 |doi=10.1198/016214502388618663 }}</ref> | ||
प्रतिक्रिया चर पर यादृच्छिक सेंसरिंग के लिए, पोर्टनॉय के सेंसर किए गए | प्रतिक्रिया चर पर यादृच्छिक सेंसरिंग के लिए, पोर्टनॉय के सेंसर किए गए मात्रात्मक प्रतिगमन (2003)<ref name="Portnoy2003" />प्रत्येक सेंसर किए गए बिंदु को उचित रूप से पुन: भारित करने के आधार पर सभी पहचान योग्य मात्रात्मक कार्यों का लगातार अनुमान प्रदान करता है। | ||
==कार्यान्वयन == | ==कार्यान्वयन == | ||
| Line 152: | Line 150: | ||
* विचार, संस्करण 6 के बाद से।{{citation needed|date=August 2015}} | * विचार, संस्करण 6 के बाद से।{{citation needed|date=August 2015}} | ||
*ग्रेटल के पास है <code>quantreg</code> आज्ञा।<ref>{{Cite web|title = Gretl Command Reference|url = http://ricardo.ecn.wfu.edu/pub//gretl/manual/en/gretl-ref.pdf|date=April 2017}}</ref> | *ग्रेटल के पास है <code>quantreg</code> आज्ञा।<ref>{{Cite web|title = Gretl Command Reference|url = http://ricardo.ecn.wfu.edu/pub//gretl/manual/en/gretl-ref.pdf|date=April 2017}}</ref> | ||
* आर कई पैकेज प्रदान करता है जो | * आर कई पैकेज प्रदान करता है जो मात्रात्मक प्रतिगमन को लागू करते हैं, विशेष रूप से <code>quantreg</code> रोजर कोएनकर द्वारा,<ref>{{cite web |title=quantreg: Quantile Regression |work=R Project |date= 2018-12-18|url=https://cran.r-project.org/web/packages/quantreg/index.html }}</ref> लेकिन <code>gbm</code>,<ref>{{cite web |title=gbm: Generalized Boosted Regression Models |work=R Project |date= 2019-01-14|url=https://cran.r-project.org/web/packages/gbm/ }}</ref> <code>quantregForest</code>,<ref>{{cite web |title=quantregForest: Quantile Regression Forests |work=R Project |date= 2017-12-19|url=https://cran.r-project.org/web/packages/quantregForest/index.html }}</ref> <code>qrnn</code><ref>{{cite web |title=qrnn: Quantile Regression Neural Networks |work=R Project |date= 2018-06-26|url=https://cran.r-project.org/web/packages/qrnn/index.html }}</ref> तथा <code>qgam</code><ref>{{cite web |title=qgam: Smooth Additive Quantile Regression Models |work=R Project |date= 2019-05-23|url=https://cran.r-project.org/web/packages/qgam/index.html }}</ref> | ||
* पायथन, के माध्यम से <code>Scikit-garden</code><ref>{{cite web |title=Quantile Regression Forests |url=https://scikit-garden.github.io/examples/QuantileRegressionForests/ |website=Scikit-garden |access-date=3 January 2019}}</ref> तथा <code>statsmodels</code><ref>{{cite web |title=Statsmodels: Quantile Regression |url=https://www.statsmodels.org/dev/examples/notebooks/generated/quantile_regression.html |website=Statsmodels |access-date=15 November 2019}}</ref> | * पायथन, के माध्यम से <code>Scikit-garden</code><ref>{{cite web |title=Quantile Regression Forests |url=https://scikit-garden.github.io/examples/QuantileRegressionForests/ |website=Scikit-garden |access-date=3 January 2019}}</ref> तथा <code>statsmodels</code><ref>{{cite web |title=Statsmodels: Quantile Regression |url=https://www.statsmodels.org/dev/examples/notebooks/generated/quantile_regression.html |website=Statsmodels |access-date=15 November 2019}}</ref> | ||
* एसएएस के माध्यम से <code>proc quantreg</code> (देखें। 9.2)<ref>{{cite web |title=An Introduction to Quantile Regression and the QUANTREG Procedure |work=SAS Support |url=http://www2.sas.com/proceedings/sugi30/213-30.pdf }}</ref> तथा <code>proc quantselect</code> (देखें। 9.3)।<ref>{{cite web |title=The QUANTSELECT Procedure |work=SAS Support |url=https://support.sas.com/rnd/app/stat/procedures/quantselect.html }}</ref> | * एसएएस के माध्यम से <code>proc quantreg</code> (देखें। 9.2)<ref>{{cite web |title=An Introduction to Quantile Regression and the QUANTREG Procedure |work=SAS Support |url=http://www2.sas.com/proceedings/sugi30/213-30.pdf }}</ref> तथा <code>proc quantselect</code> (देखें। 9.3)।<ref>{{cite web |title=The QUANTSELECT Procedure |work=SAS Support |url=https://support.sas.com/rnd/app/stat/procedures/quantselect.html }}</ref> | ||
Revision as of 19:22, 8 August 2022
| एक श्रृंखला का हिस्सा |
| प्रतिगमन विश्लेषण |
|---|
| मॉडल |
| अनुमान |
| पार्श्वभूमि |
|
|
मात्रात्मक प्रतिगमन एक प्रकार का रिग्रेशन विश्लेषण है जिसका उपयोग सांख्यिकी और अर्थमिति में किया जाता है। जबकि कम से कम वर्गों की विधि पूर्वसूचक चर के मूल्यों में प्रतिक्रिया चर के सशर्त माध्य का अनुमान लगाती है, मात्रात्मक प्रतिगमन प्रतिक्रिया चर के सशर्त माध्य (या अन्य मात्राओं) का अनुमान लगाता है। मात्रात्मक प्रतिगमन रेखीय प्रतिगमन का एक विस्तार है जिसका उपयोग तब किया जाता है जब रेखीय प्रतिगमन की शर्तें पूरी नहीं होती हैं।
लाभ और अनुप्रयोग
सामान्य न्यूनतम वर्ग प्रतिगमन के सापेक्ष मात्रात्मक प्रतिगमन का एक लाभ यह है कि मात्रात्मक प्रतिगमन अनुमान प्रतिक्रिया माप में बाहरी कारकों के मुकाबले अधिक मजबूत होते हैं। हालांकि, मात्रात्मक प्रतिगमन का मुख्य आकर्षण और लाभ तब होता है जब सशर्त मात्रात्मक कार्य रुचि के होते हैं। चरों के बीच संबंध का अधिक व्यापक विश्लेषण प्राप्त करने के लिए केंद्रीय प्रवृत्ति और सांख्यिकीय फैलाव के विभिन्न उपाय उपयोगी हो सकते हैं।[1]पारिस्थितिकी में, मात्रात्मक प्रतिगमन को प्रस्तावित किया गया है और उन मामलों में चर के बीच अधिक उपयोगी भविष्य कहनेवाला संबंधों की खोज करने के तरीके के रूप में उपयोग किया जाता है जहां कोई सहसंबंध नहीं है या ऐसे चर के साधनों के बीच केवल एक कमजोर संबंध है। पारिस्थितिकी में मात्रात्मक प्रतिगमन की आवश्यकता और सफलता को विभिन्न कारकों के बीच बातचीत की जटिलता के लिए जिम्मेदार ठहराया गया है, जिससे एक चर के दूसरे चर की विभिन्न श्रेणियों के डेटा के साथ असमान भिन्नता हो सकती है। मात्रात्मक प्रतिगमन का एक अन्य अनुप्रयोग विकास मानचित्र के क्षेत्रों में है, जहां शतमक वक्र का उपयोग आमतौर पर असामान्य वृद्धि के लिए आवरण करने के लिए किया जाता है।[2][3]
इतिहास
माध्य प्रतिगमन ढलान का अनुमान लगाने का विचार, निरपेक्ष विचलन के योग को कम करने के बारे में एक प्रमुख प्रमेय और माध्य प्रतिगमन के निर्माण के लिए एक ज्यामितीय एल्गोरिथ्म का प्रस्ताव 1760 में डबरोवनिक के एक जेसुइट कैथोलिक पादरी रुसर जोसिप बोस्कोविक द्वारा किया गया था।[1]: 4 [4] आइजैक न्यूटन के इस सुझाव पर निर्माण कि वह पृथ्वी की अण्डाकारता में रुचि रखते हैं, कि इसके घूमने से भूमध्य रेखा पर ध्रुवों पर समान चपटे उभार हो सकते हैं।[5] उन्होंने अंततः एक सतह विशेषता के तीन अवलोकनों से घूर्णन ग्रह के भूमध्य रेखा को निर्धारित करने के लिए पहली ज्यामितीय प्रक्रिया का उत्पादन किया। मात्रात्मक प्रतिगमन के लिए अधिक महत्वपूर्ण बात यह है कि वह कम से कम पूर्ण मानदंड का पहला सबूत विकसित करने में सक्षम था और 1805 में लेजेन्ड्रे द्वारा पचास वर्षों में पेश किए गए कम से कम वर्गों से पहले था।[6]
अन्य विचारकों ने पियरे-साइमन लाप्लास जैसे बोस्कोविक के विचार पर निर्माण करना शुरू किया, जिन्होंने तथाकथित "विधि डी स्थिति" विकसित की। इसने फ्रांसिस एडगेवर्थ के बहुवचन माध्यिका को जन्म दिया - माध्यिका प्रतिगमन के लिए एक ज्यामितीय दृष्टिकोण - और इसे सरलीकृत पद्धति के अग्रदूत के रूप में मान्यता प्राप्त है। बोस्कोविक (Bošković), लाप्लास (Laplace) और एडगेवर्थ (Edgeworth) के कार्यों को मात्रात्मक प्रतिगमन में रोजर कोएनकर (Roger Koenker) के योगदान की प्रस्तावना के रूप में मान्यता दी गई थी।
बड़े आंकड़े सम्मुचय के लिए माध्यिका प्रतिगमन संगणना कम से कम वर्ग विधि की तुलना में काफी कठिन हैं, जिसके कारण 20 वीं शताब्दी के उत्तरार्ध में संगणको को व्यापक रूप से अपनाने तक सांख्यिकीविदों के बीच लोकप्रियता की कमी को जन्म दिया है।
मात्रा
मात्रात्मक प्रतिगमन एक आश्रित चर के सशर्त मात्रा को व्याख्यात्मक चर के रैखिक कार्य के रूप में व्यक्त करता है। मात्रात्मक प्रतिगमन की व्यावहारिकता के लिए महत्वपूर्ण यह है कि मात्रा को एक न्यूनतम समस्या के समाधान के रूप में व्यक्त किया जा सकता है, जैसा कि हम अगले भाग में सशर्त मात्रा पर चर्चा करने से पहले इस भाग में दिखाएंगे।
एक यादृच्छिक चर की मात्रा
मान लेते हैं संचयी वितरण कार्य के साथ एक वास्तविक-मूल्यवान यादृच्छिक चर बनें . Y का वां क्वांटाइल किसके द्वारा दिया जाता है।
जहाँ पर हानि फलन को इस प्रकार परिभाषित करें , सूचक कार्य है की अपेक्षित हानि को कम करके एक विशिष्ट मात्रा पाई जा सकती है इसके संबंध में : [7] ( pp. 5)
यह अपेक्षित हानि के व्युत्पन्न की गणना करके, इसे 0 पर सेट करके, और q को समाधान देकर लाइबनिज़ अभिन्न नियम (Leibniz integral rule) के एक आवेदन के माध्यम से दिखाया जा सकता है।
यह समीकरण कम हो जाता है
और फिर करने के लिए
अगर समाधान अद्वितीय नहीं है, तो हमें प्राप्त करने के लिए ऐसा सबसे छोटा हल लेना होगा यादृच्छिक चर का Y वां मात्रा।
उदाहरण
मान लेते हैं एक असतत यादृच्छिक चर है साथ समान संभावनाओं के साथ कार्य Y की माध्यिका ज्ञात करना है, और इसलिए मान चुना जाता है। तब की अपेक्षित हानि है।
तब से एक स्थिरांक है, इसे अपेक्षित हानि फलन से निकाला जा सकता है (यह केवल तभी सत्य है जब ) फिर, u=3 पर,
मान लीजिए कि u में 1 इकाई की वृद्धि की गई है। तब अपेक्षित नुकसान बदल जाएगा u को 4 में बदलने पर यदि, u=5, अपेक्षित हानि है।
और आप में कोई भी बदलाव अपेक्षित नुकसान को बढ़ा देगा। अत: u=5 माध्यिका है। नीचे दी गई तालिका अपेक्षित हानि दर्शाती है (द्वारा विभाजित ) यू के विभिन्न मूल्यों के लिए।
| u | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| Expected loss | 36 | 29 | 24 | 21 | 20 | 21 | 24 | 29 | 36 |
अंतर्ज्ञान
मान लेते हैं और q के लिए एक प्रारंभिक अनुमान है । q पर मूल्यांकन की गई अपेक्षित हानि है
अपेक्षित हानि को कम करने के लिए, हम q के मान को थोड़ा आगे बढ़ाते हैं यह देखने के लिए कि क्या अपेक्षित हानि बढ़ेगी या घटेगी। मान लीजिए हम q को 1 इकाई बढ़ाते हैं। तब प्रत्याशित हानि का परिवर्तन होगा।
समीकरण का पहला पद है और समीकरण का दूसरा पद है . इसलिए, अपेक्षित हानि फ़ंक्शन का परिवर्तन नकारात्मक है यदि और केवल यदि , अर्थात् यदि और केवल यदि q माध्यिका से छोटा है। इसी तरह, यदि हम q को 1 इकाई से कम करते हैं, तो अपेक्षित हानि फलन का परिवर्तन ऋणात्मक होता है यदि और केवल यदि q माध्यिका से बड़ा हो।
प्रत्याशित हानि फलन को न्यूनतम करने के लिए, यदि q माध्यिका से छोटा (बड़ा) है, तब तक हम L(q) को बढ़ाएंगे (कमी) करेंगे, जब तक कि q माध्यिका तक नहीं पहुंच जाता। न्यूनीकरण के पीछे विचार उन बिंदुओं की संख्या (घनत्व के साथ भारित) की गणना करना है जो q से बड़े या छोटे हैं और फिर q को उस बिंदु पर ले जाएं जहां q से बड़ा है अंक का%।
नमूना मात्रा
निम्न न्यूनीकरण समस्या को हल करके नमूना मात्रा प्राप्त की जा सकती है
- ,
जहां समारोह झुका हुआ निरपेक्ष मान फलन है। अंतर्ज्ञान जनसंख्या मात्रात्मक के समान है।
सशर्त मात्रात्मक और मात्रात्मक प्रतिगमन
Y दिए गए X की सशर्त मात्रा है Y दिए गए X के सशर्त संभाव्यता वितरण की मात्रा है।
- .
हम एक सशर्त मात्रा को इंगित करने के लिए पूंजी q का उपयोग करते हैं यह इंगित करने के लिए कि यह एक यादृच्छिक चर है।
के लिए मात्रात्मक प्रतिगमन में वें मात्रा हम यह धारणा बनाते हैं कि वें सशर्त मात्रा को व्याख्यात्मक चर के रैखिक कार्य के रूप में दिया गया है:
- .
के वितरण समारोह को देखते हुए , हल करके प्राप्त किया जा सकता है।
नमूना एनालॉग को हल करने का अनुमानक देता है .
ध्यान दें कि जब , हानि समारोह निरपेक्ष मान फलन के समानुपाती होता है, और इस प्रकार माध्यिका प्रतिगमन कम से कम निरपेक्ष विचलन द्वारा रैखिक प्रतिगमन के समान होता है।
प्रतिगमन मापदंडों के लिए अनुमानों की गणना
मात्रात्मक प्रतिगमन से उत्पन्न होने वाले गणितीय रूप कम से कम वर्गों की विधि में उत्पन्न होने वाले रूपों से भिन्न होते हैं। कम से कम वर्गों की विधि एक आंतरिक उत्पाद स्थान में समस्याओं पर विचार करती है, जिसमें उप-स्थानों पर प्रक्षेपण शामिल होता है, और इस प्रकार वर्ग त्रुटियों को कम करने की समस्या को संख्यात्मक रैखिक बीजगणित में एक समस्या में कम किया जा सकता है। मात्रात्मक प्रतिगमन में यह संरचना नहीं होती है, और इसके बजाय न्यूनतम समस्या को रैखिक प्रोग्रामिंग समस्या के रूप में सुधार किया जा सकता है
कहाँ पे
- ,
सिंप्लेक्स तरीके[1]: 181 या आंतरिक बिंदु विधियाँ[1]: 190 रैखिक प्रोग्रामिंग समस्या को हल करने के लिए लागू किया जा सकता है।
स्पर्शोन्मुख गुण
के लिये , कुछ नियमितता शर्तों के तहत, स्पर्शोन्मुख रूप से सामान्य है:
कहाँ पे
- तथा
स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स का प्रत्यक्ष अनुमान हमेशा संतोषजनक नहीं होता है। मात्रात्मक प्रतिगमन मापदंडों के लिए प्रतिगमन रैंक-स्कोर परीक्षण या बूटस्ट्रैप विधियों के साथ अनुमान लगाया जा सकता है।[8]
समतुल्य
इनवेरिएंस पर पृष्ठभूमि के लिए अपरिवर्तनीय अनुमानक देखें या समकक्ष देखें।
स्केल तुल्यता
किसी के लिए तथा
शिफ्ट तुल्यता
किसी के लिए तथा
डिजाइन के पुनर्मूल्यांकन के समतुल्य
होने देना कोई भी हो नॉनसिंगुलर मैट्रिक्स और
मोनोटोन ट्रांसफॉर्मेशन के लिए इनवेरिएंस
यदि पर एक गैर-घटता हुआ कार्य है , निम्नलिखित अपरिवर्तनीय संपत्ति लागू होती है:
उदाहरण 1):
यदि तथा , फिर . माध्य प्रतिगमन में समान गुण नहीं होते हैं क्योंकि
मात्रात्मक प्रतिगमन के लिए बायेसियन तरीके
चूंकि मात्रात्मक प्रतिगमन आमतौर पर वाई | एक्स के सशर्त वितरण के लिए पैरामीट्रिक संभावना नहीं मानता है, बायेसियन विधियां काम करने की संभावना के साथ काम करती हैं। एक सुविधाजनक विकल्प असममित लाप्लासियन संभावना है,[9] क्योंकि एक फ्लैट पूर्व के तहत परिणामी पश्च का तरीका सामान्य मात्रात्मक प्रतिगमन अनुमान है। हालाँकि, पीछे के अनुमान की व्याख्या सावधानी से की जानी चाहिए। यांग, वांग और हे[10] वैध अनुमान के लिए एक पश्च विचरण समायोजन प्रदान किया। इसके साथ ही, यांग और हे[11] दिखाया गया है कि यदि कार्य संभावना को अनुभवजन्य संभावना के रूप में चुना जाता है, तो किसी के पास अस्वाभाविक रूप से मान्य पश्च अनुमान हो सकता है।
मात्रात्मक प्रतिगमन के लिए मशीन सीखने के तरीके
सरल रेखीय प्रतिगमन के अलावा, कई मशीन सीखने के तरीके हैं जिन्हें मात्रात्मक प्रतिगमन तक बढ़ाया जा सकता है। स्क्वेर्ड एरर से टिल्टेड एब्सोल्यूट वैल्यू लॉस फंक्शन में स्विच करने से ग्रेडिएंट डिसेंट आधारित लर्निंग एल्गोरिदम को माध्य के बजाय एक निर्दिष्ट मात्रा सीखने की अनुमति मिलती है। इसका मतलब है कि हम सभी न्यूरल नेटवर्क और डीप लर्निंग एल्गोरिदम को मात्रात्मक प्रतिगमन पर लागू कर सकते हैं।[12][13] ट्री-आधारित शिक्षण एल्गोरिदम मात्रात्मक प्रतिगमन के लिए भी उपलब्ध हैं (देखें, उदाहरण के लिए, मात्रात्मक प्रतिगमन फ़ॉरेस्ट,[14] यादृच्छिक वनों के सरल सामान्यीकरण के रूप में)।
सेंसर मात्रात्मक प्रतिगमन
यदि प्रतिक्रिया चर सेंसरिंग के अधीन है, तो सशर्त माध्य अतिरिक्त वितरण संबंधी मान्यताओं के बिना पहचाने जाने योग्य नहीं है, लेकिन सशर्त मात्रा अक्सर पहचान योग्य होती है। सेंसर किए गए मात्रात्मक प्रतिगमन पर हाल के काम के लिए, देखें: पोर्टनॉय[15] और वांग और वांग[16] उदाहरण (2):
होने देना तथा . फिर . यह सेंसर किया गया मात्रात्मक प्रतिगमन मॉडल है: अनुमानित मूल्य बिना किसी वितरण संबंधी धारणा के प्राप्त किए जा सकते हैं, लेकिन कम्प्यूटेशनल कठिनाई की कीमत पर,[17] जिनमें से कुछ को एक अनुमान के रूप में एक साधारण तीन चरण सेंसर वाली मात्रात्मक प्रतिगमन प्रक्रिया का उपयोग करके टाला जा सकता है।[18] प्रतिक्रिया चर पर यादृच्छिक सेंसरिंग के लिए, पोर्टनॉय के सेंसर किए गए मात्रात्मक प्रतिगमन (2003)[15]प्रत्येक सेंसर किए गए बिंदु को उचित रूप से पुन: भारित करने के आधार पर सभी पहचान योग्य मात्रात्मक कार्यों का लगातार अनुमान प्रदान करता है।
कार्यान्वयन
कई सांख्यिकीय सॉफ्टवेयर पैकेजों में मात्रात्मक प्रतिगमन के कार्यान्वयन शामिल हैं:
- मैटलैब फ़ंक्शन
quantreg[19] - विचार, संस्करण 6 के बाद से।[citation needed]
- ग्रेटल के पास है
quantregआज्ञा।[20] - आर कई पैकेज प्रदान करता है जो मात्रात्मक प्रतिगमन को लागू करते हैं, विशेष रूप से
quantregरोजर कोएनकर द्वारा,[21] लेकिनgbm,[22]quantregForest,[23]qrnn[24] तथाqgam[25] - पायथन, के माध्यम से
Scikit-garden[26] तथाstatsmodels[27] - एसएएस के माध्यम से
proc quantreg(देखें। 9.2)[28] तथाproc quantselect(देखें। 9.3)।[29] - गया, के माध्यम से
qregआज्ञा।[30][31] - वोपाल वैबिट, के माध्यम से
--loss_function quantile.[32] - गणित पैकेज
QuantileRegression.m[33] GitHub पर MathematicaForPrediction प्रोजेक्ट में होस्ट किया गया।
संदर्भ
- ↑ 1.0 1.1 1.2 1.3 Koenker, Roger (2005). Quantile Regression. Cambridge University Press. pp. 146–7. ISBN 978-0-521-60827-5.
- ↑ Wei, Y.; Pere, A.; Koenker, R.; He, X. (2006). "Quantile Regression Methods for Reference Growth Charts". Statistics in Medicine. 25 (8): 1369–1382. doi:10.1002/sim.2271. PMID 16143984.
- ↑ Wei, Y.; He, X. (2006). "Conditional Growth Charts (with discussions)". Annals of Statistics. 34 (5): 2069–2097 and 2126–2131. arXiv:math/0702634. doi:10.1214/009053606000000623.
- ↑ Stigler, S. (1984). "Boscovich, Simpson and a 1760 manuscript note on fitting a linear relation". Biometrika. 71 (3): 615–620. doi:10.1093/biomet/71.3.615.
- ↑ Koenker, Roger (2005). Quantile Regression. Cambridge: Cambridge University Press. pp. 2. ISBN 9780521845731.
- ↑ Furno, Marilena; Vistocco, Domenico (2018). Quantile Regression: Estimation and Simulation. Hoboken, NJ: John Wiley & Sons. pp. xv. ISBN 9781119975281.
- ↑ Koenker, Roger (2005). Quantile Regression. Cambridge University Press. pp. 146–7. ISBN 978-0-521-60827-5.
- ↑ Kocherginsky, M.; He, X.; Mu, Y. (2005). "Practical Confidence Intervals for Regression Quantiles". Journal of Computational and Graphical Statistics. 14 (1): 41–55. doi:10.1198/106186005X27563.
- ↑ Kozumi, H.; Kobayashi, G. (2011). "Gibbs sampling methods for Bayesian quantile regression" (PDF). Journal of Statistical Computation and Simulation. 81 (11): 1565–1578. doi:10.1080/00949655.2010.496117.
- ↑ Yang, Y.; Wang, H.X.; He, X. (2016). "Posterior Inference in Bayesian Quantile Regression with Asymmetric Laplace Likelihood". International Statistical Review. 84 (3): 327–344. doi:10.1111/insr.12114. hdl:2027.42/135059.
- ↑ Yang, Y.; He, X. (2010). "Bayesian empirical likelihood for quantile regression". Annals of Statistics. 40 (2): 1102–1131. arXiv:1207.5378. doi:10.1214/12-AOS1005.
- ↑ Petneházi, Gábor (2019-08-21). "QCNN: Quantile Convolutional Neural Network". arXiv:1908.07978 [cs.LG].
- ↑ Rodrigues, Filipe; Pereira, Francisco C. (2018-08-27). "Beyond expectation: Deep joint mean and quantile regression for spatio-temporal problems". arXiv:1808.08798 [stat].
- ↑ Meinshausen, Nicolai (2006). "Quantile Regression Forests" (PDF). Journal of Machine Learning Research. 7 (6): 983–999.
- ↑ 15.0 15.1 Portnoy, S. L. (2003). "Censored Regression Quantiles". Journal of the American Statistical Association. 98 (464): 1001–1012. doi:10.1198/016214503000000954.
- ↑ Wang, H.; Wang, L. (2009). "Locally Weighted Censored Quantile Regression". Journal of the American Statistical Association. 104 (487): 1117–1128. CiteSeerX 10.1.1.504.796. doi:10.1198/jasa.2009.tm08230.
- ↑ Powell, James L. (1986). "Censored Regression Quantiles". Journal of Econometrics. 32 (1): 143–155. doi:10.1016/0304-4076(86)90016-3.
- ↑ Chernozhukov, Victor; Hong, Han (2002). "Three-Step Censored Quantile Regression and Extramarital Affairs". J. Amer. Statist. Assoc. 97 (459): 872–882. doi:10.1198/016214502388618663.
- ↑ "quantreg(x,y,tau,order,Nboot) - File Exchange - MATLAB Central". www.mathworks.com. Retrieved 2016-02-01.
- ↑ "Gretl Command Reference" (PDF). April 2017.
- ↑ "quantreg: Quantile Regression". R Project. 2018-12-18.
- ↑ "gbm: Generalized Boosted Regression Models". R Project. 2019-01-14.
- ↑ "quantregForest: Quantile Regression Forests". R Project. 2017-12-19.
- ↑ "qrnn: Quantile Regression Neural Networks". R Project. 2018-06-26.
- ↑ "qgam: Smooth Additive Quantile Regression Models". R Project. 2019-05-23.
- ↑ "Quantile Regression Forests". Scikit-garden. Retrieved 3 January 2019.
- ↑ "Statsmodels: Quantile Regression". Statsmodels. Retrieved 15 November 2019.
- ↑ "An Introduction to Quantile Regression and the QUANTREG Procedure" (PDF). SAS Support.
- ↑ "The QUANTSELECT Procedure". SAS Support.
- ↑ "qreg — Quantile regression" (PDF). Stata Manual.
- ↑ Cameron, A. Colin; Trivedi, Pravin K. (2010). "Quantile Regression". Microeconometrics Using Stata (Revised ed.). College Station: Stata Press. pp. 211–234. ISBN 978-1-59718-073-3.
- ↑ "JohnLangford/vowpal_wabbit". GitHub. Retrieved 2016-07-09.
- ↑ "QuantileRegression.m". MathematicaForPrediction. Retrieved 3 January 2019.
अग्रिम पठन
- Angrist, Joshua D.; Pischke, Jörn-Steffen (2009). "Quantile Regression". Mostly Harmless Econometrics: An Empiricist's Companion. Princeton University Press. pp. 269–291. ISBN 978-0-691-12034-8.
- Koenker, Roger (2005). Quantile Regression. Cambridge University Press. ISBN 978-0-521-60827-5.