अनुमानक का पूर्वाग्रह: Difference between revisions
m (Abhishek moved page एक अनुमानक का पूर्वाग्रह to अनुमानक का पूर्वाग्रह without leaving a redirect) |
No edit summary |
||
Line 1: | Line 1: | ||
{{Short description|Difference between an estimator's expected value from a parameter's true value}} | {{Short description|Difference between an estimator's expected value from a parameter's true value}} | ||
इस विषय के व्यापक सूचना के लिए, अभिनति (सांख्यिकी) देखें। | |||
सांख्यिकी में, अनुमानक (या अभिनति फलन) का अभिनति इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनति वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनति" एक अनुमानक की एक वस्तुगत गुण है। अभिनति संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनति बनाम निरंतरता देखें। | |||
अन्य सभी समान होने के | अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनति अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनति अनुमानक (सामान्य रूप से छोटे अभिनति के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनति अनुमानक का उपयोग किया जाता है, तो अभिनति की सीमा की गणना की जाती है। अभिनति अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि जनसंख्या के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि [[केंद्रीय प्रवृत्ति]] के विभिन्न समाधानों के संबंध में अभिनति अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से [[संकोचन अनुमानक|अवमूल्यन अनुमानक]] में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और केवल अनभिनत अनुमानक उपयोगी नहीं होते हैं। | ||
अभिनति को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण जनसंख्या विचरण के लिए अभिनति अनुमानक है। ये सभी नीचे सचित्र हैं। | |||
गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के | |||
== परिभाषा == | == परिभाषा == | ||
मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा | मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा , <math>P_\theta(x) = P(x\mid\theta)</math> के लिए प्रायिकता बंटन को उत्पन्न करता है और एक आँकड़ा <math>\hat\theta</math> जो किसी भी देखे गए डेटा <math>x</math> के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात बंटन <math>P(x\mid\theta)</math> का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस बंटन का हिस्सा है), और फिर हम कुछ अनुमानक <math>\hat\theta</math> का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। <math>\hat\theta</math> का 'अभिनति' के सापेक्ष <math>\theta</math> परिभाषित किया जाता है<ref name=":0">{{Cite web|last=Kozdron|first=Michael|date=March 2016|title=Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)|url=http://stat.math.uregina.ca/~kozdron/Teaching/Regina/252Winter16/Handouts/ch3.pdf|access-date=2020-09-11|website=stat.math.uregina.ca}}</ref> | ||
:<math> \operatorname{Bias}(\hat\theta, \theta) =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math> | :<math> \operatorname{Bias}(\hat\theta, \theta) =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math> | ||
जहाँ <math>\operatorname{E}_{x\mid\theta}</math> बंटन पर अपेक्षित मान <math>P(x\mid\theta)</math> दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत <math>x</math>) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त वितरण <math>P(x\mid\theta)</math> के संबंध में मापने योग्य है | |||
अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनति पैरामीटर ''θ'' के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।<ref name=":1">{{Cite web|last=Taylor|first=Courtney|date=January 13, 2019|title=निष्पक्ष और पक्षपाती अनुमानक|url=https://www.thoughtco.com/what-is-an-unbiased-estimator-3126502|access-date=2020-09-12|website=ThoughtCo|language=en}}</ref> | |||
अनुमानक के गुणों से संबंधित | |||
अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनति का आकलन किया जा सकता है। | |||
== उदाहरण == | == उदाहरण == | ||
=== | === प्रतिदर्श विचरण === | ||
{{main| | {{main|प्रतिदर्श विचरण}} | ||
यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनति के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनति है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनति अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनति है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (बंटन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनति अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य बंटन के लिए इष्टतम मान n + 1 है। | |||
मान लीजिए | मान लीजिए कि ''X''<sub>1</sub>, ..., ''X<sub>n</sub>'' स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और विचरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है | ||
:<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math> | :<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math> | ||
तब | तब S<sup>2</sup> ''σ''<sup>2</sup> का अभिनति अनुमानक है, क्योंकि | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 47: | Line 48: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
जारी रखने के लिए, हम ध्यान दें कि | जारी रखने के लिए, हम ध्यान दें कि <math>\mu</math> घटाकर के दोनों ओर से <math>\overline{X}= \frac 1 n \sum_{i=1}^nX_i</math>, हम पाते हैं | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 53: | Line 54: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
अर्थ, ( | अर्थ, (तिर्यक-गुणन द्वारा) <math>n \cdot (\overline{X}-\mu)=\sum_{i=1}^n (X_i-\mu)</math>. फिर, पहला बन जाता है: | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 72: | Line 73: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
इसे निम्नलिखित सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो उपरोक्त असंशोधित | इसे निम्नलिखित सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो उपरोक्त असंशोधित प्रतिदर्श भिन्नता की अपेक्षा के लिए असमानता में शब्द के लिए भिन्नता # असंबद्ध चर के योग (बिनेमे फॉर्मूला) | बायनेमे फॉर्मूला से निम्नानुसार है: <math>\operatorname{E}\big[ (\overline{X}-\mu)^2 \big] = \frac 1 n \sigma^2</math>. | ||
दूसरे शब्दों में, असंशोधित | दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान जनसंख्या प्रसरण σ के बराबर नहीं होता है<sup>2</sup>, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है<ref name="JohnsonWichern2007">{{cite book|author1=Richard Arnold Johnson|author2=Dean W. Wichern|title=अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण|url=https://books.google.com/books?id=gFWcQgAACAAJ|access-date=10 August 2012|year=2007|publisher=Pearson Prentice Hall|isbn=978-0-13-187715-3}}</ref> जनसंख्या का अनुमानक मतलब μ।<ref name=":1" /> | ||
ध्यान दें कि | ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा है <math>S^2=\frac 1 {n-1} \sum_{i=1}^n(X_i-\overline{X}\,)^2</math>, और यह जनसंख्या विचरण का अनभिनत अनुमानक है। | ||
बीजगणितीय रूप से बोलते हुए, <math> \operatorname{E}[S^2] </math> | बीजगणितीय रूप से बोलते हुए, <math> \operatorname{E}[S^2] </math> अनभिनत है क्योंकि: | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 87: | Line 88: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
जहां दूसरी पंक्ति में संक्रमण | जहां दूसरी पंक्ति में संक्रमण अभिनति अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार <math>\operatorname{E}[S^2] = \sigma^2</math>, और इसलिए <math>S^2=\frac 1 {n-1}\sum_{i=1}^n(X_i-\overline{X}\,)^2</math> जनसंख्या विचरण का अनभिनत अनुमानक है, σ<sup>2</उप>। प्रसरण के अभिनति (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है। | ||
कारण यह है कि एक असंशोधित | कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S<sup>2</sup>, इस तथ्य से अभिनति है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (OLS) अनुमानक है: <math>\overline{X}</math> वह संख्या है जो योग बनाती है <math>\sum_{i=1}^n (X_i-\overline{X})^2</math> जितना संभव हो उतना छोटा। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग केवल बढ़ सकता है। विशेष रूप से, पसंद <math>\mu \ne \overline{X}</math> देता है, | ||
:<math> | :<math> | ||
Line 103: | Line 104: | ||
</math> | </math> | ||
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और विचरण भाग में विघटित किया जा सकता है <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के ओर्थोगोनल पूरक हाइपरप्लेन। एक को मिलता है <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए। चूंकि यह एक ओर्थोगोनल अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम प्राप्त करते हैं <math> n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math>, ऊपर के रूप में (लेकिन times <math>n</math>). | उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और विचरण भाग में विघटित किया जा सकता है <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के ओर्थोगोनल पूरक हाइपरप्लेन। एक को मिलता है <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए। चूंकि यह एक ओर्थोगोनल अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम प्राप्त करते हैं <math> n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math>, ऊपर के रूप में (लेकिन times <math>n</math>). | ||
यदि का | यदि का बंटन <math>\vec{C}</math> घूर्णी रूप से सममित है, जैसे कि जब <math>X_i</math> गॉसियन से नमूने लिए जाते हैं, फिर औसतन, साथ में आयाम <math> \vec{u}</math> करने के लिए योगदान देते है <math> |\vec{C}|^2</math> समान रूप से <math>n-1</math> दिशाओं के लिए लंबवत <math> \vec{u}</math>, ताकि <math> \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] =\frac{\sigma^2} n </math> और <math>\operatorname{E}[S^2] =\frac{(n-1)\sigma^2} n </math>. यह वास्तव में सामान्य तौर पर सच है, जैसा कि ऊपर बताया गया है। | ||
=== प्वासों प्रायिकता का अनुमान लगाना === | === प्वासों प्रायिकता का अनुमान लगाना === | ||
किसी भी | किसी भी अनभिनत अनुमानक की तुलना में अभिनति अनुमानक के अधिकतम होने का एक और अधिक चरम मामला पोइसन बंटन से उत्पन्न होता है।<ref>J. P. Romano and A. F. Siegel (1986) ''[https://books.google.com/books?id=irKSXZ7kKFgC&q=Poisson Counterexamples in Probability and Statistics]'', Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168</ref><ref>{{Cite journal | first = M.| title = एक प्रबुद्ध प्रति उदाहरण| jstor = 3647938| journal = American Mathematical Monthly| volume = 110| date = 1 March 2003 | issue = 3| pages = 234–238| issn = 0002-9890 | doi = 10.2307/3647938| last = Hardy| arxiv = math/0206006}}</ref> मान लीजिए कि एक्स के पास अपेक्षा λ के साथ पॉइसन बंटन है। मान लीजिए कि यह अनुमान लगाना चाहता है | ||
:<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math> | :<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math> | ||
आकार 1 के एक नमूने के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या है, तो ई<sup>−2λ</sup> संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।) | आकार 1 के एक नमूने के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या है, तो ई<sup>−2λ</sup> संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।) | ||
चूंकि | चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात | ||
:<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math> | :<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math> | ||
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र कार्य है | |||
:<math>\delta(x)=(-1)^x. \, </math> | :<math>\delta(x)=(-1)^x. \, </math> | ||
इसे देखने के लिए, ध्यान दें कि ई को विघटित करते समय<sup>−λ</sup> अपेक्षा के लिए उपरोक्त अभिव्यक्ति से, शेष राशि e का [[टेलर श्रृंखला]] विस्तार है<sup>−λ</sup> साथ ही, उपज देने वाला ई<sup>−λ</sup>ई<sup>−λ</सुप> = ई<sup>−2λ</sup> (एक्सपोनेंशियल फंक्शन के लक्षण देखें)। | इसे देखने के लिए, ध्यान दें कि ई को विघटित करते समय<sup>−λ</sup> अपेक्षा के लिए उपरोक्त अभिव्यक्ति से, शेष राशि e का [[टेलर श्रृंखला]] विस्तार है<sup>−λ</sup> साथ ही, उपज देने वाला ई<sup>−λ</sup>ई<sup>−λ</सुप> = ई<sup>−2λ</sup> (एक्सपोनेंशियल फंक्शन के लक्षण देखें)। | ||
यदि एक्स का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही | यदि एक्स का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के करीब होने की संभावना है, जो विपरीत चरम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी बेतुका है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए। | ||
( | (अभिनति) अधिकतम संभावना | ||
:<math>e^{-2{X}}\quad</math> | :<math>e^{-2{X}}\quad</math> | ||
इस | इस अनभिनत अनुमानक से कहीं अधिकतम है। न केवल इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक सटीक होता है कि इसका माध्य औसत वर्ग त्रुटि है | ||
:<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math> | :<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math> | ||
छोटा है; के | छोटा है; के अनभिनत अनुमानक के एमएसई की तुलना करें | ||
:<math>1-e^{-4\lambda}. \, </math> | :<math>1-e^{-4\lambda}. \, </math> | ||
एमएसई वास्तविक मान λ के कार्य हैं। अधिकतम-संभावना अनुमानक का अभिनति है: | |||
:<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math> | :<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math> | ||
=== असतत समान | === असतत समान बंटन का अधिकतम === | ||
{{main|Maximum of a discrete uniform distribution}} | {{main|Maximum of a discrete uniform distribution}} | ||
अधिकतम-संभावना अनुमानकों का | अधिकतम-संभावना अनुमानकों का अभिनति पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, भले ही अपेक्षा X दिया हुआ n केवल (n + 1)/2 है; हम केवल निश्चित हो सकते हैं कि n कम से कम X है और शायद अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है। | ||
== माध्य- | == माध्य-अनभिनत अनुमानक == | ||
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य- | 1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref> | ||
{{blockquote| | {{blockquote|एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त संपत्ति है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।}} | ||
मध्य- | मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम संभावना | अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन|एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं। | ||
प्रायिकता बंटन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें [[मोनोटोन संभावना अनुपात]] है। -अनभिनत आकलनकर्ता)।<ref>{{cite journal |last=Pfanzagl |first=Johann |title=उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर|journal=The Annals of Statistics |year=1979 |volume=7 |issue=1 |pages=187–193 |doi=10.1214/aos/1176344563 |doi-access=free }}</ref><ref name="BrownEtAl">{{cite journal |last1=Brown |first1=L. D. |last2=Cohen |first2=Arthur |last3=Strawderman |first3=W. E. |title=अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय|journal=Ann. Statist. |volume=4 |year=1976 |issue=4 |pages=712–722 |doi=10.1214/aos/1176343543 |doi-access=free }}</ref> ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता बंटन के एक छोटे वर्ग के लिए है, लेकिन हानि-कार्यों के एक बड़े वर्ग के लिए है।<ref name="BrownEtAl" /> | |||
== अन्य हानि कार्यों के संबंध में | == अन्य हानि कार्यों के संबंध में अभिनति == | ||
कोई न्यूनतम-विचरण माध्य- | कोई न्यूनतम-विचरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में [[जोखिम (सांख्यिकी)]] ([[अपेक्षित हानि]]) को कम करता है, जैसा कि [[गॉस]] द्वारा देखा गया है।<ref name="Dodge">{{cite book |title=Statistical Data Analysis Based on the L<sub>1</sub>-Norm and Related Methods |series=Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987 |editor-first=Yadolah |editor-last=Dodge |publisher=North-Holland |location=Amsterdam |year=1987 |isbn=0-444-70273-3 }}</ref> एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि [[लाप्लास]] द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book |last1=Jaynes |first1=E. T. |title=Probability Theory : The Logic of Science |date=2007 |publisher=Cambridge Univ. Press |location=Cambridge |isbn=978-0-521-59271-0 |page=172 }}</ref> अन्य नुकसान कार्यों का उपयोग सांख्यिकी में किया जाता है, विशेष रूप से प्रबल सांख्यिकी में।<ref name="Dodge" /><ref>{{cite book |chapter=Loss Functions and the Theory of Unbiased Estimation |title=सांख्यिकी में मजबूत और गैर-मजबूत मॉडल|first1=Lev B. |last1=Klebanov |first2=Svetlozar T. |last2=Rachev |first3=Frank J. |last3=Fabozzi |publisher=Nova Scientific |location=New York |year=2009 |isbn=978-1-60741-768-2 }}</ref> | ||
== रूपांतरों का प्रभाव == | == रूपांतरों का प्रभाव == | ||
अविभाजित मापदंडों के लिए, मध्य- | अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो ऑर्डर (या रिवर्स ऑर्डर) को संरक्षित करते हैं। | ||
ध्यान दें कि, जब एक माध्य- | ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण लागू किया जाता है, तो परिणाम को इसके संगत जनसंख्या सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल कार्य सकारात्मक अभिनति पेश करेगा, जबकि एक अवतल कार्य नकारात्मक अभिनति पेश करेगा, और मिश्रित उत्तलता का कार्य विशिष्ट कार्य और बंटन के आधार पर किसी भी दिशा में अभिनति पेश कर सकता है। यही है, एक गैर-रैखिक फलन एफ और पैरामीटर पी के एक औसत-अनभिनत अनुमानक यू के लिए, समग्र अनुमानक एफ (यू) को एफ (पी) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, जनसंख्या विचरण के अनभिनत अनुमानक का [[वर्गमूल]] है {{em|not}} जनसंख्या [[मानक विचलन]] का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही [[नमूना मानक विचलन|प्रतिदर्श मानक विचलन]], अभिनति है। अभिनति अनुमानक के प्रतिदर्श बंटन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए काफी सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें। | ||
== | == अभिनति, विचरण और माध्य औसत वर्ग त्रुटि == | ||
{{Main|Bias–variance tradeoff}} | {{Main|Bias–variance tradeoff}} | ||
{{See also|Accuracy (trueness and precision)}} | {{See also|Accuracy (trueness and precision)}} | ||
[[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β के लिए दो वैकल्पिक अनुमानकों का | [[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β के लिए दो वैकल्पिक अनुमानकों का प्रतिदर्शकरण बंटन<sub>0</sub>. हालांकि बी<sub>1</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^ अनभिनत है, यह स्पष्ट रूप से अभिनति β से हीन है<sub>2</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^।<br /><br />[[ रिज प्रतिगमन ]] एक ऐसी तकनीक का उदाहरण है जहां थोड़ा सा अभिनति होने से वेरियंस में काफी कमी आ सकती है, और समग्र रूप से अधिक विश्वसनीय अनुमान लग सकते हैं।]]जबकि अभिनति अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित नमूने के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उम्मीद कर सकता है। | ||
एक अनुमानक जो | एक अनुमानक जो अभिनति को कम करता है, आवश्यक रूप से [[औसत वर्ग त्रुटि]] को कम नहीं करेगा। | ||
एक उपाय जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" />:<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math> | एक उपाय जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" />:<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math> | ||
यह | यह अभिनति के वर्ग के बराबर दिखाया जा सकता है, साथ ही विचरण:<ref name=":0" />:<math>\begin{align} | ||
\operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\ | \operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\ | ||
= & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta}) | = & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta}) | ||
Line 166: | Line 167: | ||
:<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta })) | :<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta })) | ||
+\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> | +\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> | ||
जहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण मैट्रिक्स का निशान (विकर्ण योग) है और <math>\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> वर्ग [[वेक्टर मानदंड]] है। | |||
=== उदाहरण: जनसंख्या विचरण का अनुमान === | === उदाहरण: जनसंख्या विचरण का अनुमान === | ||
Line 173: | Line 174: | ||
:<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math> | :<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math> | ||
उपरोक्त के अनुसार जनसंख्या विचरण के लिए मांगा गया है, लेकिन इस बार | उपरोक्त के अनुसार जनसंख्या विचरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए: | ||
:<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\ | :<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\ | ||
= & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math> | = & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math> | ||
यदि चर X<sub>1</sub> ... एक्स<sub>''n''</sub> एक सामान्य | यदि चर X<sub>1</sub> ... एक्स<sub>''n''</sub> एक सामान्य बंटन का पालन करें, फिर एनएस<sup>2</sup>/प<sup>2</sup> का n − 1 स्वतंत्रता की डिग्री के साथ ची-वर्ग बंटन है, जो देता है: | ||
:<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math> | :<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math> | ||
Line 183: | Line 184: | ||
:<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math> | :<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math> | ||
थोड़े से बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त नुकसान | थोड़े से बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त नुकसान फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनति के वर्ग को कम करता है। | ||
सामान्य रूप से यह केवल प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है। | |||
हालांकि यह बहुत आम है कि | हालांकि यह बहुत आम है कि अभिनति-विचरण व्यापार को माना जा सकता है, जैसे कि अभिनति में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है। | ||
== बायेसियन व्यू == | == बायेसियन व्यू == | ||
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक | अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े नमूनों की सीमा में उचित है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।<ref>{{cite book |first1=A. |last1=Gelman |display-authors=1 |first2=John S. |last2=Carlin |first3=Hal S. |last3=Stern |first4=Donald B. |last4=Rubin |year=1995 |title=बायेसियन डेटा विश्लेषण|publisher=Chapman and Hall |isbn=0-412-03991-5 |page=108 }}</ref> | ||
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त | मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श बंटन के आधार पर एक आंकड़े के प्रायिकता बंटन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता बंटन का निर्माण करने का प्रयास किया जाता है: | ||
:<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math> | :<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math> | ||
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना | यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, केवल प्राप्त डेटा और डेटा जनरेशन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए [[पूर्व संभावना]], जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर चीज का हिसाब लेता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनति से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे। | ||
लेकिन एक बायेसियन दृष्टिकोण के परिणाम | लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, भले ही बायेसियन पूर्व में एक गैर-सूचनात्मक अपनाने की कोशिश करता हो। | ||
उदाहरण के लिए, फिर से एक अज्ञात जनसंख्या प्रसरण σ के अनुमान पर विचार करें<sup>अज्ञात माध्य के साथ सामान्य बंटन का 2</sup>, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है | उदाहरण के लिए, फिर से एक अज्ञात जनसंख्या प्रसरण σ के अनुमान पर विचार करें<sup>अज्ञात माध्य के साथ सामान्य बंटन का 2</sup>, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है | ||
:<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | :<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | ||
इस समस्या के लिए असूचनात्मक पूर्व का एक मानक विकल्प मानक विचलन पैरामीटर के साथ जेफरीज़ पूर्व#गाऊसी | इस समस्या के लिए असूचनात्मक पूर्व का एक मानक विकल्प मानक विचलन पैरामीटर के साथ जेफरीज़ पूर्व#गाऊसी बंटन है, <math>\scriptstyle{p(\sigma^2) \;\propto\; 1 / \sigma^2}</math>, जो ln(σ<sup>2</sup>). | ||
इसे पहले अपनाने का एक परिणाम यह है कि ''स''<sup>2</sup>/प<sup>2</sup> एक महत्वपूर्ण मात्रा है, अर्थात S का प्रायिकता | इसे पहले अपनाने का एक परिणाम यह है कि ''स''<sup>2</sup>/प<sup>2</sup> एक महत्वपूर्ण मात्रा है, अर्थात S का प्रायिकता बंटन<sup>2</sup>/प<sup>2</sup> केवल S पर निर्भर करता है<sup>2</sup>/प<sup>2</sup>, S के मान से स्वतंत्र<sup>2</sup> या पृ<sup>2</sup>: | ||
:<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math> | :<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math> | ||
Line 212: | Line 213: | ||
:<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | :<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | ||
— जब उम्मीद को σ के प्रायिकता बंटन पर ले लिया जाता है<sup>2</sup> दिया हुआ S<sup>2</sup>, जैसा कि एस के | — जब उम्मीद को σ के प्रायिकता बंटन पर ले लिया जाता है<sup>2</sup> दिया हुआ S<sup>2</sup>, जैसा कि एस के अतिरिक्त बायेसियन स्थिति में है<sup>2</sup> दिए गए p<sup>2</sup>, अब कोई σ नहीं ले सकता<sup>4</sup> एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ के बड़े मानों पर अधिक भार डालती है।<sup>2</sup>, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ के बड़े मानों को कम आंकने का परिणाम है<sup>σ के छोटे मानों को अधिक आंकने की तुलना में 2</sup> औसत वर्ग-नुकसान के संदर्भ में अधिक महंगा है<sup>2</उप>। | ||
कार्य-आउट बायेसियन गणना σ के पश्च | कार्य-आउट बायेसियन गणना σ के पश्च प्रायिकता बंटन के लिए स्वतंत्रता की n − 1 डिग्री के साथ एक मापन्ड व्युत्क्रम ची-वर्ग बंटन देता है।<sup>2</उप>। सीएनएस होने पर अपेक्षित नुकसान कम हो जाता है<sup>2</सुप> = <पी<sup>2</sup>>; यह तब होता है जब c = 1/(n − 3). | ||
यहां तक कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान | यहां तक कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-नुकसान न्यूनतम परिणाम नहीं दे सकती है। | ||
== यह भी देखें == | == यह भी देखें == |
Revision as of 23:19, 27 March 2023
इस विषय के व्यापक सूचना के लिए, अभिनति (सांख्यिकी) देखें।
सांख्यिकी में, अनुमानक (या अभिनति फलन) का अभिनति इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनति वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनति" एक अनुमानक की एक वस्तुगत गुण है। अभिनति संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनति बनाम निरंतरता देखें।
अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनति अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनति अनुमानक (सामान्य रूप से छोटे अभिनति के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनति अनुमानक का उपयोग किया जाता है, तो अभिनति की सीमा की गणना की जाती है। अभिनति अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि जनसंख्या के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि केंद्रीय प्रवृत्ति के विभिन्न समाधानों के संबंध में अभिनति अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से अवमूल्यन अनुमानक में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और केवल अनभिनत अनुमानक उपयोगी नहीं होते हैं।
अभिनति को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण जनसंख्या विचरण के लिए अभिनति अनुमानक है। ये सभी नीचे सचित्र हैं।
परिभाषा
मान लीजिए कि हमारे पास एक सांख्यिकीय मॉडल है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा , के लिए प्रायिकता बंटन को उत्पन्न करता है और एक आँकड़ा जो किसी भी देखे गए डेटा के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात बंटन का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस बंटन का हिस्सा है), और फिर हम कुछ अनुमानक का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। का 'अभिनति' के सापेक्ष परिभाषित किया जाता है[1]
जहाँ बंटन पर अपेक्षित मान दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत ) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त वितरण के संबंध में मापने योग्य है
अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनति पैरामीटर θ के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।[2]
अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनति का आकलन किया जा सकता है।
उदाहरण
प्रतिदर्श विचरण
यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनति के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनति है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनति अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनति है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (बंटन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनति अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य बंटन के लिए इष्टतम मान n + 1 है।
मान लीजिए कि X1, ..., Xn स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और विचरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है
तब S2 σ2 का अभिनति अनुमानक है, क्योंकि
जारी रखने के लिए, हम ध्यान दें कि घटाकर के दोनों ओर से , हम पाते हैं
अर्थ, (तिर्यक-गुणन द्वारा) . फिर, पहला बन जाता है:
इसे निम्नलिखित सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो उपरोक्त असंशोधित प्रतिदर्श भिन्नता की अपेक्षा के लिए असमानता में शब्द के लिए भिन्नता # असंबद्ध चर के योग (बिनेमे फॉर्मूला) | बायनेमे फॉर्मूला से निम्नानुसार है: .
दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान जनसंख्या प्रसरण σ के बराबर नहीं होता है2, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है[3] जनसंख्या का अनुमानक मतलब μ।[2]
ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा है , और यह जनसंख्या विचरण का अनभिनत अनुमानक है।
बीजगणितीय रूप से बोलते हुए, अनभिनत है क्योंकि:
जहां दूसरी पंक्ति में संक्रमण अभिनति अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार , और इसलिए जनसंख्या विचरण का अनभिनत अनुमानक है, σ2</उप>। प्रसरण के अभिनति (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है।
कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S2, इस तथ्य से अभिनति है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (OLS) अनुमानक है: वह संख्या है जो योग बनाती है जितना संभव हो उतना छोटा। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग केवल बढ़ सकता है। विशेष रूप से, पसंद देता है,
और तब
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर की दिशा में प्रक्षेपित करके माध्य भाग और विचरण भाग में विघटित किया जा सकता है और उस दिशा के ओर्थोगोनल पूरक हाइपरप्लेन। एक को मिलता है भाग के लिए और पूरक भाग के लिए। चूंकि यह एक ओर्थोगोनल अपघटन है, पाइथागोरस प्रमेय कहता है , और अपेक्षाओं को लेकर हम प्राप्त करते हैं , ऊपर के रूप में (लेकिन times ). यदि का बंटन घूर्णी रूप से सममित है, जैसे कि जब गॉसियन से नमूने लिए जाते हैं, फिर औसतन, साथ में आयाम करने के लिए योगदान देते है समान रूप से दिशाओं के लिए लंबवत , ताकि और . यह वास्तव में सामान्य तौर पर सच है, जैसा कि ऊपर बताया गया है।
प्वासों प्रायिकता का अनुमान लगाना
किसी भी अनभिनत अनुमानक की तुलना में अभिनति अनुमानक के अधिकतम होने का एक और अधिक चरम मामला पोइसन बंटन से उत्पन्न होता है।[4][5] मान लीजिए कि एक्स के पास अपेक्षा λ के साथ पॉइसन बंटन है। मान लीजिए कि यह अनुमान लगाना चाहता है
आकार 1 के एक नमूने के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या है, तो ई−2λ संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।)
चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र कार्य है
इसे देखने के लिए, ध्यान दें कि ई को विघटित करते समय−λ अपेक्षा के लिए उपरोक्त अभिव्यक्ति से, शेष राशि e का टेलर श्रृंखला विस्तार है−λ साथ ही, उपज देने वाला ई−λई−λ</सुप> = ई−2λ (एक्सपोनेंशियल फंक्शन के लक्षण देखें)।
यदि एक्स का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के करीब होने की संभावना है, जो विपरीत चरम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी बेतुका है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए।
(अभिनति) अधिकतम संभावना
इस अनभिनत अनुमानक से कहीं अधिकतम है। न केवल इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक सटीक होता है कि इसका माध्य औसत वर्ग त्रुटि है
छोटा है; के अनभिनत अनुमानक के एमएसई की तुलना करें
एमएसई वास्तविक मान λ के कार्य हैं। अधिकतम-संभावना अनुमानक का अभिनति है:
असतत समान बंटन का अधिकतम
अधिकतम-संभावना अनुमानकों का अभिनति पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, भले ही अपेक्षा X दिया हुआ n केवल (n + 1)/2 है; हम केवल निश्चित हो सकते हैं कि n कम से कम X है और शायद अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है।
माध्य-अनभिनत अनुमानक
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:[6]
एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त संपत्ति है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।
मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।[citation needed] विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम संभावना | अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन|एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं।
प्रायिकता बंटन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें मोनोटोन संभावना अनुपात है। -अनभिनत आकलनकर्ता)।[7][8] ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता बंटन के एक छोटे वर्ग के लिए है, लेकिन हानि-कार्यों के एक बड़े वर्ग के लिए है।[8]
अन्य हानि कार्यों के संबंध में अभिनति
कोई न्यूनतम-विचरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम (सांख्यिकी) (अपेक्षित हानि) को कम करता है, जैसा कि गॉस द्वारा देखा गया है।[9] एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि लाप्लास द्वारा देखा गया है।[9][10] अन्य नुकसान कार्यों का उपयोग सांख्यिकी में किया जाता है, विशेष रूप से प्रबल सांख्यिकी में।[9][11]
रूपांतरों का प्रभाव
अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो ऑर्डर (या रिवर्स ऑर्डर) को संरक्षित करते हैं। ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण लागू किया जाता है, तो परिणाम को इसके संगत जनसंख्या सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल कार्य सकारात्मक अभिनति पेश करेगा, जबकि एक अवतल कार्य नकारात्मक अभिनति पेश करेगा, और मिश्रित उत्तलता का कार्य विशिष्ट कार्य और बंटन के आधार पर किसी भी दिशा में अभिनति पेश कर सकता है। यही है, एक गैर-रैखिक फलन एफ और पैरामीटर पी के एक औसत-अनभिनत अनुमानक यू के लिए, समग्र अनुमानक एफ (यू) को एफ (पी) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, जनसंख्या विचरण के अनभिनत अनुमानक का वर्गमूल है not जनसंख्या मानक विचलन का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही प्रतिदर्श मानक विचलन, अभिनति है। अभिनति अनुमानक के प्रतिदर्श बंटन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए काफी सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें।
अभिनति, विचरण और माध्य औसत वर्ग त्रुटि
जबकि अभिनति अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित नमूने के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उम्मीद कर सकता है।
एक अनुमानक जो अभिनति को कम करता है, आवश्यक रूप से औसत वर्ग त्रुटि को कम नहीं करेगा। एक उपाय जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,[1]: यह अभिनति के वर्ग के बराबर दिखाया जा सकता है, साथ ही विचरण:[1]: जब पैरामीटर एक वेक्टर होता है, तो एक समान अपघटन लागू होता है:[12]
जहाँ अनुमानक के सहप्रसरण मैट्रिक्स का निशान (विकर्ण योग) है और वर्ग वेक्टर मानदंड है।
उदाहरण: जनसंख्या विचरण का अनुमान
उदाहरण के लिए,[13] मान लीजिए फॉर्म का अनुमानक
उपरोक्त के अनुसार जनसंख्या विचरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए:
यदि चर X1 ... एक्सn एक सामान्य बंटन का पालन करें, फिर एनएस2/प2 का n − 1 स्वतंत्रता की डिग्री के साथ ची-वर्ग बंटन है, जो देता है:
इसलिए
थोड़े से बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त नुकसान फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनति के वर्ग को कम करता है।
सामान्य रूप से यह केवल प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है।
हालांकि यह बहुत आम है कि अभिनति-विचरण व्यापार को माना जा सकता है, जैसे कि अभिनति में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है।
बायेसियन व्यू
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े नमूनों की सीमा में उचित है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।[14] मौलिक रूप से, बायेसियन सांख्यिकी और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श बंटन के आधार पर एक आंकड़े के प्रायिकता बंटन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता बंटन का निर्माण करने का प्रयास किया जाता है:
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, केवल प्राप्त डेटा और डेटा जनरेशन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए पूर्व संभावना, जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर चीज का हिसाब लेता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनति से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे।
लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, भले ही बायेसियन पूर्व में एक गैर-सूचनात्मक अपनाने की कोशिश करता हो।
उदाहरण के लिए, फिर से एक अज्ञात जनसंख्या प्रसरण σ के अनुमान पर विचार करेंअज्ञात माध्य के साथ सामान्य बंटन का 2, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है
इस समस्या के लिए असूचनात्मक पूर्व का एक मानक विकल्प मानक विचलन पैरामीटर के साथ जेफरीज़ पूर्व#गाऊसी बंटन है, , जो ln(σ2).
इसे पहले अपनाने का एक परिणाम यह है कि स2/प2 एक महत्वपूर्ण मात्रा है, अर्थात S का प्रायिकता बंटन2/प2 केवल S पर निर्भर करता है2/प2, S के मान से स्वतंत्र2 या पृ2:
हालांकि, जबकि
इसके विपरीत
— जब उम्मीद को σ के प्रायिकता बंटन पर ले लिया जाता है2 दिया हुआ S2, जैसा कि एस के अतिरिक्त बायेसियन स्थिति में है2 दिए गए p2, अब कोई σ नहीं ले सकता4 एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ के बड़े मानों पर अधिक भार डालती है।2, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ के बड़े मानों को कम आंकने का परिणाम हैσ के छोटे मानों को अधिक आंकने की तुलना में 2 औसत वर्ग-नुकसान के संदर्भ में अधिक महंगा है2</उप>।
कार्य-आउट बायेसियन गणना σ के पश्च प्रायिकता बंटन के लिए स्वतंत्रता की n − 1 डिग्री के साथ एक मापन्ड व्युत्क्रम ची-वर्ग बंटन देता है।2</उप>। सीएनएस होने पर अपेक्षित नुकसान कम हो जाता है2</सुप> = <पी2>; यह तब होता है जब c = 1/(n − 3).
यहां तक कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-नुकसान न्यूनतम परिणाम नहीं दे सकती है।
यह भी देखें
- लगातार अनुमानक
- कुशल अनुमानक
- अनुमान सिद्धांत
- अपेक्षित हानि
- अपेक्षित मूल्य
- लॉस फंकशन
- न्यूनतम-विचरण निष्पक्ष अनुमानक
- लोप-चर पूर्वाग्रह
- आशावाद पूर्वाग्रह
- अनुपात अनुमानक
- सांख्यिकीय निर्णय सिद्धांत
टिप्पणियाँ
- ↑ 1.0 1.1 1.2 Kozdron, Michael (March 2016). "Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)" (PDF). stat.math.uregina.ca. Retrieved 2020-09-11.
- ↑ 2.0 2.1 Taylor, Courtney (January 13, 2019). "निष्पक्ष और पक्षपाती अनुमानक". ThoughtCo (in English). Retrieved 2020-09-12.
- ↑ Richard Arnold Johnson; Dean W. Wichern (2007). अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण. Pearson Prentice Hall. ISBN 978-0-13-187715-3. Retrieved 10 August 2012.
- ↑ J. P. Romano and A. F. Siegel (1986) Counterexamples in Probability and Statistics, Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168
- ↑ Hardy, M. (1 March 2003). "एक प्रबुद्ध प्रति उदाहरण". American Mathematical Monthly. 110 (3): 234–238. arXiv:math/0206006. doi:10.2307/3647938. ISSN 0002-9890. JSTOR 3647938.
- ↑ Brown (1947), page 583
- ↑ Pfanzagl, Johann (1979). "उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर". The Annals of Statistics. 7 (1): 187–193. doi:10.1214/aos/1176344563.
- ↑ 8.0 8.1 Brown, L. D.; Cohen, Arthur; Strawderman, W. E. (1976). "अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय". Ann. Statist. 4 (4): 712–722. doi:10.1214/aos/1176343543.
- ↑ 9.0 9.1 9.2 Dodge, Yadolah, ed. (1987). Statistical Data Analysis Based on the L1-Norm and Related Methods. Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987. Amsterdam: North-Holland. ISBN 0-444-70273-3.
- ↑ Jaynes, E. T. (2007). Probability Theory : The Logic of Science. Cambridge: Cambridge Univ. Press. p. 172. ISBN 978-0-521-59271-0.
- ↑ Klebanov, Lev B.; Rachev, Svetlozar T.; Fabozzi, Frank J. (2009). "Loss Functions and the Theory of Unbiased Estimation". सांख्यिकी में मजबूत और गैर-मजबूत मॉडल. New York: Nova Scientific. ISBN 978-1-60741-768-2.
- ↑ Taboga, Marco (2010). "संभाव्यता सिद्धांत और गणितीय सांख्यिकी पर व्याख्यान".
- ↑ DeGroot, Morris H. (1986). प्रायिकता अौर सांख्यिकी (2nd ed.). Addison-Wesley. pp. 414–5. ISBN 0-201-11366-X. But compare it with, for example, the discussion in Casella; Berger (2001). Statistical Inference (2nd ed.). Duxbury. p. 332. ISBN 0-534-24312-6.
- ↑ Gelman, A.; et al. (1995). बायेसियन डेटा विश्लेषण. Chapman and Hall. p. 108. ISBN 0-412-03991-5.
संदर्भ
- Brown, George W. "On Small-Sample Estimation." The Annals of Mathematical Statistics, vol. 18, no. 4 (Dec., 1947), pp. 582–585. JSTOR 2236236.
- Lehmann, E. L. "A General Concept of Unbiasedness" The Annals of Mathematical Statistics, vol. 22, no. 4 (Dec., 1951), pp. 587–592. JSTOR 2236928.
- Allan Birnbaum, 1961. "A Unified Theory of Estimation, I", The Annals of Mathematical Statistics, vol. 32, no. 1 (Mar., 1961), pp. 112–135.
- Van der Vaart, H. R., 1961. "Some Extensions of the Idea of Bias" The Annals of Mathematical Statistics, vol. 32, no. 2 (June 1961), pp. 436–447.
- Pfanzagl, Johann. 1994. Parametric Statistical Theory. Walter de Gruyter.
- Stuart, Alan; Ord, Keith; Arnold, Steven [F.] (2010). Classical Inference and the Linear Model. Kendall's Advanced Theory of Statistics. Vol. 2A. Wiley. ISBN 978-0-4706-8924-0..
- Voinov, Vassily [G.]; Nikulin, Mikhail [S.] (1993). Unbiased estimators and their applications. Vol. 1: Univariate case. Dordrect: Kluwer Academic Publishers. ISBN 0-7923-2382-3.
- Voinov, Vassily [G.]; Nikulin, Mikhail [S.] (1996). Unbiased estimators and their applications. Vol. 2: Multivariate case. Dordrect: Kluwer Academic Publishers. ISBN 0-7923-3939-8.
- Klebanov, Lev [B.]; Rachev, Svetlozar [T.]; Fabozzi, Frank [J.] (2009). Robust and Non-Robust Models in Statistics. New York: Nova Scientific Publishers. ISBN 978-1-60741-768-2.
बाहरी संबंध
- "Unbiased estimator", Encyclopedia of Mathematics, EMS Press, 2001 [1994][clarification needed]