अनुमानक का पूर्वाग्रह: Difference between revisions

From Vigyanwiki
No edit summary
Line 1: Line 1:
{{Short description|Difference between an estimator's expected value from a parameter's true value}}
{{Short description|Difference between an estimator's expected value from a parameter's true value}}
इस विषय के व्यापक सूचना के लिए, अभिनति (सांख्यिकी) देखें।
इस विषय के व्यापक सूचना के लिए, अभिनत (सांख्यिकी) देखें।


सांख्यिकी में, अनुमानक (या अभिनति फलन) का अभिनति इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनति वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनति" एक अनुमानक की एक वस्तुगत गुण है। अभिनति संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनति बनाम निरंतरता देखें।
सांख्यिकी में, '''अनुमानक (या अभिनत फलन) का अभिनत''' इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनत वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनत" एक अनुमानक की एक वस्तुगत गुण है। अभिनत संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनत बनाम निरंतरता देखें।


अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनति अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनति अनुमानक (सामान्य रूप से छोटे अभिनति के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनति अनुमानक का उपयोग किया जाता है, तो अभिनति की सीमा की गणना की जाती है। अभिनति अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि जनसंख्या के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि [[केंद्रीय प्रवृत्ति]] के विभिन्न समाधानों के संबंध में अभिनति अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से [[संकोचन अनुमानक|अवमूल्यन अनुमानक]] में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और केवल अनभिनत अनुमानक उपयोगी नहीं होते हैं।
अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनत अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनत अनुमानक (सामान्य रूप से छोटे अभिनत के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनत अनुमानक का उपयोग किया जाता है, तो अभिनत की सीमा की गणना की जाती है। अभिनत अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि समष्‍टि के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि [[केंद्रीय प्रवृत्ति]] के विभिन्न समाधानों के संबंध में अभिनत अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से [[संकोचन अनुमानक|अवमूल्यन अनुमानक]] में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और सिर्फ अनभिनत अनुमानक उपयोगी नहीं होते हैं।


अभिनति को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण जनसंख्या विचरण के लिए अभिनति अनुमानक है। ये सभी नीचे सचित्र हैं।
अभिनत को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण समष्‍टि प्रसरण के लिए अभिनत अनुमानक है। ये सभी नीचे सचित्र हैं।


== परिभाषा ==
== परिभाषा ==


मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा , <math>P_\theta(x) = P(x\mid\theta)</math> के लिए प्रायिकता बंटन को उत्पन्न करता है और एक आँकड़ा <math>\hat\theta</math> जो किसी भी देखे गए डेटा <math>x</math> के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात बंटन  <math>P(x\mid\theta)</math> का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस बंटन का हिस्सा है), और फिर हम कुछ अनुमानक <math>\hat\theta</math> का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। <math>\hat\theta</math> का 'अभिनति' के सापेक्ष <math>\theta</math> परिभाषित किया जाता है<ref name=":0">{{Cite web|last=Kozdron|first=Michael|date=March 2016|title=Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)|url=http://stat.math.uregina.ca/~kozdron/Teaching/Regina/252Winter16/Handouts/ch3.pdf|access-date=2020-09-11|website=stat.math.uregina.ca}}</ref>
मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा, <math>P_\theta(x) = P(x\mid\theta)</math> के लिए प्रायिकता विभाजन को उत्पन्न करता है और एक आँकड़ा <math>\hat\theta</math> जो किसी भी देखे गए डेटा <math>x</math> के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात विभाजन <math>P(x\mid\theta)</math> का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस विभाजन का हिस्सा है), और फिर हम कुछ अनुमानक <math>\hat\theta</math> का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। <math>\hat\theta</math> का 'अभिनत' के सापेक्ष <math>\theta</math> परिभाषित किया जाता है<ref name=":0">{{Cite web|last=Kozdron|first=Michael|date=March 2016|title=Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)|url=http://stat.math.uregina.ca/~kozdron/Teaching/Regina/252Winter16/Handouts/ch3.pdf|access-date=2020-09-11|website=stat.math.uregina.ca}}</ref>
:<math> \operatorname{Bias}(\hat\theta, \theta)  =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math>
:<math> \operatorname{Bias}(\hat\theta, \theta)  =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math>
जहाँ <math>\operatorname{E}_{x\mid\theta}</math> बंटन पर अपेक्षित मान <math>P(x\mid\theta)</math> दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत <math>x</math>) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त वितरण  <math>P(x\mid\theta)</math> के संबंध में मापने योग्य है
जहाँ <math>\operatorname{E}_{x\mid\theta}</math> विभाजन पर अपेक्षित मान <math>P(x\mid\theta)</math> दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत <math>x</math>) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त विभाजन <math>P(x\mid\theta)</math> के संबंध में मापने योग्य है


अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनति पैरामीटर ''θ'' के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।<ref name=":1">{{Cite web|last=Taylor|first=Courtney|date=January 13, 2019|title=निष्पक्ष और पक्षपाती अनुमानक|url=https://www.thoughtco.com/what-is-an-unbiased-estimator-3126502|access-date=2020-09-12|website=ThoughtCo|language=en}}</ref>
अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनत पैरामीटर ''θ'' के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।<ref name=":1">{{Cite web|last=Taylor|first=Courtney|date=January 13, 2019|title=निष्पक्ष और पक्षपाती अनुमानक|url=https://www.thoughtco.com/what-is-an-unbiased-estimator-3126502|access-date=2020-09-12|website=ThoughtCo|language=en}}</ref>


अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनति का आकलन किया जा सकता है।
अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनत का आकलन किया जा सकता है।


== उदाहरण ==
== उदाहरण ==


=== प्रतिदर्श विचरण ===
=== प्रतिदर्श प्रसरण ===
{{main|प्रतिदर्श विचरण}}
{{main|प्रतिदर्श विचरण}}


यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनति के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनति है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनति अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनति है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (बंटन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनति अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य बंटन के लिए इष्टतम मान n + 1 है।
यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनत के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनत है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनत अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनत है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (विभाजन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनत अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य विभाजन के लिए इष्टतम मान n + 1 है।


मान लीजिए कि ''X''<sub>1</sub>, ..., ''X<sub>n</sub>'' स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और विचरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है
मान लीजिए कि ''X''<sub>1</sub>, ..., ''X<sub>n</sub>'' स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और प्रसरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है


:<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math>
:<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math>
तब S<sup>2</sup> ''σ''<sup>2</sup> का अभिनति अनुमानक है, क्योंकि
तब S<sup>2</sup> ''σ''<sup>2</sup> का अभिनत अनुमानक है, क्योंकि
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 48: Line 48:
     \end{align}
     \end{align}
</math>
</math>
जारी रखने के लिए, हम ध्यान दें कि <math>\mu</math> घटाकर के दोनों ओर से <math>\overline{X}= \frac 1 n \sum_{i=1}^nX_i</math>, हम पाते हैं
जारी रखने के लिए, हम ध्यान दें कि <math>\mu</math> घटाकर के दोनों ओर से <math>\overline{X}= \frac 1 n \sum_{i=1}^nX_i</math>, हम पाते हैं
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 73: Line 73:
     \end{align}
     \end{align}
   </math>
   </math>
इसे निम्नलिखित सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो उपरोक्त असंशोधित प्रतिदर्श भिन्नता की अपेक्षा के लिए असमानता में शब्द के लिए भिन्नता # असंबद्ध चर के योग (बिनेमे फॉर्मूला) | बायनेमे फॉर्मूला से निम्नानुसार है: <math>\operatorname{E}\big[ (\overline{X}-\mu)^2 \big] = \frac 1 n \sigma^2</math>.
यह निम्न सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो ऊपर दिए गए असंशोधित प्रतिदर्श प्रसरण की अपेक्षा के लिए असमानता में पद के लिए, बायनेमे सूत्र से अनुसरण करता है: <math>\operatorname{E}\big[ (\overline{X}-\mu)^2 \big] = \frac 1 n \sigma^2</math>.


दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान जनसंख्या प्रसरण σ के बराबर नहीं होता है<sup>2</sup>, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है<ref name="JohnsonWichern2007">{{cite book|author1=Richard Arnold Johnson|author2=Dean W. Wichern|title=अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण|url=https://books.google.com/books?id=gFWcQgAACAAJ|access-date=10 August 2012|year=2007|publisher=Pearson Prentice Hall|isbn=978-0-13-187715-3}}</ref> जनसंख्या का अनुमानक मतलब μ।<ref name=":1" />
दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान समष्टि प्रसरण σ<sup>2</sup> के बराबर नहीं होता है, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है<ref name="JohnsonWichern2007">{{cite book|author1=Richard Arnold Johnson|author2=Dean W. Wichern|title=अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण|url=https://books.google.com/books?id=gFWcQgAACAAJ|access-date=10 August 2012|year=2007|publisher=Pearson Prentice Hall|isbn=978-0-13-187715-3}}</ref> समष्‍टि माध्य μ का अनुमानक है।<ref name=":1" />


ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा है <math>S^2=\frac 1 {n-1} \sum_{i=1}^n(X_i-\overline{X}\,)^2</math>, और यह जनसंख्या विचरण का अनभिनत अनुमानक है।
ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा <math>S^2=\frac 1 {n-1} \sum_{i=1}^n(X_i-\overline{X}\,)^2</math> है, और यह समष्‍टि प्रसरण का अनभिनत अनुमानक है।


बीजगणितीय रूप से बोलते हुए, <math> \operatorname{E}[S^2] </math> अनभिनत है क्योंकि:
बीजगणितीय रूप से, <math> \operatorname{E}[S^2] </math> अनभिनत है क्योंकि:
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 88: Line 88:
     \end{align}
     \end{align}
</math>
</math>
जहां दूसरी पंक्ति में संक्रमण अभिनति अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार <math>\operatorname{E}[S^2] = \sigma^2</math>, और इसलिए <math>S^2=\frac 1 {n-1}\sum_{i=1}^n(X_i-\overline{X}\,)^2</math> जनसंख्या विचरण का अनभिनत अनुमानक है, σ<sup>2</उप>प्रसरण के अभिनति (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है।
जहां दूसरी पंक्ति में संक्रमण अभिनत अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार <math>\operatorname{E}[S^2] = \sigma^2</math>, और इसलिए <math>S^2=\frac 1 {n-1}\sum_{i=1}^n(X_i-\overline{X}\,)^2</math> समष्‍टि प्रसरण का σ<sup>2</sup> अनभिनत अनुमानक है। प्रसरण के अभिनत (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है।


कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S<sup>2</sup>, इस तथ्य से अभिनति है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (OLS) अनुमानक है: <math>\overline{X}</math> वह संख्या है जो योग बनाती है <math>\sum_{i=1}^n (X_i-\overline{X})^2</math> जितना संभव हो उतना छोटा। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग केवल बढ़ सकता है। विशेष रूप से, पसंद <math>\mu \ne \overline{X}</math> देता है,
कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S<sup>2</sup>, इस तथ्य से अभिनत है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (ओएलएस) अनुमानक है: <math>\overline{X}</math> वह संख्या है जो <math>\sum_{i=1}^n (X_i-\overline{X})^2</math> जितना संभव हो उतना छोटा योग बनाती है। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग सिर्फ बढ़ सकता है। विशेष रूप से, <math>\mu \ne \overline{X}</math> का विकल्प देता है,


:<math>
:<math>
Line 103: Line 103:
     \end{align}
     \end{align}
   </math>
   </math>
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और विचरण भाग में विघटित किया जा सकता है <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के ओर्थोगोनल पूरक हाइपरप्लेन। एक को मिलता है <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए। चूंकि यह एक ओर्थोगोनल अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम प्राप्त करते हैं <math>  n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math>, ऊपर के रूप में (लेकिन times <math>n</math>).
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और प्रसरण भाग <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के लंबकोणीयपूरक अधिसमतल में विघटित किया जा सकता है। किसी को <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए प्राप्त होता है। चूंकि यह एक लंबकोणीय अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम <math>  n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math> प्राप्त करते हैं, जैसा ऊपर (लेकिन <math>n</math> गुना) दिया गया है। यदि <math>\vec{C}</math> का विभाजन घूर्णी रूप से सममित है, जैसे कि जब <math>X_i</math> गॉसियन से प्रतिदर्श लिए जाते हैं, फिर औसतन <math> \vec{u}</math>, साथ में आयाम <math> |\vec{C}|^2</math> करने के लिए योगदान देते है समान रूप से <math>n-1</math> दिशाओं के लिए लंबवत <math> \vec{u}</math>, ताकि <math> \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] =\frac{\sigma^2} n </math> और <math>\operatorname{E}[S^2] =\frac{(n-1)\sigma^2} n </math> यह वास्तव में सामान्य रूप से सत्य है, जैसा कि ऊपर बताया गया है।
यदि का बंटन <math>\vec{C}</math> घूर्णी रूप से सममित है, जैसे कि जब <math>X_i</math> गॉसियन से नमूने लिए जाते हैं, फिर औसतन, साथ में आयाम <math> \vec{u}</math> करने के लिए योगदान देते है <math> |\vec{C}|^2</math> समान रूप से <math>n-1</math> दिशाओं के लिए लंबवत <math> \vec{u}</math>, ताकि <math> \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] =\frac{\sigma^2} n </math> और <math>\operatorname{E}[S^2] =\frac{(n-1)\sigma^2} n </math>. यह वास्तव में सामान्य तौर पर सच है, जैसा कि ऊपर बताया गया है।


=== प्वासों प्रायिकता का अनुमान लगाना ===
=== प्वासों प्रायिकता का अनुमान लगाना ===


किसी भी अनभिनत अनुमानक की तुलना में अभिनति अनुमानक के अधिकतम होने का एक और अधिक चरम मामला पोइसन बंटन से उत्पन्न होता है।<ref>J. P. Romano and A. F. Siegel (1986) ''[https://books.google.com/books?id=irKSXZ7kKFgC&q=Poisson Counterexamples in Probability and Statistics]'', Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168</ref><ref>{{Cite journal | first = M.| title = एक प्रबुद्ध प्रति उदाहरण| jstor = 3647938| journal = American Mathematical Monthly| volume = 110| date = 1 March 2003 | issue = 3| pages = 234–238| issn = 0002-9890 | doi = 10.2307/3647938| last = Hardy| arxiv = math/0206006}}</ref> मान लीजिए कि एक्स के पास अपेक्षा λ के साथ पॉइसन बंटन है। मान लीजिए कि यह अनुमान लगाना चाहता है
किसी भी अनभिनत अनुमानक की तुलना में अभिनत अनुमानक के अधिकतम होने का एक और अधिक महत्वपूर्ण स्थिति पोइसन विभाजन से उत्पन्न होती है।<ref>J. P. Romano and A. F. Siegel (1986) ''[https://books.google.com/books?id=irKSXZ7kKFgC&q=Poisson Counterexamples in Probability and Statistics]'', Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168</ref><ref>{{Cite journal | first = M.| title = एक प्रबुद्ध प्रति उदाहरण| jstor = 3647938| journal = American Mathematical Monthly| volume = 110| date = 1 March 2003 | issue = 3| pages = 234–238| issn = 0002-9890 | doi = 10.2307/3647938| last = Hardy| arxiv = math/0206006}}</ref> मान लीजिए कि x के पास अपेक्षा λ के साथ पॉइसन विभाजन है। मान लीजिए कि यह अनुमान लगाना चाहता है
:<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math>
:<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math>
आकार 1 के एक नमूने के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या है, तो ई<sup>−2λ</sup> संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।)
आकार 1 के एक प्रतिदर्श के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या e<sup>−2λ</sup> है, तो संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।)


चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात
चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात
:<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math>
:<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math>
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र कार्य है
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र फलन है
:<math>\delta(x)=(-1)^x. \, </math>
:<math>\delta(x)=(-1)^x. \, </math>
इसे देखने के लिए, ध्यान दें कि ई को विघटित करते समय<sup>−λ</sup> अपेक्षा के लिए उपरोक्त अभिव्यक्ति से, शेष राशि e का [[टेलर श्रृंखला]] विस्तार है<sup>−λ</sup> साथ ही, उपज देने वाला ई<sup>−λ</sup><sup>−λ</सुप> = ई<sup>−2λ</sup> (एक्सपोनेंशियल फंक्शन के लक्षण देखें)।
इसे देखने के लिए, ध्यान दें कि अपेक्षा के लिए उपरोक्त अभिव्यक्ति से e<sup>−''λ''</sup> को विघटित करते समय, शेष राशि e<sup>−''λ''</sup> का टेलर श्रृंखला विस्तार भी है, जिससे e<sup>−''λ''</sup>e<sup>−''λ''</sup> = e<sup>−2''λ''</sup> प्राप्त होता है (घातीय फलन के विवरण देखें)।


यदि एक्स का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के करीब होने की संभावना है, जो विपरीत चरम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी बेतुका है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए।
यदि x का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के समीप होने की संभावना है, जो विपरीत अधिकतम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी असंगत है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए।


(अभिनति) अधिकतम संभावना
(अभिनत) अधिकतम संभावना
:<math>e^{-2{X}}\quad</math>
:<math>e^{-2{X}}\quad</math>
इस अनभिनत अनुमानक से कहीं अधिकतम है। न केवल इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक सटीक होता है कि इसका माध्य औसत वर्ग त्रुटि है
इस अनभिनत अनुमानक से कहीं अधिकतम है। न सिर्फ इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक परिशुद्ध होता है कि इसका माध्य औसत वर्ग त्रुटि है
:<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math>
:<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math>
छोटा है; के अनभिनत अनुमानक के एमएसई की तुलना करें
छोटा है; इसके अनभिनत अनुमानक के माध्य औसत वर्ग त्रुटि की तुलना करें
:<math>1-e^{-4\lambda}. \, </math>
:<math>1-e^{-4\lambda}. \, </math>
एमएसई वास्तविक मान λ के कार्य हैं। अधिकतम-संभावना अनुमानक का अभिनति है:
माध्य औसत वर्ग त्रुटि वास्तविक मान λ के फलन हैं। अधिकतम-संभावना अनुमानक का अभिनत है:
:<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math>
:<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math>




=== असतत समान बंटन का अधिकतम ===
=== असतत समान विभाजन का अधिकतम ===
{{main|Maximum of a discrete uniform distribution}}
{{main|असतत समान वितरण का अधिकतम}}
अधिकतम-संभावना अनुमानकों का अभिनति पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, भले ही अपेक्षा X दिया हुआ n केवल (n + 1)/2 है; हम केवल निश्चित हो सकते हैं कि n कम से कम X है और शायद अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है।
 
अधिकतम-संभावना अनुमानकों का अभिनत पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, तथापि अपेक्षा X दिया हुआ n सिर्फ (n + 1)/2 है; हम सिर्फ निश्चित हो सकते हैं कि n कम से कम X है और संभव्यता अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है।


== माध्य-अनभिनत अनुमानक ==
== माध्य-अनभिनत अनुमानक ==
Line 138: Line 138:
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref>
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref>


{{blockquote|एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त संपत्ति है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।}}
{{blockquote|एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त गुण है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।}}


मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम संभावना | अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन|एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं।
मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं।


प्रायिकता बंटन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें [[मोनोटोन संभावना अनुपात]] है। -अनभिनत आकलनकर्ता)।<ref>{{cite journal |last=Pfanzagl |first=Johann |title=उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर|journal=The Annals of Statistics |year=1979 |volume=7 |issue=1 |pages=187–193 |doi=10.1214/aos/1176344563 |doi-access=free }}</ref><ref name="BrownEtAl">{{cite journal |last1=Brown |first1=L. D. |last2=Cohen |first2=Arthur |last3=Strawderman |first3=W. E. |title=अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय|journal=Ann. Statist. |volume=4 |year=1976 |issue=4 |pages=712–722 |doi=10.1214/aos/1176343543 |doi-access=free }}</ref> ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता बंटन के एक छोटे वर्ग के लिए है, लेकिन हानि-कार्यों के एक बड़े वर्ग के लिए है।<ref name="BrownEtAl" />
प्रायिकता विभाजन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें [[मोनोटोन संभावना अनुपात]] है।) जैसे कि एक-पैरामीटर घातीय वर्ग, यह सुनिश्चित करने के लिए कि वे इष्टतम हैं (माध्य-निष्पक्ष अनुमानक के लिए मानी जाने वाली न्यूनतम-विचरण गुण के अनुरूप)।<ref>{{cite journal |last=Pfanzagl |first=Johann |title=उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर|journal=The Annals of Statistics |year=1979 |volume=7 |issue=1 |pages=187–193 |doi=10.1214/aos/1176344563 |doi-access=free }}</ref><ref name="BrownEtAl">{{cite journal |last1=Brown |first1=L. D. |last2=Cohen |first2=Arthur |last3=Strawderman |first3=W. E. |title=अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय|journal=Ann. Statist. |volume=4 |year=1976 |issue=4 |pages=712–722 |doi=10.1214/aos/1176343543 |doi-access=free }}</ref> ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता विभाजन के एक छोटे वर्ग के लिए है, लेकिन हानि-फलनों के एक बड़े वर्ग के लिए है।<ref name="BrownEtAl" />




== अन्य हानि कार्यों के संबंध में अभिनति ==
== अन्य हानि फलनों के संबंध में अभिनत ==
कोई न्यूनतम-विचरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में [[जोखिम (सांख्यिकी)]] ([[अपेक्षित हानि]]) को कम करता है, जैसा कि [[गॉस]] द्वारा देखा गया है।<ref name="Dodge">{{cite book |title=Statistical Data Analysis Based on the L<sub>1</sub>-Norm and Related Methods |series=Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987 |editor-first=Yadolah |editor-last=Dodge |publisher=North-Holland |location=Amsterdam |year=1987 |isbn=0-444-70273-3 }}</ref> एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि [[लाप्लास]] द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book |last1=Jaynes |first1=E. T. |title=Probability Theory : The Logic of Science |date=2007 |publisher=Cambridge Univ. Press |location=Cambridge |isbn=978-0-521-59271-0 |page=172 }}</ref> अन्य नुकसान कार्यों का उपयोग सांख्यिकी में किया जाता है, विशेष रूप से प्रबल सांख्यिकी में।<ref name="Dodge" /><ref>{{cite book |chapter=Loss Functions and the Theory of Unbiased Estimation |title=सांख्यिकी में मजबूत और गैर-मजबूत मॉडल|first1=Lev B. |last1=Klebanov |first2=Svetlozar T. |last2=Rachev |first3=Frank J. |last3=Fabozzi |publisher=Nova Scientific |location=New York |year=2009 |isbn=978-1-60741-768-2 }}</ref>
कोई न्यूनतम-प्रसरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में [[जोखिम (सांख्यिकी)]] ([[अपेक्षित हानि]]) को कम करता है, जैसा कि [[गॉस]] द्वारा देखा गया है।<ref name="Dodge">{{cite book |title=Statistical Data Analysis Based on the L<sub>1</sub>-Norm and Related Methods |series=Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987 |editor-first=Yadolah |editor-last=Dodge |publisher=North-Holland |location=Amsterdam |year=1987 |isbn=0-444-70273-3 }}</ref> एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि [[लाप्लास]] द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book |last1=Jaynes |first1=E. T. |title=Probability Theory : The Logic of Science |date=2007 |publisher=Cambridge Univ. Press |location=Cambridge |isbn=978-0-521-59271-0 |page=172 }}</ref> अन्य त्रुटि फलनों का उपयोग, विशेष रूप से प्रबल सांख्यिकी में किया जाता है।<ref name="Dodge" /><ref>{{cite book |chapter=Loss Functions and the Theory of Unbiased Estimation |title=सांख्यिकी में मजबूत और गैर-मजबूत मॉडल|first1=Lev B. |last1=Klebanov |first2=Svetlozar T. |last2=Rachev |first3=Frank J. |last3=Fabozzi |publisher=Nova Scientific |location=New York |year=2009 |isbn=978-1-60741-768-2 }}</ref>




== रूपांतरों का प्रभाव ==
== रूपांतरों का प्रभाव ==


अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो ऑर्डर (या रिवर्स ऑर्डर) को संरक्षित करते हैं।
अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो क्रम (या प्रतिवर्त क्रम) को संरक्षित करते हैं। ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण प्रयुक्त किया जाता है, तो परिणाम को इसके संगत समष्‍टि सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल फलन धनात्मक अभिनत प्रस्तुत करेगा, जबकि एक अवतल फलन ऋणात्मक अभिनत प्रस्तुत करेगा, और मिश्रित उत्तलता का फलन विशिष्ट फलन और विभाजन के आधार पर किसी भी दिशा में अभिनत प्रस्तुत कर सकता है। यह, एक गैर-रैखिक फलन F और पैरामीटर P के एक औसत-अनभिनत अनुमानक U के लिए, समग्र अनुमानक ''f''(''U'') को F(P) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, समष्‍टि प्रसरण के अनभिनत अनुमानक का [[वर्गमूल]] है {{em|not}} समष्‍टि [[मानक विचलन]] का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही [[नमूना मानक विचलन|प्रतिदर्श मानक विचलन]], अभिनत है। अभिनत अनुमानक के प्रतिदर्श विभाजन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए अपेक्षाकृत अधिक सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें।
ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण लागू किया जाता है, तो परिणाम को इसके संगत जनसंख्या सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल कार्य सकारात्मक अभिनति पेश करेगा, जबकि एक अवतल कार्य नकारात्मक अभिनति पेश करेगा, और मिश्रित उत्तलता का कार्य विशिष्ट कार्य और बंटन के आधार पर किसी भी दिशा में अभिनति पेश कर सकता है। यही है, एक गैर-रैखिक फलन एफ और पैरामीटर पी के एक औसत-अनभिनत अनुमानक यू के लिए, समग्र अनुमानक एफ (यू) को एफ (पी) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, जनसंख्या विचरण के अनभिनत अनुमानक का [[वर्गमूल]] है {{em|not}} जनसंख्या [[मानक विचलन]] का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही [[नमूना मानक विचलन|प्रतिदर्श मानक विचलन]], अभिनति है। अभिनति अनुमानक के प्रतिदर्श बंटन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए काफी सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें।
 
== अभिनत, प्रसरण और माध्य औसत वर्ग त्रुटि ==
{{Main|अभिनत-प्रसरण समझौता}}
{{See also|शुद्धता (सत्यता और सुस्पष्टता)}}
[[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β<sub>0</sub> के लिए दो वैकल्पिक अनुमानकों का प्रतिदर्शकरण विभाजन है। हालांकि β<sub>1</sub> निष्पक्ष है, यह अभिनत β<sub>2</sub> से स्पष्ट रूप से कम है।रिज प्रतिगमन एक तकनीक का एक उदाहरण है जहां अल्प अभिनत की स्वीकृति देने से विचरण में अधिकतम कमी आ सकती है, और समग्र रूप से अधिक विश्वसनीय अनुमान लग सकते हैं।]]जबकि अभिनत अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित प्रतिदर्श के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उपेक्षा कर सकता है।
अनुमानक जो अभिनत को कम करता है, आवश्यक रूप से [[औसत वर्ग त्रुटि]] को कम नहीं करेगा। एक माप जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" />
 
<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math>
 
यह अभिनत के वर्ग के बराबर, साथ ही प्रसरण दिखाया जा सकता है:<ref name=":0" />


== अभिनति, विचरण और माध्य औसत वर्ग त्रुटि ==
<math>\begin{align}
{{Main|Bias–variance tradeoff}}
{{See also|Accuracy (trueness and precision)}}
[[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β के लिए दो वैकल्पिक अनुमानकों का प्रतिदर्शकरण बंटन<sub>0</sub>. हालांकि बी<sub>1</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^ अनभिनत है, यह स्पष्ट रूप से अभिनति β से हीन है<sub>2</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^।<br /><br />[[ रिज प्रतिगमन ]] एक ऐसी तकनीक का उदाहरण है जहां थोड़ा सा अभिनति होने से वेरियंस में काफी कमी आ सकती है, और समग्र रूप से अधिक विश्वसनीय अनुमान लग सकते हैं।]]जबकि अभिनति अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित नमूने के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उम्मीद कर सकता है।
एक अनुमानक जो अभिनति को कम करता है, आवश्यक रूप से [[औसत वर्ग त्रुटि]] को कम नहीं करेगा।
एक उपाय जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" />:<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math>
यह अभिनति के वर्ग के बराबर दिखाया जा सकता है, साथ ही विचरण:<ref name=":0" />:<math>\begin{align}
\operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\
\operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\
= & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta})
= & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta})
\end{align}</math>
\end{align}</math>
जब पैरामीटर एक वेक्टर होता है, तो एक समान अपघटन लागू होता है:<ref name=taboga>{{cite web | last1 = Taboga | first1 = Marco | url = http://www.statlect.com/glossary/mean_squared_error.htm | title = संभाव्यता सिद्धांत और गणितीय सांख्यिकी पर व्याख्यान| year=2010}}</ref>
 
जब पैरामीटर एक वेक्टर होता है, तो एक समान अपघटन प्रयुक्त होता है:<ref name="taboga">{{cite web | last1 = Taboga | first1 = Marco | url = http://www.statlect.com/glossary/mean_squared_error.htm | title = संभाव्यता सिद्धांत और गणितीय सांख्यिकी पर व्याख्यान| year=2010}}</ref>
:<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))
:<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))
+\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math>
+\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math>
जहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण मैट्रिक्स का निशान (विकर्ण योग) है और <math>\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> वर्ग [[वेक्टर मानदंड]] है।
जहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण आव्यूह का चिन्ह (विकर्ण योग) है और <math>\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> वर्ग [[वेक्टर मानदंड]] है।


=== उदाहरण: जनसंख्या विचरण का अनुमान ===
=== उदाहरण: समष्‍टि प्रसरण का अनुमान ===


उदाहरण के लिए,<ref>{{cite book |first=Morris H. |last=DeGroot |year=1986 |title=प्रायिकता अौर सांख्यिकी|url=https://archive.org/details/probabilitystati00degr_679 |url-access=limited |edition=2nd |publisher=Addison-Wesley |isbn=0-201-11366-X |pages=[https://archive.org/details/probabilitystati00degr_679/page/n423 414]–5 }} But compare it with, for example, the discussion in {{cite book |last1=Casella |last2=Berger |year=2001 |title=Statistical Inference |edition=2nd |publisher=Duxbury |isbn=0-534-24312-6 |page=332 }}</ref> मान लीजिए फॉर्म का अनुमानक
उदाहरण के लिए,<ref>{{cite book |first=Morris H. |last=DeGroot |year=1986 |title=प्रायिकता अौर सांख्यिकी|url=https://archive.org/details/probabilitystati00degr_679 |url-access=limited |edition=2nd |publisher=Addison-Wesley |isbn=0-201-11366-X |pages=[https://archive.org/details/probabilitystati00degr_679/page/n423 414]–5 }} But compare it with, for example, the discussion in {{cite book |last1=Casella |last2=Berger |year=2001 |title=Statistical Inference |edition=2nd |publisher=Duxbury |isbn=0-534-24312-6 |page=332 }}</ref> मान लीजिए प्ररूप का अनुमानक


:<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math>
:<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math>
उपरोक्त के अनुसार जनसंख्या विचरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए:
उपरोक्त के अनुसार समष्‍टि प्रसरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए:


:<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\
:<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\
= & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math>
= & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math>
यदि चर X<sub>1</sub> ... एक्स<sub>''n''</sub> एक सामान्य बंटन का पालन करें, फिर एनएस<sup>2</sup>/<sup>2</sup> का n − 1 स्वतंत्रता की डिग्री के साथ ची-वर्ग बंटन है, जो देता है:
यदि चर X<sub>1</sub> ... X<sub>''n''</sub> एक सामान्य विभाजन का अनुसरण करें, फिर ''nS''<sup>2</sup>/σ<sup>2</sup> का n − 1 घात की अबद्धता के साथ काई वर्ग विभाजन है, जो देता है:


:<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math>
:<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math>
Line 184: Line 188:


:<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math>
:<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math>
थोड़े से बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त नुकसान फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनति के वर्ग को कम करता है।
आंशिक बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त त्रुटि फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनत के वर्ग को कम करता है।
 
सामान्य रूप से यह सिर्फ प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है।


सामान्य रूप से यह केवल प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है।
हालांकि यह बहुत सामान्य है कि अभिनत-प्रसरण समझौता समन्वय को माना जा सकता है, जैसे कि अभिनत में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है।


हालांकि यह बहुत आम है कि अभिनति-विचरण व्यापार को माना जा सकता है, जैसे कि अभिनति में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है।
== बायेसियन दृश्य ==
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े प्रतिदर्शों की सीमा में उपयुक्त है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।<ref>{{cite book |first1=A. |last1=Gelman |display-authors=1 |first2=John S. |last2=Carlin |first3=Hal S. |last3=Stern |first4=Donald B. |last4=Rubin |year=1995 |title=बायेसियन डेटा विश्लेषण|publisher=Chapman and Hall |isbn=0-412-03991-5 |page=108 }}</ref>


== बायेसियन व्यू ==
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श विभाजन के आधार पर एक आंकड़े के प्रायिकता विभाजन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता विभाजन का निर्माण करने का प्रयास किया जाता है:
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े नमूनों की सीमा में उचित है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।<ref>{{cite book |first1=A. |last1=Gelman |display-authors=1 |first2=John S. |last2=Carlin |first3=Hal S. |last3=Stern |first4=Donald B. |last4=Rubin |year=1995 |title=बायेसियन डेटा विश्लेषण|publisher=Chapman and Hall |isbn=0-412-03991-5 |page=108 }}</ref>
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श बंटन के आधार पर एक आंकड़े के प्रायिकता बंटन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता बंटन का निर्माण करने का प्रयास किया जाता है:


:<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math>
:<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math>
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, केवल प्राप्त डेटा और डेटा जनरेशन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए [[पूर्व संभावना]], जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर चीज का हिसाब लेता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनति से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे।
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, सिर्फ प्राप्त डेटा और डेटा उत्पादन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए [[पूर्व संभावना]], जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर वस्तु की गणना करता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनत से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे।


लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, भले ही बायेसियन पूर्व में एक गैर-सूचनात्मक अपनाने की कोशिश करता हो।
लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, तथापि बायेसियन पूर्व में एक गैर-सूचनात्मक स्वीकार करने का प्रयास करता हो।


उदाहरण के लिए, फिर से एक अज्ञात जनसंख्या प्रसरण σ के अनुमान पर विचार करें<sup>अज्ञात माध्य के साथ सामान्य बंटन का 2</sup>, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है
उदाहरण के लिए, पुनः अज्ञात माध्य के साथ सामान्य विभाजन का अज्ञात समष्‍टि प्रसरण σ <sup>2</sup> के अनुमान पर विचार करें, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है


:<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
:<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
इस समस्या के लिए असूचनात्मक पूर्व का एक मानक विकल्प मानक विचलन पैरामीटर के साथ जेफरीज़ पूर्व#गाऊसी बंटन है, <math>\scriptstyle{p(\sigma^2) \;\propto\; 1 / \sigma^2}</math>, जो ln(σ<sup>2</sup>).
इस समस्या के लिए बिना जानकारी के पूर्व का एक मानक विकल्प जेफ़रीज़ प्रायर, <math>\scriptstyle{p(\sigma^2) \;\propto\; 1 / \sigma^2}</math> है, जो ln(σ<sup>2</sup>) से पहले एक पुनः मापन-अपरिवर्तनीय समतल भाग को स्वीकृत करने के बराबर है।


इसे पहले अपनाने का एक परिणाम यह है कि ''''<sup>2</sup>/<sup>2</sup> एक महत्वपूर्ण मात्रा है, अर्थात S का प्रायिकता बंटन<sup>2</sup>/<sup>2</sup> केवल S पर निर्भर करता है<sup>2</sup>/<sup>2</sup>, S के मान से स्वतंत्र<sup>2</sup> या पृ<sup>2</sup>:
इसे पहले स्वीकृत करने का एक परिणाम यह है कि ''S''<sup>2</sup>/σ<sup>2</sup> एक महत्वपूर्ण परिणाम है, अर्थात ''S''<sup>2</sup>/σ<sup>2</sup> का प्रायिकता विभाजन केवल ''S''<sup>2</sup>/σ<sup>2</sup> पर निर्भर करता है जो ''S''<sup>2</sup> या σ<sup>2</sup> के मान से स्वतंत्र है:


:<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math>
:<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math>
Line 213: Line 218:


:<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
:<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
— जब उम्मीद को σ के प्रायिकता बंटन पर ले लिया जाता है<sup>2</sup> दिया हुआ S<sup>2</sup>, जैसा कि एस के अतिरिक्त बायेसियन स्थिति में है<sup>2</sup> दिए गए p<sup>2</sup>, अब कोई σ नहीं ले सकता<sup>4</sup> एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ के बड़े मानों पर अधिक भार डालती है।<sup>2</sup>, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ के बड़े मानों को कम आंकने का परिणाम है<sup>σ के छोटे मानों को अधिक आंकने की तुलना में 2</sup> औसत वर्ग-नुकसान के संदर्भ में अधिक महंगा है<sup>2</उप>
— जब उपेक्षा को σ<sup>2</sup> के प्रायिकता विभाजन पर ले लिया जाता है दिया हुआ S<sup>2</sup>, जैसा कि S<sup>2</sup> के अतिरिक्त बायेसियन स्थिति में है दिए गए p<sup>2</sup>, अब कोई σ<sup>4</sup> नहीं ले सकता एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ<sup>2</sup> के बड़े मानों पर अधिक भार डालती है।, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ<sup>2</sup> के बड़े मानों को कम न्यून आकलन के संदर्भ मे σ<sup>2</sup> के छोटे मूल्यों को अधिक आकलन की तुलना में अधिक बहुमूल्य है।


कार्य-आउट बायेसियन गणना σ के पश्च प्रायिकता बंटन के लिए स्वतंत्रता की n − 1 डिग्री के साथ एक मापन्ड व्युत्क्रम ची-वर्ग बंटन देता है।<sup>2</उप>। सीएनएस होने पर अपेक्षित नुकसान कम हो जाता है<sup>2</सुप> = <पी<sup>2</sup>>; यह तब होता है जब = 1/(n − 3).
लिखी गई बायेसियन गणना σ<sup>2 के पश्च प्रायिकता विभाजन के लिए अबद्धता की n − 1 घात के साथ एक मापन्ड व्युत्क्रम काई वर्ग विभाजन देता है। प्रत्याशित हानि को न्यूनतम किया जाता है जब ''cnS''<sup>2</sup> = <σ<sup>2</sup>>; यह तब होता है जब c = 1/(n − 3) है।


यहां तक ​​​​कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-नुकसान न्यूनतम परिणाम नहीं दे सकती है।
यहां तक ​​​​कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-त्रुटि न्यूनतम परिणाम नहीं दे सकती है।


== यह भी देखें ==
== यह भी देखें ==
{{Portal|Science|Mathematics}}
{{Portal|Science|Mathematics}}
{{Div col|colwidth=20em}}
{{Div col|colwidth=20em}}
* लगातार अनुमानक
* सतत अनुमानक
* [[कुशल अनुमानक]]
* [[सक्षम अनुमानक]]
* [[अनुमान सिद्धांत]]
* [[अनुमान सिद्धांत]]
*अपेक्षित हानि
*अपेक्षित हानि
* अपेक्षित मूल्य
* अपेक्षित मान
* लॉस फंकशन
* त्रुटि फलन
* [[न्यूनतम-विचरण निष्पक्ष अनुमानक]]
* [[न्यूनतम-विचरण निष्पक्ष अनुमानक]]
* [[लोप-चर पूर्वाग्रह]]
* [[लोप-चर अभिनत]]
* [[आशावाद पूर्वाग्रह]]
* [[आशावाद अभिनत]]
* [[अनुपात अनुमानक]]
* [[अनुपात अनुमानक]]
* [[सांख्यिकीय निर्णय सिद्धांत]]
* [[सांख्यिकीय निर्णय सिद्धांत]]

Revision as of 07:23, 28 March 2023

इस विषय के व्यापक सूचना के लिए, अभिनत (सांख्यिकी) देखें।

सांख्यिकी में, अनुमानक (या अभिनत फलन) का अभिनत इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनत वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनत" एक अनुमानक की एक वस्तुगत गुण है। अभिनत संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनत बनाम निरंतरता देखें।

अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनत अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनत अनुमानक (सामान्य रूप से छोटे अभिनत के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनत अनुमानक का उपयोग किया जाता है, तो अभिनत की सीमा की गणना की जाती है। अभिनत अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि समष्‍टि के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि केंद्रीय प्रवृत्ति के विभिन्न समाधानों के संबंध में अभिनत अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से अवमूल्यन अनुमानक में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और सिर्फ अनभिनत अनुमानक उपयोगी नहीं होते हैं।

अभिनत को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण समष्‍टि प्रसरण के लिए अभिनत अनुमानक है। ये सभी नीचे सचित्र हैं।

परिभाषा

मान लीजिए कि हमारे पास एक सांख्यिकीय मॉडल है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा, के लिए प्रायिकता विभाजन को उत्पन्न करता है और एक आँकड़ा जो किसी भी देखे गए डेटा के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात विभाजन का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस विभाजन का हिस्सा है), और फिर हम कुछ अनुमानक का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। का 'अभिनत' के सापेक्ष परिभाषित किया जाता है[1]

जहाँ विभाजन पर अपेक्षित मान दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत ) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त विभाजन के संबंध में मापने योग्य है

अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनत पैरामीटर θ के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।[2]

अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनत का आकलन किया जा सकता है।

उदाहरण

प्रतिदर्श प्रसरण

यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनत के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनत है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनत अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनत है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (विभाजन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनत अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य विभाजन के लिए इष्टतम मान n + 1 है।

मान लीजिए कि X1, ..., Xn स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और प्रसरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है

तब S2 σ2 का अभिनत अनुमानक है, क्योंकि