अनुमानक का पूर्वाग्रह: Difference between revisions

From Vigyanwiki
No edit summary
Line 1: Line 1:
{{Short description|Difference between an estimator's expected value from a parameter's true value}}
{{Short description|Difference between an estimator's expected value from a parameter's true value}}
{{broader|Bias (statistics)}}
इस विषय के व्यापक सूचना के लिए, अभिनति (सांख्यिकी) देखें।


आंकड़ों में, अनुमानक (या पूर्वाग्रह समारोह) का पूर्वाग्रह इस अनुमानक के [[अपेक्षित मूल्य]] और अनुमानित पैरामीटर के [[वास्तविक मूल्य]] के बीच का अंतर है। शून्य पूर्वाग्रह वाला अनुमानक या निर्णय नियम ''निष्पक्ष'' कहलाता है। सांख्यिकी में पूर्वाग्रह एक है {{em|objective}} एक अनुमानक की संपत्ति। पूर्वाग्रह संगत अनुमानक से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मूल्य में अभिसरण करते हैं, लेकिन पक्षपातपूर्ण या निष्पक्ष हो सकते हैं; अधिक जानकारी के लिए संगत अनुमानक#पूर्वाग्रह बनाम संगति देखें।
सांख्यिकी में, अनुमानक (या अभिनति फलन) का अभिनति इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनति वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनति" एक अनुमानक की एक वस्तुगत गुण है। अभिनति संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनति बनाम निरंतरता देखें।


अन्य सभी समान होने के नाते, एक निष्पक्ष अनुमानक एक पक्षपाती अनुमानक के लिए बेहतर है, हालांकि व्यवहार में, पक्षपाती अनुमानक (आमतौर पर छोटे पूर्वाग्रह के साथ) अक्सर उपयोग किए जाते हैं। जब एक पक्षपाती अनुमानक का उपयोग किया जाता है, तो पूर्वाग्रह की सीमा की गणना की जाती है। एक पक्षपाती अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि जनसंख्या के बारे में और धारणाओं के बिना एक निष्पक्ष अनुमानक मौजूद नहीं है; क्योंकि एक अनुमानक की गणना करना मुश्किल है (मानक विचलन के निष्पक्ष अनुमान के रूप में); क्योंकि [[केंद्रीय प्रवृत्ति]] के विभिन्न उपायों के संबंध में एक पक्षपाती अनुमानक निष्पक्ष हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से [[संकोचन अनुमानक]]ों में) की तुलना में कुछ हानि फ़ंक्शन (विशेष रूप से चुकता त्रुटि) का कम मूल्य देता है; या क्योंकि कुछ मामलों में निष्पक्ष होना बहुत मजबूत स्थिति है, और केवल निष्पक्ष अनुमानक उपयोगी नहीं होते हैं।
अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनति अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनति अनुमानक (सामान्य रूप से छोटे अभिनति के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनति अनुमानक का उपयोग किया जाता है, तो अभिनति की सीमा की गणना की जाती है। अभिनति अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि जनसंख्या के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि [[केंद्रीय प्रवृत्ति]] के विभिन्न समाधानों के संबंध में अभिनति अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से [[संकोचन अनुमानक|अवमूल्यन अनुमानक]] में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और केवल अनभिनत अनुमानक उपयोगी नहीं होते हैं।


पूर्वाग्रह को औसत (अपेक्षित मूल्य) के बजाय माध्यिका के संबंध में भी मापा जा सकता है, इस मामले में सामान्य औसत-निष्पक्षता संपत्ति से औसत-निष्पक्षता को अलग करता है।
अभिनति को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण जनसंख्या विचरण के लिए अभिनति अनुमानक है। ये सभी नीचे सचित्र हैं।
गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के तहत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें {{Section link||Effect of transformations}}); उदाहरण के लिए, नमूना प्रसरण जनसंख्या विचरण के लिए एक पक्षपाती अनुमानक है। ये सभी नीचे सचित्र हैं।


== परिभाषा ==
== परिभाषा ==


मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा के लिए संभाव्यता वितरण को जन्म देता है, <math>P_\theta(x) = P(x\mid\theta)</math>, और एक आँकड़ा <math>\hat\theta</math> जो किसी भी देखे गए डेटा के आधार पर θ के अनुमानक के रूप में कार्य करता है <math>x</math>. अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात वितरण का अनुसरण करता है <math>P(x\mid\theta)</math> (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस वितरण का हिस्सा है), और फिर हम कुछ अनुमानक का निर्माण करते हैं <math>\hat\theta</math> मानचित्रों ने डेटा को उन मूल्यों पर देखा जो हम आशा करते हैं कि वे θ के करीब हैं। का 'पक्षपात' <math>\hat\theta</math> के सापेक्ष <math>\theta</math> परिभाषित किया जाता है<ref name=":0">{{Cite web|last=Kozdron|first=Michael|date=March 2016|title=Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)|url=http://stat.math.uregina.ca/~kozdron/Teaching/Regina/252Winter16/Handouts/ch3.pdf|access-date=2020-09-11|website=stat.math.uregina.ca}}</ref>
मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा , <math>P_\theta(x) = P(x\mid\theta)</math> के लिए प्रायिकता बंटन को उत्पन्न करता है और एक आँकड़ा <math>\hat\theta</math> जो किसी भी देखे गए डेटा <math>x</math> के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात बंटन  <math>P(x\mid\theta)</math> का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस बंटन का हिस्सा है), और फिर हम कुछ अनुमानक <math>\hat\theta</math> का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। <math>\hat\theta</math> का 'अभिनति' के सापेक्ष <math>\theta</math> परिभाषित किया जाता है<ref name=":0">{{Cite web|last=Kozdron|first=Michael|date=March 2016|title=Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)|url=http://stat.math.uregina.ca/~kozdron/Teaching/Regina/252Winter16/Handouts/ch3.pdf|access-date=2020-09-11|website=stat.math.uregina.ca}}</ref>
:<math> \operatorname{Bias}(\hat\theta, \theta)  =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math>
:<math> \operatorname{Bias}(\hat\theta, \theta)  =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math>
कहाँ <math>\operatorname{E}_{x\mid\theta}</math> वितरण पर अपेक्षित मूल्य दर्शाता है <math>P(x\mid\theta)</math> (यानी, सभी संभावित अवलोकनों का औसत <math>x</math>). दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त वितरण के संबंध में औसत दर्जे का है <math>P(x\mid\theta)</math>.
जहाँ <math>\operatorname{E}_{x\mid\theta}</math> बंटन पर अपेक्षित मान  <math>P(x\mid\theta)</math> दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत <math>x</math>) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त वितरण <math>P(x\mid\theta)</math> के संबंध में मापने योग्य है


एक अनुमानक को निष्पक्ष कहा जाता है यदि इसका पूर्वाग्रह पैरामीटर ''θ'' के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर से मेल खाता है।<ref name=":1">{{Cite web|last=Taylor|first=Courtney|date=January 13, 2019|title=निष्पक्ष और पक्षपाती अनुमानक|url=https://www.thoughtco.com/what-is-an-unbiased-estimator-3126502|access-date=2020-09-12|website=ThoughtCo|language=en}}</ref>
अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनति पैरामीटर ''θ'' के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।<ref name=":1">{{Cite web|last=Taylor|first=Courtney|date=January 13, 2019|title=निष्पक्ष और पक्षपाती अनुमानक|url=https://www.thoughtco.com/what-is-an-unbiased-estimator-3126502|access-date=2020-09-12|website=ThoughtCo|language=en}}</ref>
अनुमानक के गुणों से संबंधित सिमुलेशन प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के पूर्वाग्रह का आकलन किया जा सकता है।
 
अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनति का आकलन किया जा सकता है।


== उदाहरण ==
== उदाहरण ==


=== नमूना विचरण ===
=== प्रतिदर्श विचरण ===
{{main|Sample variance}}
{{main|प्रतिदर्श विचरण}}
एक यादृच्छिक चर का नमूना प्रसरण अनुमानक पूर्वाग्रह के दो पहलुओं को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक पक्षपाती है, जिसे स्केल कारक द्वारा ठीक किया जा सकता है; दूसरा, निष्पक्ष अनुमानक माध्य चुकता त्रुटि (MSE) के मामले में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप निष्पक्ष अनुमानक की तुलना में कम MSE वाला पक्षपाती अनुमानक होता है। ठोस रूप से, भोले अनुमानक चुकता विचलन का योग करते हैं और n से विभाजित होते हैं, जो पक्षपाती है। इसके बजाय n − 1 से विभाजित करने पर एक निष्पक्ष अनुमानक प्राप्त होता है। इसके विपरीत, MSE को एक अलग संख्या (वितरण के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम एक पक्षपाती अनुमानक होता है। यह संख्या हमेशा n − 1 से बड़ी होती है, इसलिए इसे संकोचन अनुमानक के रूप में जाना जाता है, क्योंकि यह निष्पक्ष अनुमानक को शून्य की ओर सिकोड़ता है; सामान्य वितरण के लिए इष्टतम मान n + 1 है।
 
यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनति के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनति है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनति अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनति है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (बंटन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनति अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य बंटन के लिए इष्टतम मान n + 1 है।


मान लीजिए एक्स<sub>1</sub>, ..., एक्स<sub>''n''</sub> अपेक्षित मान μ और विचरण σ के साथ [[स्वतंत्र और समान रूप से वितरित]] (i.i.d.) यादृच्छिक चर हैं<sup>2</उप>। यदि [[नमूना माध्य]] और असंशोधित नमूना प्रसरण को इस रूप में परिभाषित किया गया है
मान लीजिए कि  ''X''<sub>1</sub>, ..., ''X<sub>n</sub>'' स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और विचरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है


:<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math>
:<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math>
तब एस<sup>2</sup> σ का पक्षपाती अनुमानक है<sup>2</sup>, क्योंकि
तब S<sup>2</sup> ''σ''<sup>2</sup> का अभिनति अनुमानक है, क्योंकि
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 47: Line 48:
     \end{align}
     \end{align}
</math>
</math>
जारी रखने के लिए, हम ध्यान दें कि घटाकर <math>\mu</math> के दोनों ओर से <math>\overline{X}= \frac 1 n \sum_{i=1}^nX_i</math>, हम पाते हैं
जारी रखने के लिए, हम ध्यान दें कि <math>\mu</math> घटाकर के दोनों ओर से <math>\overline{X}= \frac 1 n \sum_{i=1}^nX_i</math>, हम पाते हैं
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 53: Line 54:
     \end{align}
     \end{align}
</math>
</math>
अर्थ, (क्रॉस-गुणन द्वारा) <math>n \cdot (\overline{X}-\mu)=\sum_{i=1}^n (X_i-\mu)</math>. फिर, पिछला बन जाता है:
अर्थ, (तिर्यक-गुणन द्वारा) <math>n \cdot (\overline{X}-\mu)=\sum_{i=1}^n (X_i-\mu)</math>. फिर, पहला बन जाता है:
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 72: Line 73:
     \end{align}
     \end{align}
   </math>
   </math>
इसे निम्नलिखित सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो उपरोक्त असंशोधित नमूना भिन्नता की अपेक्षा के लिए असमानता में शब्द के लिए भिन्नता # असंबद्ध चर के योग (बिनेमे फॉर्मूला) | बायनेमे फॉर्मूला से निम्नानुसार है: <math>\operatorname{E}\big[ (\overline{X}-\mu)^2 \big] = \frac 1 n \sigma^2</math>.
इसे निम्नलिखित सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो उपरोक्त असंशोधित प्रतिदर्श भिन्नता की अपेक्षा के लिए असमानता में शब्द के लिए भिन्नता # असंबद्ध चर के योग (बिनेमे फॉर्मूला) | बायनेमे फॉर्मूला से निम्नानुसार है: <math>\operatorname{E}\big[ (\overline{X}-\mu)^2 \big] = \frac 1 n \sigma^2</math>.


दूसरे शब्दों में, असंशोधित नमूना प्रसरण का अपेक्षित मान जनसंख्या प्रसरण σ के बराबर नहीं होता है<sup>2</sup>, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, नमूना माध्य एक निष्पक्ष है<ref name="JohnsonWichern2007">{{cite book|author1=Richard Arnold Johnson|author2=Dean W. Wichern|title=अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण|url=https://books.google.com/books?id=gFWcQgAACAAJ|access-date=10 August 2012|year=2007|publisher=Pearson Prentice Hall|isbn=978-0-13-187715-3}}</ref> जनसंख्या का अनुमानक मतलब μ।<ref name=":1" />
दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान जनसंख्या प्रसरण σ के बराबर नहीं होता है<sup>2</sup>, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है<ref name="JohnsonWichern2007">{{cite book|author1=Richard Arnold Johnson|author2=Dean W. Wichern|title=अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण|url=https://books.google.com/books?id=gFWcQgAACAAJ|access-date=10 August 2012|year=2007|publisher=Pearson Prentice Hall|isbn=978-0-13-187715-3}}</ref> जनसंख्या का अनुमानक मतलब μ।<ref name=":1" />


ध्यान दें कि नमूना भिन्नता की सामान्य परिभाषा है <math>S^2=\frac 1 {n-1} \sum_{i=1}^n(X_i-\overline{X}\,)^2</math>, और यह जनसंख्या विचरण का एक निष्पक्ष अनुमानक है।
ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा है <math>S^2=\frac 1 {n-1} \sum_{i=1}^n(X_i-\overline{X}\,)^2</math>, और यह जनसंख्या विचरण का अनभिनत अनुमानक है।


बीजगणितीय रूप से बोलते हुए, <math> \operatorname{E}[S^2] </math> निष्पक्ष है क्योंकि:
बीजगणितीय रूप से बोलते हुए, <math> \operatorname{E}[S^2] </math> अनभिनत है क्योंकि:
:<math>
:<math>
     \begin{align}
     \begin{align}
Line 87: Line 88:
     \end{align}
     \end{align}
</math>
</math>
जहां दूसरी पंक्ति में संक्रमण पक्षपाती अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार <math>\operatorname{E}[S^2] = \sigma^2</math>, और इसलिए <math>S^2=\frac 1 {n-1}\sum_{i=1}^n(X_i-\overline{X}\,)^2</math> जनसंख्या विचरण का एक निष्पक्ष अनुमानक है, σ<sup>2</उप>। प्रसरण के पक्षपाती (असंशोधित) और निष्पक्ष अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है।
जहां दूसरी पंक्ति में संक्रमण अभिनति अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार <math>\operatorname{E}[S^2] = \sigma^2</math>, और इसलिए <math>S^2=\frac 1 {n-1}\sum_{i=1}^n(X_i-\overline{X}\,)^2</math> जनसंख्या विचरण का अनभिनत अनुमानक है, σ<sup>2</उप>। प्रसरण के अभिनति (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है।


कारण यह है कि एक असंशोधित नमूना प्रसरण, S<sup>2</sup>, इस तथ्य से पक्षपाती है कि नमूना माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (OLS) अनुमानक है: <math>\overline{X}</math> वह संख्या है जो योग बनाती है <math>\sum_{i=1}^n (X_i-\overline{X})^2</math> जितना संभव हो उतना छोटा। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग केवल बढ़ सकता है। विशेष रूप से, पसंद <math>\mu \ne \overline{X}</math> देता है,
कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S<sup>2</sup>, इस तथ्य से अभिनति है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (OLS) अनुमानक है: <math>\overline{X}</math> वह संख्या है जो योग बनाती है <math>\sum_{i=1}^n (X_i-\overline{X})^2</math> जितना संभव हो उतना छोटा। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग केवल बढ़ सकता है। विशेष रूप से, पसंद <math>\mu \ne \overline{X}</math> देता है,


:<math>
:<math>
Line 103: Line 104:
   </math>
   </math>
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और विचरण भाग में विघटित किया जा सकता है <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के ओर्थोगोनल पूरक हाइपरप्लेन। एक को मिलता है <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए। चूंकि यह एक ओर्थोगोनल अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम प्राप्त करते हैं <math>  n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math>, ऊपर के रूप में (लेकिन times <math>n</math>).
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और विचरण भाग में विघटित किया जा सकता है <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के ओर्थोगोनल पूरक हाइपरप्लेन। एक को मिलता है <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए। चूंकि यह एक ओर्थोगोनल अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम प्राप्त करते हैं <math>  n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math>, ऊपर के रूप में (लेकिन times <math>n</math>).
यदि का वितरण <math>\vec{C}</math> घूर्णी रूप से सममित है, जैसे कि जब  <math>X_i</math> गॉसियन से नमूने लिए जाते हैं, फिर औसतन, साथ में आयाम <math> \vec{u}</math> करने के लिए योगदान देते है <math> |\vec{C}|^2</math> समान रूप से <math>n-1</math> दिशाओं के लिए लंबवत <math> \vec{u}</math>, ताकि <math> \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] =\frac{\sigma^2} n </math> और <math>\operatorname{E}[S^2] =\frac{(n-1)\sigma^2} n </math>. यह वास्तव में सामान्य तौर पर सच है, जैसा कि ऊपर बताया गया है।
यदि का बंटन <math>\vec{C}</math> घूर्णी रूप से सममित है, जैसे कि जब  <math>X_i</math> गॉसियन से नमूने लिए जाते हैं, फिर औसतन, साथ में आयाम <math> \vec{u}</math> करने के लिए योगदान देते है <math> |\vec{C}|^2</math> समान रूप से <math>n-1</math> दिशाओं के लिए लंबवत <math> \vec{u}</math>, ताकि <math> \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] =\frac{\sigma^2} n </math> और <math>\operatorname{E}[S^2] =\frac{(n-1)\sigma^2} n </math>. यह वास्तव में सामान्य तौर पर सच है, जैसा कि ऊपर बताया गया है।


=== प्वासों प्रायिकता का अनुमान लगाना ===
=== प्वासों प्रायिकता का अनुमान लगाना ===


किसी भी निष्पक्ष अनुमानक की तुलना में एक पक्षपाती अनुमानक के बेहतर होने का एक और अधिक चरम मामला पोइसन वितरण से उत्पन्न होता है।<ref>J. P. Romano and A. F. Siegel (1986) ''[https://books.google.com/books?id=irKSXZ7kKFgC&q=Poisson Counterexamples in Probability and Statistics]'', Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168</ref><ref>{{Cite journal | first = M.| title = एक प्रबुद्ध प्रति उदाहरण| jstor = 3647938| journal = American Mathematical Monthly| volume = 110| date = 1 March 2003 | issue = 3| pages = 234–238| issn = 0002-9890 | doi = 10.2307/3647938| last = Hardy| arxiv = math/0206006}}</ref> मान लीजिए कि एक्स के पास अपेक्षा λ के साथ पॉइसन बंटन है। मान लीजिए कि यह अनुमान लगाना चाहता है
किसी भी अनभिनत अनुमानक की तुलना में अभिनति अनुमानक के अधिकतम होने का एक और अधिक चरम मामला पोइसन बंटन से उत्पन्न होता है।<ref>J. P. Romano and A. F. Siegel (1986) ''[https://books.google.com/books?id=irKSXZ7kKFgC&q=Poisson Counterexamples in Probability and Statistics]'', Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168</ref><ref>{{Cite journal | first = M.| title = एक प्रबुद्ध प्रति उदाहरण| jstor = 3647938| journal = American Mathematical Monthly| volume = 110| date = 1 March 2003 | issue = 3| pages = 234–238| issn = 0002-9890 | doi = 10.2307/3647938| last = Hardy| arxiv = math/0206006}}</ref> मान लीजिए कि एक्स के पास अपेक्षा λ के साथ पॉइसन बंटन है। मान लीजिए कि यह अनुमान लगाना चाहता है
:<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math>
:<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math>
आकार 1 के एक नमूने के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या है, तो ई<sup>−2λ</sup> संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।)
आकार 1 के एक नमूने के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या है, तो ई<sup>−2λ</sup> संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।)


चूंकि एक निष्पक्ष अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात
चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात
:<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math>
:<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math>
निष्पक्ष अनुमानक बनाने वाले डेटा का एकमात्र कार्य है
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र कार्य है
:<math>\delta(x)=(-1)^x. \, </math>
:<math>\delta(x)=(-1)^x. \, </math>
इसे देखने के लिए, ध्यान दें कि ई को विघटित करते समय<sup>−λ</sup> अपेक्षा के लिए उपरोक्त अभिव्यक्ति से, शेष राशि e का [[टेलर श्रृंखला]] विस्तार है<sup>−λ</sup> साथ ही, उपज देने वाला ई<sup>−λ</sup>ई<sup>−λ</सुप> = ई<sup>−2λ</sup> (एक्सपोनेंशियल फंक्शन के लक्षण देखें)।
इसे देखने के लिए, ध्यान दें कि ई को विघटित करते समय<sup>−λ</sup> अपेक्षा के लिए उपरोक्त अभिव्यक्ति से, शेष राशि e का [[टेलर श्रृंखला]] विस्तार है<sup>−λ</sup> साथ ही, उपज देने वाला ई<sup>−λ</sup>ई<sup>−λ</सुप> = ई<sup>−2λ</sup> (एक्सपोनेंशियल फंक्शन के लक्षण देखें)।


यदि एक्स का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मूल्य 0 के करीब होने की संभावना है, जो विपरीत चरम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी बेतुका है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए।
यदि एक्स का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के करीब होने की संभावना है, जो विपरीत चरम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी बेतुका है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए।


(पक्षपाती) अधिकतम संभावना
(अभिनति) अधिकतम संभावना
:<math>e^{-2{X}}\quad</math>
:<math>e^{-2{X}}\quad</math>
इस निष्पक्ष अनुमानक से कहीं बेहतर है। न केवल इसका मान हमेशा धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक सटीक होता है कि इसका माध्य चुकता त्रुटि है
इस अनभिनत अनुमानक से कहीं अधिकतम है। न केवल इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक सटीक होता है कि इसका माध्य औसत वर्ग त्रुटि है
:<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math>
:<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math>
छोटा है; के निष्पक्ष अनुमानक के एमएसई की तुलना करें
छोटा है; के अनभिनत अनुमानक के एमएसई की तुलना करें
:<math>1-e^{-4\lambda}. \, </math>
:<math>1-e^{-4\lambda}. \, </math>
MSE वास्तविक मान λ के कार्य हैं। अधिकतम-संभावना अनुमानक का पूर्वाग्रह है:
एमएसई वास्तविक मान λ के कार्य हैं। अधिकतम-संभावना अनुमानक का अभिनति है:
:<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math>
:<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math>




=== असतत समान वितरण का अधिकतम ===
=== असतत समान बंटन का अधिकतम ===
{{main|Maximum of a discrete uniform distribution}}
{{main|Maximum of a discrete uniform distribution}}
अधिकतम-संभावना अनुमानकों का पूर्वाग्रह पर्याप्त हो सकता है। एक ऐसे मामले पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चुना गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, भले ही अपेक्षा X दिया हुआ n केवल (n + 1)/2 है; हम केवल निश्चित हो सकते हैं कि n कम से कम X है और शायद अधिक है। इस मामले में, प्राकृतिक निष्पक्ष अनुमानक 2X − 1 है।
अधिकतम-संभावना अनुमानकों का अभिनति पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, भले ही अपेक्षा X दिया हुआ n केवल (n + 1)/2 है; हम केवल निश्चित हो सकते हैं कि n कम से कम X है और शायद अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है।


== माध्य-निष्पक्ष अनुमानक ==
== माध्य-अनभिनत अनुमानक ==


1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-निष्पक्ष आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref>
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref>


{{blockquote|An estimate of a one-dimensional parameter θ will be said to be median-unbiased, if, for fixed θ, the median of the distribution of the estimate is at the value θ; i.e., the estimate underestimates just as often as it overestimates. This requirement seems for most purposes to accomplish as much as the mean-unbiased requirement and has the additional property that it is invariant under one-to-one transformation.}}
{{blockquote|एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त संपत्ति है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।}}


मध्य-निष्पक्ष आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-निष्पक्ष अनुमानक ऐसे मामलों में मौजूद होते हैं जहां माध्य-निष्पक्ष और अधिकतम संभावना | अधिकतम-संभावना अनुमानक मौजूद नहीं होते हैं। वे अंतःक्षेपी फलन|एक-से-एक परिवर्तन के तहत अपरिवर्तनीय हैं।
मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम संभावना | अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन|एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं।


संभाव्यता वितरण के लिए मध्य-निष्पक्ष अनुमानक के निर्माण के तरीके हैं जिनमें [[मोनोटोन संभावना अनुपात]] है। -निष्पक्ष आकलनकर्ता)।<ref>{{cite journal |last=Pfanzagl |first=Johann |title=उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर|journal=The Annals of Statistics |year=1979 |volume=7 |issue=1 |pages=187–193 |doi=10.1214/aos/1176344563 |doi-access=free }}</ref><ref name="BrownEtAl">{{cite journal |last1=Brown |first1=L. D. |last2=Cohen |first2=Arthur |last3=Strawderman |first3=W. E. |title=अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय|journal=Ann. Statist. |volume=4 |year=1976 |issue=4 |pages=712–722 |doi=10.1214/aos/1176343543 |doi-access=free }}</ref> ऐसी ही एक प्रक्रिया माध्य-निष्पक्ष आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-निष्पक्ष अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया संभाव्यता वितरण के एक छोटे वर्ग के लिए है, लेकिन हानि-कार्यों के एक बड़े वर्ग के लिए है।<ref name="BrownEtAl" />
प्रायिकता बंटन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें [[मोनोटोन संभावना अनुपात]] है। -अनभिनत आकलनकर्ता)।<ref>{{cite journal |last=Pfanzagl |first=Johann |title=उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर|journal=The Annals of Statistics |year=1979 |volume=7 |issue=1 |pages=187–193 |doi=10.1214/aos/1176344563 |doi-access=free }}</ref><ref name="BrownEtAl">{{cite journal |last1=Brown |first1=L. D. |last2=Cohen |first2=Arthur |last3=Strawderman |first3=W. E. |title=अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय|journal=Ann. Statist. |volume=4 |year=1976 |issue=4 |pages=712–722 |doi=10.1214/aos/1176343543 |doi-access=free }}</ref> ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता बंटन के एक छोटे वर्ग के लिए है, लेकिन हानि-कार्यों के एक बड़े वर्ग के लिए है।<ref name="BrownEtAl" />




== अन्य हानि कार्यों के संबंध में पूर्वाग्रह ==
== अन्य हानि कार्यों के संबंध में अभिनति ==
कोई न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक चुकता-त्रुटि हानि फ़ंक्शन (माध्य-निष्पक्ष अनुमानकों के बीच) के संबंध में [[जोखिम (सांख्यिकी)]] ([[अपेक्षित हानि]]) को कम करता है, जैसा कि [[गॉस]] द्वारा देखा गया है।<ref name="Dodge">{{cite book |title=Statistical Data Analysis Based on the L<sub>1</sub>-Norm and Related Methods |series=Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987 |editor-first=Yadolah |editor-last=Dodge |publisher=North-Holland |location=Amsterdam |year=1987 |isbn=0-444-70273-3 }}</ref> एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-निष्पक्ष आकलनकर्ता पूर्ण मूल्य हानि फ़ंक्शन (मध्य-निष्पक्ष अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि [[लाप्लास]] द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book |last1=Jaynes |first1=E. T. |title=Probability Theory : The Logic of Science |date=2007 |publisher=Cambridge Univ. Press |location=Cambridge |isbn=978-0-521-59271-0 |page=172 }}</ref> अन्य नुकसान कार्यों का उपयोग आँकड़ों में किया जाता है, विशेष रूप से मजबूत आँकड़ों में।<ref name="Dodge" /><ref>{{cite book |chapter=Loss Functions and the Theory of Unbiased Estimation |title=सांख्यिकी में मजबूत और गैर-मजबूत मॉडल|first1=Lev B. |last1=Klebanov |first2=Svetlozar T. |last2=Rachev |first3=Frank J. |last3=Fabozzi |publisher=Nova Scientific |location=New York |year=2009 |isbn=978-1-60741-768-2 }}</ref>
कोई न्यूनतम-विचरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में [[जोखिम (सांख्यिकी)]] ([[अपेक्षित हानि]]) को कम करता है, जैसा कि [[गॉस]] द्वारा देखा गया है।<ref name="Dodge">{{cite book |title=Statistical Data Analysis Based on the L<sub>1</sub>-Norm and Related Methods |series=Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987 |editor-first=Yadolah |editor-last=Dodge |publisher=North-Holland |location=Amsterdam |year=1987 |isbn=0-444-70273-3 }}</ref> एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि [[लाप्लास]] द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book |last1=Jaynes |first1=E. T. |title=Probability Theory : The Logic of Science |date=2007 |publisher=Cambridge Univ. Press |location=Cambridge |isbn=978-0-521-59271-0 |page=172 }}</ref> अन्य नुकसान कार्यों का उपयोग सांख्यिकी में किया जाता है, विशेष रूप से प्रबल सांख्यिकी में।<ref name="Dodge" /><ref>{{cite book |chapter=Loss Functions and the Theory of Unbiased Estimation |title=सांख्यिकी में मजबूत और गैर-मजबूत मॉडल|first1=Lev B. |last1=Klebanov |first2=Svetlozar T. |last2=Rachev |first3=Frank J. |last3=Fabozzi |publisher=Nova Scientific |location=New York |year=2009 |isbn=978-1-60741-768-2 }}</ref>




== रूपांतरों का प्रभाव ==
== रूपांतरों का प्रभाव ==


अविभाजित मापदंडों के लिए, मध्य-निष्पक्ष अनुमानक डेटा परिवर्तन (सांख्यिकी) के तहत मध्य-निष्पक्ष रहते हैं जो ऑर्डर (या रिवर्स ऑर्डर) को संरक्षित करते हैं।
अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो ऑर्डर (या रिवर्स ऑर्डर) को संरक्षित करते हैं।
ध्यान दें कि, जब एक माध्य-निष्पक्ष अनुमानक पर रूपांतरण लागू किया जाता है, तो परिणाम को इसके संगत जनसंख्या आंकड़ों का माध्य-निष्पक्ष अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल कार्य सकारात्मक पूर्वाग्रह पेश करेगा, जबकि एक अवतल कार्य नकारात्मक पूर्वाग्रह पेश करेगा, और मिश्रित उत्तलता का कार्य विशिष्ट कार्य और वितरण के आधार पर किसी भी दिशा में पूर्वाग्रह पेश कर सकता है। यही है, एक गैर-रैखिक फ़ंक्शन एफ और पैरामीटर पी के एक औसत-निष्पक्ष अनुमानक यू के लिए, समग्र अनुमानक एफ (यू) को एफ (पी) का एक औसत-निष्पक्ष अनुमानक नहीं होना चाहिए। उदाहरण के लिए, जनसंख्या विचरण के निष्पक्ष अनुमानक का [[वर्गमूल]] है {{em|not}} जनसंख्या [[मानक विचलन]] का माध्य-निष्पक्ष अनुमानक: निष्पक्ष नमूना प्रसरण का वर्गमूल, सही [[नमूना मानक विचलन]], पक्षपाती है। पूर्वाग्रह अनुमानक के नमूना वितरण और परिवर्तन पर निर्भर करता है, और गणना करने के लिए काफी शामिल हो सकता है - इस मामले में चर्चा के लिए मानक विचलन का निष्पक्ष अनुमान देखें।
ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण लागू किया जाता है, तो परिणाम को इसके संगत जनसंख्या सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल कार्य सकारात्मक अभिनति पेश करेगा, जबकि एक अवतल कार्य नकारात्मक अभिनति पेश करेगा, और मिश्रित उत्तलता का कार्य विशिष्ट कार्य और बंटन के आधार पर किसी भी दिशा में अभिनति पेश कर सकता है। यही है, एक गैर-रैखिक फलन एफ और पैरामीटर पी के एक औसत-अनभिनत अनुमानक यू के लिए, समग्र अनुमानक एफ (यू) को एफ (पी) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, जनसंख्या विचरण के अनभिनत अनुमानक का [[वर्गमूल]] है {{em|not}} जनसंख्या [[मानक विचलन]] का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही [[नमूना मानक विचलन|प्रतिदर्श मानक विचलन]], अभिनति है। अभिनति अनुमानक के प्रतिदर्श बंटन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए काफी सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें।


== पूर्वाग्रह, विचरण और माध्य चुकता त्रुटि ==
== अभिनति, विचरण और माध्य औसत वर्ग त्रुटि ==
{{Main|Bias–variance tradeoff}}
{{Main|Bias–variance tradeoff}}
{{See also|Accuracy (trueness and precision)}}
{{See also|Accuracy (trueness and precision)}}
[[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β के लिए दो वैकल्पिक अनुमानकों का नमूनाकरण वितरण<sub>0</sub>. हालांकि बी<sub>1</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^</sup> निष्पक्ष है, यह स्पष्ट रूप से पक्षपाती β से हीन है<sub>2</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^</sup>।<br /><br />[[ रिज प्रतिगमन ]] एक ऐसी तकनीक का उदाहरण है जहां थोड़ा सा पूर्वाग्रह होने से वेरियंस में काफी कमी आ सकती है, और समग्र रूप से अधिक विश्वसनीय अनुमान लग सकते हैं।]]जबकि पूर्वाग्रह अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, नमूना में यादृच्छिकता के कारण परिमित नमूने के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उम्मीद कर सकता है।
[[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β के लिए दो वैकल्पिक अनुमानकों का प्रतिदर्शकरण बंटन<sub>0</sub>. हालांकि बी<sub>1</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^ अनभिनत है, यह स्पष्ट रूप से अभिनति β से हीन है<sub>2</sub><सुप स्टाइल = स्थिति: सापेक्ष; बायां: -8pt; शीर्ष: -1pt; >^।<br /><br />[[ रिज प्रतिगमन ]] एक ऐसी तकनीक का उदाहरण है जहां थोड़ा सा अभिनति होने से वेरियंस में काफी कमी आ सकती है, और समग्र रूप से अधिक विश्वसनीय अनुमान लग सकते हैं।]]जबकि अभिनति अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित नमूने के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उम्मीद कर सकता है।
एक अनुमानक जो पूर्वाग्रह को कम करता है, आवश्यक रूप से [[औसत वर्ग त्रुटि]] को कम नहीं करेगा।
एक अनुमानक जो अभिनति को कम करता है, आवश्यक रूप से [[औसत वर्ग त्रुटि]] को कम नहीं करेगा।
एक उपाय जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" />:<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math>
एक उपाय जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" />:<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math>
यह पूर्वाग्रह के वर्ग के बराबर दिखाया जा सकता है, साथ ही विचरण:<ref name=":0" />:<math>\begin{align}
यह अभिनति के वर्ग के बराबर दिखाया जा सकता है, साथ ही विचरण:<ref name=":0" />:<math>\begin{align}
\operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\
\operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\
= & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta})
= & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta})
Line 166: Line 167:
:<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))
:<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))
+\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math>
+\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math>
कहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण मैट्रिक्स का निशान (विकर्ण योग) है और <math>\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> वर्ग [[वेक्टर मानदंड]] है।
जहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण मैट्रिक्स का निशान (विकर्ण योग) है और <math>\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> वर्ग [[वेक्टर मानदंड]] है।


=== उदाहरण: जनसंख्या विचरण का अनुमान ===
=== उदाहरण: जनसंख्या विचरण का अनुमान ===
Line 173: Line 174:


:<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math>
:<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math>
उपरोक्त के अनुसार जनसंख्या विचरण के लिए मांगा गया है, लेकिन इस बार MSE को कम करने के लिए:
उपरोक्त के अनुसार जनसंख्या विचरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए:


:<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\
:<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\
= & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math>
= & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math>
यदि चर X<sub>1</sub> ... एक्स<sub>''n''</sub> एक सामान्य वितरण का पालन करें, फिर एनएस<sup>2</sup>/प<sup>2</sup> का n − 1 स्वतंत्रता की डिग्री के साथ ची-वर्ग बंटन है, जो देता है:
यदि चर X<sub>1</sub> ... एक्स<sub>''n''</sub> एक सामान्य बंटन का पालन करें, फिर एनएस<sup>2</sup>/प<sup>2</sup> का n − 1 स्वतंत्रता की डिग्री के साथ ची-वर्ग बंटन है, जो देता है:


:<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math>
:<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math>
Line 183: Line 184:


:<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math>
:<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math>
थोड़े से बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त नुकसान फ़ंक्शन को कम करता है, बजाय c = 1/(n − 1) जो पूर्वाग्रह के वर्ग को कम करता है।
थोड़े से बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त नुकसान फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनति के वर्ग को कम करता है।


आम तौर पर यह केवल प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है।
सामान्य रूप से यह केवल प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है।


हालांकि यह बहुत आम है कि पूर्वाग्रह-विचरण व्यापार को माना जा सकता है, जैसे कि पूर्वाग्रह में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है।
हालांकि यह बहुत आम है कि अभिनति-विचरण व्यापार को माना जा सकता है, जैसे कि अभिनति में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है।


== बायेसियन व्यू ==
== बायेसियन व्यू ==
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक नमूनाकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े नमूनों की सीमा में उचित है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।<ref>{{cite book |first1=A. |last1=Gelman |display-authors=1 |first2=John S. |last2=Carlin |first3=Hal S. |last3=Stern |first4=Donald B. |last4=Rubin |year=1995 |title=बायेसियन डेटा विश्लेषण|publisher=Chapman and Hall |isbn=0-412-03991-5 |page=108 }}</ref>
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े नमूनों की सीमा में उचित है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।<ref>{{cite book |first1=A. |last1=Gelman |display-authors=1 |first2=John S. |last2=Carlin |first3=Hal S. |last3=Stern |first4=Donald B. |last4=Rubin |year=1995 |title=बायेसियन डेटा विश्लेषण|publisher=Chapman and Hall |isbn=0-412-03991-5 |page=108 }}</ref>
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त नमूनाकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि नमूनाकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित नमूना वितरण के आधार पर एक आंकड़े के संभाव्यता वितरण पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके संभाव्यता वितरण का निर्माण करने का प्रयास किया जाता है:
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श बंटन के आधार पर एक आंकड़े के प्रायिकता बंटन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता बंटन का निर्माण करने का प्रयास किया जाता है:


:<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math>
:<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math>
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फ़ंक्शन, केवल प्राप्त डेटा और डेटा जनरेशन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी शामिल है, θ के लिए [[पूर्व संभावना]], जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर चीज का हिसाब लेता है। यह जानकारी नमूनाकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे शामिल करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए पूर्वाग्रह से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना शामिल है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम नमूनाकरण सिद्धांत के संदर्भ में निष्पक्ष नहीं होंगे।
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, केवल प्राप्त डेटा और डेटा जनरेशन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए [[पूर्व संभावना]], जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर चीज का हिसाब लेता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनति से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे।


लेकिन एक बायेसियन दृष्टिकोण के परिणाम नमूनाकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, भले ही बायेसियन पूर्व में एक गैर-सूचनात्मक अपनाने की कोशिश करता हो।
लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, भले ही बायेसियन पूर्व में एक गैर-सूचनात्मक अपनाने की कोशिश करता हो।


उदाहरण के लिए, फिर से एक अज्ञात जनसंख्या प्रसरण σ के अनुमान पर विचार करें<sup>अज्ञात माध्य के साथ सामान्य बंटन का 2</sup>, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है
उदाहरण के लिए, फिर से एक अज्ञात जनसंख्या प्रसरण σ के अनुमान पर विचार करें<sup>अज्ञात माध्य के साथ सामान्य बंटन का 2</sup>, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है


:<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
:<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
इस समस्या के लिए असूचनात्मक पूर्व का एक मानक विकल्प मानक विचलन पैरामीटर के साथ जेफरीज़ पूर्व#गाऊसी वितरण है, <math>\scriptstyle{p(\sigma^2) \;\propto\; 1 / \sigma^2}</math>, जो ln(σ<sup>2</sup>).
इस समस्या के लिए असूचनात्मक पूर्व का एक मानक विकल्प मानक विचलन पैरामीटर के साथ जेफरीज़ पूर्व#गाऊसी बंटन है, <math>\scriptstyle{p(\sigma^2) \;\propto\; 1 / \sigma^2}</math>, जो ln(σ<sup>2</sup>).


इसे पहले अपनाने का एक परिणाम यह है कि ''स''<sup>2</sup>/प<sup>2</sup> एक महत्वपूर्ण मात्रा है, अर्थात S का प्रायिकता वितरण<sup>2</sup>/प<sup>2</sup> केवल S पर निर्भर करता है<sup>2</sup>/प<sup>2</sup>, S के मान से स्वतंत्र<sup>2</sup> या पृ<sup>2</sup>:
इसे पहले अपनाने का एक परिणाम यह है कि ''स''<sup>2</sup>/प<sup>2</sup> एक महत्वपूर्ण मात्रा है, अर्थात S का प्रायिकता बंटन<sup>2</sup>/प<sup>2</sup> केवल S पर निर्भर करता है<sup>2</sup>/प<sup>2</sup>, S के मान से स्वतंत्र<sup>2</sup> या पृ<sup>2</sup>:


:<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math>
:<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math>
Line 212: Line 213:


:<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
:<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math>
— जब उम्मीद को σ के प्रायिकता बंटन पर ले लिया जाता है<sup>2</sup> दिया हुआ S<sup>2</sup>, जैसा कि एस के बजाय बायेसियन मामले में है<sup>2</sup> दिए गए p<sup>2</sup>, अब कोई σ नहीं ले सकता<sup>4</sup> एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, नमूनाकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ के बड़े मूल्यों पर अधिक भार डालती है।<sup>2</sup>, ठीक से ध्यान में रखते हुए (चूंकि नमूनाकरण-सिद्धांत गणना नहीं कर सकता) कि इस चुकता-हानि समारोह के तहत σ के बड़े मूल्यों को कम आंकने का परिणाम है<sup>σ के छोटे मूल्यों को अधिक आंकने की तुलना में 2</sup> चुकता-नुकसान के संदर्भ में अधिक महंगा है<sup>2</उप>।
— जब उम्मीद को σ के प्रायिकता बंटन पर ले लिया जाता है<sup>2</sup> दिया हुआ S<sup>2</sup>, जैसा कि एस के अतिरिक्त बायेसियन स्थिति में है<sup>2</sup> दिए गए p<sup>2</sup>, अब कोई σ नहीं ले सकता<sup>4</sup> एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ के बड़े मानों पर अधिक भार डालती है।<sup>2</sup>, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ के बड़े मानों को कम आंकने का परिणाम है<sup>σ के छोटे मानों को अधिक आंकने की तुलना में 2</sup> औसत वर्ग-नुकसान के संदर्भ में अधिक महंगा है<sup>2</उप>।


कार्य-आउट बायेसियन गणना σ के पश्च संभाव्यता वितरण के लिए स्वतंत्रता की n − 1 डिग्री के साथ एक स्केल्ड व्युत्क्रम ची-वर्ग वितरण देता है।<sup>2</उप>। सीएनएस होने पर अपेक्षित नुकसान कम हो जाता है<sup>2</सुप> = <पी<sup>2</sup>>; यह तब होता है जब c = 1/(n − 3).
कार्य-आउट बायेसियन गणना σ के पश्च प्रायिकता बंटन के लिए स्वतंत्रता की n − 1 डिग्री के साथ एक मापन्ड व्युत्क्रम ची-वर्ग बंटन देता है।<sup>2</उप>। सीएनएस होने पर अपेक्षित नुकसान कम हो जाता है<sup>2</सुप> = <पी<sup>2</sup>>; यह तब होता है जब c = 1/(n − 3).


यहां तक ​​​​कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान नमूना-सिद्धांत गणना के समान अपेक्षित-नुकसान न्यूनतम परिणाम नहीं दे सकती है।
यहां तक ​​​​कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-नुकसान न्यूनतम परिणाम नहीं दे सकती है।


== यह भी देखें ==
== यह भी देखें ==

Revision as of 23:19, 27 March 2023

इस विषय के व्यापक सूचना के लिए, अभिनति (सांख्यिकी) देखें।

सांख्यिकी में, अनुमानक (या अभिनति फलन) का अभिनति इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनति वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनति" एक अनुमानक की एक वस्तुगत गुण है। अभिनति संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनति बनाम निरंतरता देखें।

अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनति अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनति अनुमानक (सामान्य रूप से छोटे अभिनति के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनति अनुमानक का उपयोग किया जाता है, तो अभिनति की सीमा की गणना की जाती है। अभिनति अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि जनसंख्या के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि केंद्रीय प्रवृत्ति के विभिन्न समाधानों के संबंध में अभिनति अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से अवमूल्यन अनुमानक में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और केवल अनभिनत अनुमानक उपयोगी नहीं होते हैं।

अभिनति को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण जनसंख्या विचरण के लिए अभिनति अनुमानक है। ये सभी नीचे सचित्र हैं।

परिभाषा

मान लीजिए कि हमारे पास एक सांख्यिकीय मॉडल है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा , के लिए प्रायिकता बंटन को उत्पन्न करता है और एक आँकड़ा जो किसी भी देखे गए डेटा के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात बंटन का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस बंटन का हिस्सा है), और फिर हम कुछ अनुमानक का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। का 'अभिनति' के सापेक्ष परिभाषित किया जाता है[1]

जहाँ बंटन पर अपेक्षित मान दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत ) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त वितरण के संबंध में मापने योग्य है

अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनति पैरामीटर θ के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।[2]

अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनति का आकलन किया जा सकता है।

उदाहरण

प्रतिदर्श विचरण

यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनति के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनति है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनति अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनति है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (बंटन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनति अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य बंटन के लिए इष्टतम मान n + 1 है।

मान लीजिए कि X1, ..., Xn स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और विचरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है

तब S2 σ2 का अभिनति अनुमानक है, क्योंकि