बिंदु अनुमान: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(5 intermediate revisions by 3 users not shown)
Line 2: Line 2:




आंकड़ों में, '''बिंदु अनुमान''' में एकल मान की गणना करने के लिए नमूना डेटा का उपयोग सम्मिलित होता है (इसे बिंदु अनुमान के रूप में जाना जाता है क्योंकि यह कुछ पैरामीटर स्थान में एक बिंदु की पहचान करता है) जो किसी अज्ञात के "सर्वोत्तम अनुमान" या "सर्वोत्तम अनुमान" के रूप में कार्य करता है। जनसंख्या पैरामीटर (उदाहरण के लिए, जनसंख्या माध्य)। अधिक औपचारिक रूप से, यह एक बिंदु अनुमान प्राप्त करने के लिए डेटा पर एक बिंदु अनुमानक का अनुप्रयोग है।


बिंदु अनुमान की तुलना अंतराल अनुमान से की जा सकती है: ऐसे अंतराल अनुमान समान्यता: या तो विश्वास अंतराल होते हैं, बारंबार अनुमान के स्थिति में, या विश्वसनीय अंतराल, बायेसियन अनुमान के स्थिति में अधिक सामान्यतः एक बिंदु अनुमानक की तुलना एक निर्धारित अनुमानक से की जा सकती है। उदाहरण आत्मविश्वास सेट या विश्वसनीय सेट द्वारा दिए गए हैं। एक बिंदु अनुमानक की तुलना एक वितरण अनुमानक से भी की जा सकती है। उदाहरण आत्मविश्वास वितरण यादृच्छिक अनुमानक और बायेसियन पोस्टीरियर द्वारा दिए गए हैं।
आंकड़ों में, '''बिंदु अनुमान''' में एकल मान की गणना करने के लिए नमूना डेटा का उपयोग सम्मिलित होता है (इसे बिंदु अनुमान के रूप में जाना जाता है क्योंकि यह कुछ पैरामीटर स्थान में एक बिंदु की पहचान करता है) जो किसी अज्ञात के "सर्वोत्तम अनुमान" या "सर्वोत्तम अनुमान" के रूप में कार्य करता है। जनसंख्या पैरामीटर (उदाहरण के लिए, जनसंख्या माध्य)। अधिक औपचारिक रूप से, यह एक बिंदु अनुमान प्राप्त करने के लिए डेटा पर एक बिंदु अनुमानक का अनुप्रयोग है।
 
बिंदु अनुमान की तुलना अंतराल अनुमान से की जा सकती है: ऐसे अंतराल अनुमान समान्यता: या तो विश्वास अंतराल होते हैं, बारंबार अनुमान के स्थिति में, या विश्वसनीय अंतराल, बायेसियन अनुमान के स्थिति में अधिक सामान्यतः एक बिंदु अनुमानक की तुलना एक निर्धारित अनुमानक से की जा सकती है। उदाहरण आत्मविश्वास समूह या विश्वसनीय समूह द्वारा दिए गए हैं। एक बिंदु अनुमानक की तुलना एक वितरण अनुमानक से भी की जा सकती है। उदाहरण आत्मविश्वास वितरण यादृच्छिक अनुमानक और बायेसियन पोस्टीरियर द्वारा दिए गए हैं।  


==बिंदु अनुमान के गुण ==
==बिंदु अनुमान के गुण ==


=== पक्षपात ===
=== पक्षपात ===
"आकलनकर्ता के पूर्वाग्रह" को अनुमानक के [[अपेक्षित मूल्य|अपेक्षित]] मान और अनुमानित जनसंख्या पैरामीटर के वास्तविक मान के बीच अंतर के रूप में परिभाषित किया गया है। इसे यह भी वर्णित किया जा सकता है कि किसी पैरामीटर का अपेक्षित मान मापा पैरामीटर के जितना समीप होगा परन्तु पूर्वाग्रह उतना ही कम होगा। जब अनुमानित संख्या और वास्तविक मान समान होता है, तो अनुमानक को निष्पक्ष माना जाता है। इसे निष्पक्ष अनुमानक कहा जाता है। यदि अनुमानक में न्यूनतम भिन्नता है तो वह सबसे अच्छा निष्पक्ष अनुमानक बन जाएगा। चूँकि छोटे विचरण वाला पक्षपाती अनुमानक बड़े विचरण वाले निष्पक्ष अनुमानक की तुलना में अधिक उपयोगी हो सकता है।<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref> सबसे महत्वपूर्ण बात यह है कि हम ऐसे बिंदु अनुमानकों को प्राथमिकता देते हैं जिनमें सबसे छोटी माध्य वर्ग त्रुटि या माध्य वर्ग त्रुटियाँ हों।
इस प्रकार से "आकलनकर्ता के पूर्वाग्रह" को अनुमानक के [[अपेक्षित मूल्य|अपेक्षित]] मान और अनुमानित जनसंख्या पैरामीटर के वास्तविक मान के बीच अंतर के रूप में परिभाषित किया गया है। इसे यह भी वर्णित किया जा सकता है कि किसी पैरामीटर का अपेक्षित मान मापा पैरामीटर के जितना समीप होगा परन्तु पूर्वाग्रह उतना ही कम होगा। जब अनुमानित संख्या और वास्तविक मान समान होता है, तो अनुमानक को निष्पक्ष माना जाता है। इसे निष्पक्ष अनुमानक कहा जाता है। यदि अनुमानक में न्यूनतम भिन्नता है तो वह सबसे अच्छा निष्पक्ष अनुमानक बन जाएगा। चूँकि छोटे विचरण वाला पक्षपाती अनुमानक बड़े विचरण वाले निष्पक्ष अनुमानक की तुलना में अधिक उपयोगी हो सकता है।<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref> सबसे महत्वपूर्ण बात यह है कि हम ऐसे बिंदु अनुमानकों को प्राथमिकता देते हैं जिनमें सबसे छोटी माध्य वर्ग त्रुटि या माध्य वर्ग त्रुटियाँ हों।


यदि हम T = h(X1,X2,... , Xn) को एक यादृच्छिक नमूने X<sub>1</sub>,X<sub>2</sub>, . . . , X<sub>n</sub>, के आधार पर एक अनुमानक मानते हैं। अनुमानक T को पैरामीटर θ के लिए एक निष्पक्ष अनुमानक कहा जाता है यदि E[T] = θ, θ के मान पर ध्यान दिए बिना।<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref> उदाहरण के लिए, उसी यादृच्छिक नमूने से हमारे पास E( x̄ ) = µ(माध्य) और E(s<sup>2</sup>) = σ<sup>2</sup>  (विचरण) है, तो x̄ और s<sup>2</sup> µ और σ<sup>2</sup> के लिए निष्पक्ष अनुमानक होंगे। अंतर E[T ] - θ को T का पूर्वाग्रह कहा जाता है; यदि यह अंतर शून्येतर है, तो T को पक्षपाती कहा जाता है।
यदि हम T = h(X1,X2,... , Xn) को एक यादृच्छिक नमूने X<sub>1</sub>,X<sub>2</sub>, . . . , X<sub>n</sub>, के आधार पर एक अनुमानक मानते हैं। अनुमानक T को पैरामीटर θ के लिए एक निष्पक्ष अनुमानक कहा जाता है यदि E[T] = θ, θ के मान पर ध्यान दिए बिना।<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref> उदाहरण के लिए, उसी यादृच्छिक नमूने से हमारे पास E( x̄ ) = µ(माध्य) और E(s<sup>2</sup>) = σ<sup>2</sup>  (विचरण) है, तो x̄ और s<sup>2</sup> µ और σ<sup>2</sup> के लिए निष्पक्ष अनुमानक होंगे। अंतर E[T ] - θ को T का पूर्वाग्रह कहा जाता है; यदि यह अंतर शून्येतर है, तो T को पक्षपाती कहा जाता है।  


=== संगति ===
=== संगति ===
संगति इस बारे में है कि जब पैरामीटर अपना आकार बढ़ाता है तो बिंदु अनुमान मान के समीप रहता है या नहीं जो की नमूना आकार जितना बड़ा होगा, अनुमान उतना ही स्पष्ट होगा। यदि एक बिंदु अनुमानक सुसंगत है, तो इसका अपेक्षित मान और विचरण पैरामीटर के वास्तविक मान के समीप होना चाहिए। एक निष्पक्ष अनुमानक सुसंगत होता है यदि अनुमानक t  के विचरण की सीमा शून्य के समान होती है।
संगति इस बारे में है कि जब पैरामीटर अपना आकार बढ़ाता है तो बिंदु अनुमान मान के समीप रहता है या नहीं जो की नमूना आकार जितना बड़ा होगा, अनुमान उतना ही स्पष्ट होगा। यदि एक बिंदु अनुमानक सुसंगत है, तो इसका अपेक्षित मान और विचरण पैरामीटर के वास्तविक मान के समीप होना चाहिए। एक निष्पक्ष अनुमानक सुसंगत होता है यदि अनुमानक t  के विचरण की सीमा शून्य के समान होती है।  


=== दक्षता ===
=== दक्षता ===
चलो ''T''<sub>1</sub> और ''T''<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हों। अनुमानक ''T''<sub>2</sub> अनुमानक ''T''<sub>1</sub> की तुलना में अधिक कुशल कहा जाएगा यदि Var(''T''<sub>2</sub>) ''<'' Var(''T''<sub>1</sub>), θ के मान पर ध्यान दिए बिना।<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref> हम यह भी कह सकते हैं कि सबसे कुशल अनुमानक वे हैं जिनके परिणामों में सबसे कम परिवर्तनशीलता है। इसलिए, यदि अनुमानक के पास नमूने से नमूने के बीच सबसे छोटा अंतर है, तो यह सबसे कुशल और निष्पक्ष दोनों है। हम अनुमानक T<sub>2</sub>  कहकर दक्षता की धारणा का विस्तार करते हैं अनुमानक T<sub>1</sub> से अधिक कुशल है (रुचि के समान पैरामीटर के लिए), यदि T<sub>2</sub>  का एमएसई (मीन चुकता त्रुटि) T<sub>1</sub> के एमएसई से छोटा है.<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref>
माना <math>T1                                                                                                                                                                                                    </math> और <math>T2                                                                                                                                                                                                                  </math> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हों। अनुमानक ''T''<sub>2</sub> अनुमानक ''T''<sub>1</sub> की तुलना में अधिक कुशल कहा जाएगा यदि Var(''T''<sub>2</sub>) ''<'' Var(''T''<sub>1</sub>), θ के मान पर ध्यान दिए बिना।<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref> हम यह भी कह सकते हैं कि सबसे कुशल अनुमानक वे हैं जिनके परिणामों में सबसे कम परिवर्तनशीलता है। इसलिए, यदि अनुमानक के पास नमूने से नमूने के बीच सबसे छोटा अंतर है, तो यह सबसे कुशल और निष्पक्ष दोनों है। हम अनुमानक T<sub>2</sub>  कहकर दक्षता की धारणा का विस्तार करते हैं अनुमानक T<sub>1</sub> से अधिक कुशल है (रुचि के समान पैरामीटर के लिए), यदि T<sub>2</sub>  का एमएसई (मीन चुकता त्रुटि) T<sub>1</sub> के एमएसई से छोटा है.<ref name=":0">{{Cite book|title=संभाव्यता और सांख्यिकी का एक आधुनिक परिचय|publisher=F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester|year=2005|language=English}}</ref>


समान्यता:  हमें अनुमानकर्ताओं की दक्षता निर्धारित करते समय जनसंख्या के वितरण पर विचार करना चाहिए। उदाहरण के लिए एक [[सामान्य वितरण]] में, माध्य को माध्यिका की तुलना में अधिक कुशल माना जाता है, किंतु यह बात असममित, या विषम  वितरण, वितरण में प्रयुक्त नहीं होती है।
समान्यता:  हमें अनुमानकर्ताओं की दक्षता निर्धारित करते समय जनसंख्या के वितरण पर विचार करना चाहिए। उदाहरण के लिए एक [[सामान्य वितरण]] में, माध्य को माध्यिका की तुलना में अधिक कुशल माना जाता है, किंतु यह बात असममित, या विषम  वितरण, वितरण में प्रयुक्त नहीं होती है।
Line 23: Line 24:
=== पर्याप्तता ===
=== पर्याप्तता ===


सांख्यिकी में, एक सांख्यिकीविद् का काम उन आंकड़ों की व्याख्या करना है जो उन्होंने एकत्र किए हैं और जांच के अनुसार जनसंख्या के बारे में सांख्यिकीय रूप से वैध निष्कर्ष निकालना है। किंतु कई स्थिति में कच्चा डेटा, जो बहुत अधिक है और संचयन के लिए बहुत मूल्यवान `है, इस उद्देश्य के लिए उपयुक्त नहीं है। इसलिए, सांख्यिकीविद् कुछ आँकड़ों की गणना करके डेटा को संक्षिप्त करना चाहेगा और अपने विश्लेषण को इन आँकड़ों पर आधारित करना चाहेगा जिससे ऐसा करने पर प्रासंगिक जानकारी का कोई हानि न हो, अर्थात सांख्यिकीविद् उन आँकड़ों को चुनना चाहेगा जिनके बारे में सारी जानकारी समाप्त हो जाती है पैरामीटर, जो नमूने में निहित है. हम पर्याप्त आँकड़ों को इस प्रकार परिभाषित करते हैं: मान लीजिए X =( X<sub>1</sub>, X<sub>2</sub>, ... ,X<sub>n</sub>) एक यादृच्छिक नमूना है। एक आँकड़ा T(X) को θ (या वितरण के वर्ग के लिए) के लिए पर्याप्त माना जाता है यदि दिए गए T का सशर्त वितरण θ से मुक्त है।<ref name=":1">{{Cite book|title=अनुमान और अनुमानात्मक सांख्यिकी|publisher=Pradip Kumar Sahu, Santi Ranjan Pal, Ajit Kumar Das|year=2015|language=English}}</ref>
सांख्यिकी में, एक सांख्यिकीविद् का काम उन आंकड़ों की व्याख्या करना है जो उन्होंने एकत्र किए हैं और जांच के अनुसार जनसंख्या के बारे में सांख्यिकीय रूप से वैध निष्कर्ष निकालना है। किंतु कई स्थिति में कच्चा डेटा, जो बहुत अधिक है और संचयन के लिए बहुत मूल्यवान `है, इस उद्देश्य के लिए उपयुक्त नहीं है। इसलिए, सांख्यिकीविद् कुछ आँकड़ों की गणना करके डेटा को संक्षिप्त करना चाहेगा और अपने विश्लेषण को इन आँकड़ों पर आधारित करना चाहेगा जिससे ऐसा करने पर प्रासंगिक जानकारी का कोई हानि न हो, अर्थात सांख्यिकीविद् उन आँकड़ों को चुनना चाहेगा जिनके बारे में सारी जानकारी समाप्त हो जाती है पैरामीटर, जो नमूने में निहित है. हम पर्याप्त आँकड़ों को इस प्रकार परिभाषित करते हैं: मान लीजिए X =( X<sub>1</sub>, X<sub>2</sub>, ... ,X<sub>n</sub>) एक यादृच्छिक नमूना है। एक आँकड़ा <math>T(X)                                                                                                                                                                                                                   </math> को θ (या वितरण के वर्ग के लिए) के लिए पर्याप्त माना जाता है यदि दिए गए T का सशर्त वितरण θ से मुक्त है।<ref name=":1">{{Cite book|title=अनुमान और अनुमानात्मक सांख्यिकी|publisher=Pradip Kumar Sahu, Santi Ranjan Pal, Ajit Kumar Das|year=2015|language=English}}</ref>
== बिंदु अनुमान के प्रकार ==
== बिंदु अनुमान के प्रकार ==


=== बायेसियन बिंदु अनुमान ===
=== बायेसियन बिंदु अनुमान ===
बायेसियन अनुमान समान्यता पश्च वितरण पर आधारित होता है। कई बायेसियन बिंदु अनुमानक केंद्रीय प्रवृत्ति के पश्च वितरण के आँकड़े हैं, उदाहरण के लिए, इसका माध्य माध्यिका या मोड:
बायेसियन अनुमान समान्यता पश्च वितरण पर आधारित होता है। कई बायेसियन बिंदु अनुमानक केंद्रीय प्रवृत्ति के पश्च वितरण के आँकड़े हैं, उदाहरण के लिए, इसका माध्य माध्यिका या मोड:  


* पश्च माध्य, जो वर्ग-त्रुटि हानि फलन के लिए (पश्च) कठिन परिस्थिति (अपेक्षित हानि) को कम करता है; बायेसियन अनुमान में, कठिन परिस्थिति को पश्च वितरण के संदर्भ में परिभाषित किया गया है, जैसा कि गॉस ने देखा है ।<ref name="Dodge">{{cite book|title=Statistical data analysis based on the L1-norm and related methods: Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987|publisher=[[North-Holland Publishing]]|year=1987|editor-last=Dodge|editor-first=Yadolah|editor-link=Yadolah Dodge}}</ref>
* पश्च माध्य, जो वर्ग-त्रुटि हानि फलन के लिए (पश्च) कठिन परिस्थिति (अपेक्षित हानि) को कम करता है; बायेसियन अनुमान में, कठिन परिस्थिति को पश्च वितरण के संदर्भ में परिभाषित किया गया है, जैसा कि गॉस ने देखा है ।<ref name="Dodge">{{cite book|title=Statistical data analysis based on the L1-norm and related methods: Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987|publisher=[[North-Holland Publishing]]|year=1987|editor-last=Dodge|editor-first=Yadolah|editor-link=Yadolah Dodge}}</ref>  
*पश्च माध्यिका, जो पूर्ण-मूल्य हानि फलन के लिए पश्च कठिन परिस्थिति को कम करती है, जैसा कि लाप्लास द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book|last1=Jaynes|first1=E. T.|title=Probability Theory: The logic of science|date=2007|publisher=[[Cambridge University Press]]|isbn=978-0-521-59271-0|edition=5. print.|page=172|author-link=Edwin Thompson Jaynes}}</ref>
*पश्च माध्यिका, जो पूर्ण-मूल्य हानि फलन के लिए पश्च कठिन परिस्थिति को कम करती है, जैसा कि लाप्लास द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book|last1=Jaynes|first1=E. T.|title=Probability Theory: The logic of science|date=2007|publisher=[[Cambridge University Press]]|isbn=978-0-521-59271-0|edition=5. print.|page=172|author-link=Edwin Thompson Jaynes}}</ref>  
* अधिकतम एक पोस्टीरियरी (एमएपी), जो अधिकतम पोस्टीरियर वितरण पाता है; एक समान पूर्व संभाव्यता के लिए, एमएपी अनुमानक अधिकतम-संभावना अनुमानक के साथ मेल खाता है;
* अधिकतम एक पोस्टीरियरी (एमएपी), जो अधिकतम पोस्टीरियर वितरण पाता है; एक समान पूर्व संभाव्यता के लिए, एमएपी अनुमानक अधिकतम-संभावना अनुमानक के साथ मेल खाता है;  
एमएपी अनुमानक के पास कई कठिन समस्याओं के लिए भी अच्छे स्पर्शोन्मुख गुण हैं, जिन पर अधिकतम संभावना अनुमानक को कठिनाइयाँ होती हैं। नियमित समस्याओं के लिए, जहां अधिकतम-संभावना अनुमानक सुसंगत है, अधिकतम-संभावना अनुमानक अंततः एमएपी अनुमानक से सहमत होता है।<ref>{{cite book|last=Ferguson|first=Thomas S.|title=बड़े नमूना सिद्धांत में एक पाठ्यक्रम|publisher=[[Chapman & Hall]]|year=1996|isbn=0-412-04371-8|author-link=Thomas S. Ferguson}}</ref><ref name="LeCam">{{cite book|last=Le Cam|first=Lucien|title=सांख्यिकीय निर्णय सिद्धांत में स्पर्शोन्मुख विधियाँ|publisher=[[Springer-Verlag]]|year=1986|isbn=0-387-96307-3|author-link=Lucien Le Cam}}</ref><ref name="FergJASA">{{cite journal|last=Ferguson|first=Thomas&nbsp;S.|author-link=Thomas S. Ferguson|year=1982|title=एक असंगत अधिकतम संभावना अनुमान|journal=[[Journal of the American Statistical Association]]|volume=77|issue=380|pages=831–834|doi=10.1080/01621459.1982.10477894|jstor=2287314}}</ref> वाल्ड के प्रमेय के अनुसार बायेसियन अनुमानक स्वीकार्य हैं।<ref name="LeCam" /><ref name="LehmannCasella">{{cite book|last1=Lehmann|first1=E. L.|title=बिंदु अनुमान का सिद्धांत|last2=Casella|first2=G.|publisher=Springer|year=1998|isbn=0-387-98502-6|edition=2nd|author-link=Erich Leo Lehmann}}</ref>
एमएपी अनुमानक के पास कई कठिन समस्याओं के लिए भी अच्छे स्पर्शोन्मुख गुण हैं, जिन पर अधिकतम संभावना अनुमानक को कठिनाइयाँ होती हैं। नियमित समस्याओं के लिए, जहां अधिकतम-संभावना अनुमानक सुसंगत है, अधिकतम-संभावना अनुमानक अंततः एमएपी अनुमानक से सहमत होता है।<ref>{{cite book|last=Ferguson|first=Thomas S.|title=बड़े नमूना सिद्धांत में एक पाठ्यक्रम|publisher=[[Chapman & Hall]]|year=1996|isbn=0-412-04371-8|author-link=Thomas S. Ferguson}}</ref><ref name="LeCam">{{cite book|last=Le Cam|first=Lucien|title=सांख्यिकीय निर्णय सिद्धांत में स्पर्शोन्मुख विधियाँ|publisher=[[Springer-Verlag]]|year=1986|isbn=0-387-96307-3|author-link=Lucien Le Cam}}</ref><ref name="FergJASA">{{cite journal|last=Ferguson|first=Thomas&nbsp;S.|author-link=Thomas S. Ferguson|year=1982|title=एक असंगत अधिकतम संभावना अनुमान|journal=[[Journal of the American Statistical Association]]|volume=77|issue=380|pages=831–834|doi=10.1080/01621459.1982.10477894|jstor=2287314}}</ref> वाल्ड के प्रमेय के अनुसार बायेसियन अनुमानक स्वीकार्य हैं।<ref name="LeCam" /><ref name="LehmannCasella">{{cite book|last1=Lehmann|first1=E. L.|title=बिंदु अनुमान का सिद्धांत|last2=Casella|first2=G.|publisher=Springer|year=1998|isbn=0-387-98502-6|edition=2nd|author-link=Erich Leo Lehmann}}</ref>  


न्यूनतम संदेश लंबाई (एमएमएल) बिंदु अनुमानक बायेसियन सूचना सिद्धांत पर आधारित है और यह सीधे रूप से पश्च वितरण से संबंधित नहीं है।
न्यूनतम संदेश लंबाई (एमएमएल) बिंदु अनुमानक बायेसियन सूचना सिद्धांत पर आधारित है और यह सीधे रूप से पश्च वितरण से संबंधित नहीं है।  


[[बेयस फ़िल्टर|बेयस निस्पंदन]]  के विशेष स्थिति महत्वपूर्ण हैं:
[[बेयस फ़िल्टर|बेयस निस्पंदन]]  के विशेष स्थिति महत्वपूर्ण हैं:  
*[[कलमन फ़िल्टर|कलमन निस्पंदन]]  
*[[कलमन फ़िल्टर|कलमन निस्पंदन]]  
*[[विनीज़ फ़िल्टर|विनीज़ निस्पंदन]]  
*[[विनीज़ फ़िल्टर|विनीज़ निस्पंदन]]  


कम्प्यूटेशनल सांख्यिकी की कई पुनरावृत्तीय पद्धतियों का बायेसियन विश्लेषण के साथ घनिष्ठ संबंध है:
कम्प्यूटेशनल सांख्यिकी की कई पुनरावृत्तीय पद्धतियों का बायेसियन विश्लेषण के साथ घनिष्ठ संबंध है:  
*[[कण फिल्टर|कण निस्पंदन]]  
*[[कण फिल्टर|कण निस्पंदन]]  
*[[मार्कोव श्रृंखला मोंटे कार्लो]] (एमसीएमसी)
*[[मार्कोव श्रृंखला मोंटे कार्लो]] (एमसीएमसी)  


==बिंदु अनुमान ज्ञात करने की विधियाँ==
==बिंदु अनुमान ज्ञात करने की विधियाँ ==
नीचे अज्ञात मापदंडों का अनुमान लगाने के कुछ सामान्य रूप से उपयोग किए जाने वाले विधि दिए गए हैं जिनसे अनुमानकर्ताओं को इनमें से कुछ महत्वपूर्ण गुण प्रदान करने की उम्मीद है। सामान्य रूप से  स्थिति और हमारे अध्ययन के उद्देश्य के आधार पर हम बिंदु अनुमान के विधि में से किसी एक विधि को प्रयुक्त करते हैं जो उपयुक्त हो सकता है।
नीचे अज्ञात मापदंडों का अनुमान लगाने के कुछ सामान्य रूप से उपयोग किए जाने वाले विधि दिए गए हैं जिनसे अनुमानकर्ताओं को इनमें से कुछ महत्वपूर्ण गुण प्रदान करने की उम्मीद है। सामान्य रूप से  स्थिति और हमारे अध्ययन के उद्देश्य के आधार पर हम बिंदु अनुमान के विधि में से किसी एक विधि को प्रयुक्त करते हैं जो उपयुक्त हो सकता है।  


=== अधिकतम संभावना की विधि (एमएलई) ===
=== अधिकतम संभावना की विधि (एमएलई) ===
अधिकतम संभावना की विधि, आर.ए. के कारण फिशर, अनुमान लगाने की सबसे महत्वपूर्ण सामान्य विधि है। यह अनुमानक विधि अज्ञात मापदंडों को प्राप्त करने का प्रयास करती है जो संभावना फलन को अधिकतम करती है। यह एक ज्ञात मॉडल (उदा. सामान्य वितरण) का उपयोग करता है और मॉडल में पैरामीटर के मानों का उपयोग करता है जो डेटा के लिए सबसे उपयुक्त मिलान खोजने के लिए संभावना फलन को अधिकतम करता है।<ref>{{Cite book|title=श्रेणीबद्ध डेटा विश्लेषण|publisher=Agresti A.|year=1990|location=John Wiley and Sons, New York|pages=}}</ref>
अधिकतम संभावना की विधि, आर.ए. के कारण फिशर, अनुमान लगाने की सबसे महत्वपूर्ण सामान्य विधि है। यह अनुमानक विधि अज्ञात मापदंडों को प्राप्त करने का प्रयास करती है जो संभावना फलन को अधिकतम करती है। यह एक ज्ञात मॉडल (उदा. सामान्य वितरण) का उपयोग करता है और मॉडल में पैरामीटर के मानों का उपयोग करता है जो डेटा के लिए सबसे उपयुक्त मिलान खोजने के लिए संभावना फलन को अधिकतम करता है।<ref>{{Cite book|title=श्रेणीबद्ध डेटा विश्लेषण|publisher=Agresti A.|year=1990|location=John Wiley and Sons, New York|pages=}}</ref>


मान लीजिए X = (X<sub>1</sub>, X<sub>2</sub>, ... ,X<sub>n</sub>) संयुक्त पीडीएफ या पी.एम.एफ. के साथ एक यादृच्छिक नमूने को दर्शाता है। f(x, θ) (θ एक सदिश हो सकता है)। फलन f(x, θ), जिसे θ का फलन माना जाता है, संभाव्यता फलन कहलाता है। इस स्थिति में, इसे L(θ) द्वारा दर्शाया जाता है। अधिकतम संभावना के सिद्धांत में θ की स्वीकार्य सीमा के अंदर एक अनुमान चुनना सम्मिलित है, जो संभावना को अधिकतम करता है। इस अनुमानक को θ का अधिकतम संभावना अनुमान (एमएलई) कहा जाता है। θ का MLE प्राप्त करने के लिए, हम समीकरण का उपयोग करते हैं
मान लीजिए <math>X = (X1, X2, ... ,Xn)                                                                                                                                                                                                                  </math>  संयुक्त पीडीएफ या पी.एम.एफ. के साथ एक यादृच्छिक नमूने को दर्शाता है। f(x, θ) (θ एक सदिश हो सकता है)। फलन f(x, θ), जिसे θ का फलन माना जाता है, संभाव्यता फलन कहलाता है। इस स्थिति में, इसे L(θ) द्वारा दर्शाया जाता है। अधिकतम संभावना के सिद्धांत में θ की स्वीकार्य सीमा के अंदर एक अनुमान चुनना सम्मिलित है, जो संभावना को अधिकतम करता है। इस अनुमानक को θ का अधिकतम संभावना अनुमान (एमएलई) कहा जाता है। θ का MLE प्राप्त करने के लिए, हम समीकरण का उपयोग करते हैं  


''dlog''L(θ)/''d''θ<sub>i</sub>=0, i = 1, 2, …, k.. यदि θ एक सदिश है, तो संभावना समीकरण प्राप्त करने के लिए आंशिक व्युत्पन्न पर विचार किया जाता है।<ref name=":1" />
''dlog''L(θ)/''d''θ<sub>i</sub>=0, i = 1, 2, …, k.. यदि θ एक सदिश है, तो संभावना समीकरण प्राप्त करने के लिए आंशिक व्युत्पन्न पर विचार किया जाता है।<ref name=":1" />






=== क्षणों की विधि (MOM) ===
=== क्षणों की विधि (एमओएम) ===
क्षणों की विधि 1887 में के. पियर्सन और पी. चेबीशेव द्वारा प्रारंभ की गई थी, और यह अनुमान लगाने की सबसे पुरानी विधियों में से एक है। यह विधि बड़ी संख्या के नियम पर आधारित है, जो जनसंख्या के बारे में सभी ज्ञात तथ्यों का उपयोग करती है और उन तथ्यों को समीकरण प्राप्त करके जनसंख्या के नमूने पर प्रयुक्त  करती है जो जनसंख्या क्षणों को अज्ञात मापदंडों से जोड़ते हैं। फिर हम जनसंख्या क्षणों के नमूना माध्य से हल कर सकते हैं।<ref>{{Cite book|title=सांख्यिकी का संक्षिप्त विश्वकोश|publisher=Dodge, Y.|year=2008|location=Springer}}</ref> चूँकि सरलता के कारण यह विधि सदैव स्पष्ट  नहीं होती है और आसानी से पक्षपाती हो सकती है।
क्षणों की विधि 1887 में के. पियर्सन और पी. चेबीशेव द्वारा प्रारंभ की गई थी, और यह अनुमान लगाने की सबसे पुरानी विधियों में से एक है। यह विधि बड़ी संख्या के नियम पर आधारित है, जो जनसंख्या के बारे में सभी ज्ञात तथ्यों का उपयोग करती है और उन तथ्यों को समीकरण प्राप्त करके जनसंख्या के नमूने पर प्रयुक्त  करती है जो जनसंख्या क्षणों को अज्ञात मापदंडों से जोड़ते हैं। फिर हम जनसंख्या क्षणों के नमूना माध्य से हल कर सकते हैं।<ref>{{Cite book|title=सांख्यिकी का संक्षिप्त विश्वकोश|publisher=Dodge, Y.|year=2008|location=Springer}}</ref> चूँकि सरलता के कारण यह विधि सदैव स्पष्ट  नहीं होती है और आसानी से पक्षपाती हो सकती है।


मान लीजिए(X<sub>1</sub>, X<sub>2</sub>,…X<sub>n</sub>) पीडीएफ वाली जनसंख्या से एक यादृच्छिक नमूना है। (या p.m.f) f(x,θ), θ = (θ<sub>1</sub>, θ<sub>2</sub>, …, θ<sub>k</sub>). इसका उद्देश्य पैरामीटर θ<sub>1</sub>, θ<sub>2</sub>, ..., θ<sub>k</sub> का अनुमान लगाना है। इसके अतिरिक्त , शून्य के बारे में पहले k जनसंख्या क्षणों को θ के स्पष्ट कार्य के रूप में उपस्थित  होने दें, अथार्त μ<sub>r</sub> = μ<sub>r</sub>(θ<sub>1</sub>, θ<sub>2</sub>,…, θ<sub>k</sub>), r = 1, 2, …, k क्षणों की विधि में, हम k नमूना क्षणों को संबंधित जनसंख्या क्षणों के साथ समान करते हैं। समान्यता:, पहले k क्षण इसलिए लिए जाते हैं क्योंकि नमूने के कारण होने वाली त्रुटियाँ क्षण के क्रम के साथ बढ़ती हैं। इस प्रकार, हमें k समीकरण μ<sub>r</sub>(θ<sub>1</sub>, θ<sub>2</sub>,…, θ<sub>k</sub>) = m<sub>r</sub>, r = 1, 2, …, k.मिलता है। इन समीकरणों को हल करने पर हमें क्षण अनुमानक (या अनुमान) की विधि प्राप्त होती है
मान लीजिए (X<sub>1</sub>, X<sub>2</sub>,…X<sub>n</sub>) पीडीएफ वाली जनसंख्या से एक यादृच्छिक नमूना है। (या p.m.f) f(x,θ), θ = (θ<sub>1</sub>, θ<sub>2</sub>, …, θ<sub>k</sub>). इसका उद्देश्य पैरामीटर θ<sub>1</sub>, θ<sub>2</sub>, ..., θ<sub>k</sub> का अनुमान लगाना है। इसके अतिरिक्त , शून्य के बारे में पहले k जनसंख्या क्षणों को θ के स्पष्ट कार्य के रूप में उपस्थित  होने दें, अथार्त μ<sub>r</sub> = μ<sub>r</sub>(θ<sub>1</sub>, θ<sub>2</sub>,…, θ<sub>k</sub>), r = 1, 2, …, k क्षणों की विधि में, हम k नमूना क्षणों को संबंधित जनसंख्या क्षणों के साथ समान करते हैं। समान्यता:, पहले k क्षण इसलिए लिए जाते हैं क्योंकि नमूने के कारण होने वाली त्रुटियाँ क्षण के क्रम के साथ बढ़ती हैं। इस प्रकार, हमें k समीकरण μ<sub>r</sub>(θ<sub>1</sub>, θ<sub>2</sub>,…, θ<sub>k</sub>) = m<sub>r</sub>, r = 1, 2, …, k.मिलता है। इन समीकरणों को हल करने पर हमें क्षण अनुमानक (या अनुमान) की विधि प्राप्त होती है


m<sub>r</sub> = 1/n ΣX<sub>i</sub><sup>r</sup>.<ref name=":1" />[[क्षणों की सामान्यीकृत विधि]] भी देखें।
m<sub>r</sub> = 1/n ΣX<sub>i</sub><sup>r</sup>.<ref name=":1" />[[क्षणों की सामान्यीकृत विधि]] भी देखें।
Line 70: Line 72:
वर्गों का योग।
वर्गों का योग।


जब f( x, β<sub>0</sub>, β<sub>1</sub>, ,,,, β<sub>p</sub>) पैरामीटरों का एक रैखिक कार्य है और x-मान ज्ञात हैं, न्यूनतम वर्ग अनुमानक [[सर्वोत्तम रैखिक निष्पक्ष अनुमानक]] (नीला) होगा। दोबारा, यदि हम मानते हैं कि न्यूनतम वर्ग अनुमान स्वतंत्र रूप से और समान रूप से सामान्य रूप से वितरित होते हैं, तो एक रैखिक अनुमानक निष्पक्ष अनुमानकों के पूरे वर्ग के लिए [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] (एमवीयूई) होगा। [[न्यूनतम माध्य वर्ग त्रुटि]] (एमएमएसई) भी देखें।<ref name=":1" />
जब पैरामीटरों का एक रैखिक कार्य है और x-मान ज्ञात हैं, न्यूनतम वर्ग अनुमानक [[सर्वोत्तम रैखिक निष्पक्ष अनुमानक]] (नीला) होगा। दोबारा, यदि हम मानते हैं कि न्यूनतम वर्ग अनुमान स्वतंत्र रूप से और समान रूप से सामान्य रूप से वितरित होते हैं, तो एक रैखिक अनुमानक निष्पक्ष अनुमानकों के पूरे वर्ग के लिए [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] (एमवीयूई) होगा। [[न्यूनतम माध्य वर्ग त्रुटि]] (एमएमएसई) भी देखें।<ref name=":1" />
=== न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक (एमवीयूई) ===
=== न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक (एमवीयूई) ===
न्यूनतम-विचरण निष्पक्ष अनुमानक की विधि वर्ग-त्रुटि हानि-फलन  के कठिन परिस्थिति (अपेक्षित हानि) को कम करती है।
न्यूनतम-विचरण निष्पक्ष अनुमानक की विधि वर्ग-त्रुटि हानि-फलन  के कठिन परिस्थिति (अपेक्षित हानि) को कम करती है।
Line 78: Line 80:


=== सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला) ===
=== सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला) ===
सर्वश्रेष्ठ रैखिक निष्पक्ष अनुमानक, जिसे गॉस-मार्कोव प्रमेय के रूप में भी जाना जाता है, बताता है कि साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक में रैखिक निष्पक्ष अनुमानकों के वर्ग के अंदर सबसे कम नमूनाकरण भिन्नता होती है, यदि रैखिक प्रतिगमन मॉडल में त्रुटियां असंबद्ध हैं, तो समान भिन्नताएं होती हैं और उम्मीद का मान शून्य है।<ref>{{Cite book|title=सर्वोत्तम रैखिक निष्पक्ष अनुमान और भविष्यवाणी|publisher=Theil Henri|year=1971|location=New York: John Wiley & Sons}}</ref>
सर्वश्रेष्ठ रैखिक निष्पक्ष अनुमानक, जिसे गॉस-मार्कोव प्रमेय के रूप में भी जाना जाता है, बताता है कि साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक में रैखिक निष्पक्ष अनुमानकों के वर्ग के अंदर सबसे कम नमूनाकरण भिन्नता होती है, यदि रैखिक प्रतिगमन मॉडल में त्रुटियां असंबद्ध हैं, तो समान भिन्नताएं होती हैं और उम्मीद का मान शून्य है।<ref>{{Cite book|title=सर्वोत्तम रैखिक निष्पक्ष अनुमान और भविष्यवाणी|publisher=Theil Henri|year=1971|location=New York: John Wiley & Sons}}</ref>
== बिंदु अनुमान बनाम आत्मविश्वास अंतराल अनुमान ==
== बिंदु अनुमान बनाम आत्मविश्वास अंतराल अनुमान ==
[[File:Point estimation and confidence interval estimation.png|thumb|बिंदु अनुमान और आत्मविश्वास अंतराल अनुमान।]]अनुमान के दो प्रमुख प्रकार हैं: बिंदु अनुमान और अंतराल अनुमान बिंदु अनुमान में हम पैरामीटर स्थान में एक अद्वितीय बिंदु चुनने का प्रयास करते हैं जिसे उचित रूप से पैरामीटर का सही मान माना जा सकता है। दूसरी ओर, पैरामीटर के अनूठे अनुमान के अतिरिक्त  हम सेट के एक वर्ग के निर्माण में रुचि रखते हैं जिसमें एक निर्दिष्ट संभावना के साथ सही (अज्ञात) पैरामीटर मान होता है। सांख्यिकीय अनुमान की कई समस्याओं में हम केवल पैरामीटर का अनुमान लगाने या पैरामीटर से संबंधित कुछ परिकल्पना का परीक्षण करने में रुचि नहीं रखते हैं, हम वास्तविक-मान वाले पैरामीटर के लिए निचली या ऊपरी सीमा या दोनों भी प्राप्त करना चाहते हैं। ऐसा करने के लिए, हमें एक विश्वास अंतराल बनाने की आवश्यकता है।
[[File:Point estimation and confidence interval estimation.png|thumb|बिंदु अनुमान और आत्मविश्वास अंतराल अनुमान।]]इस प्रकार अनुमान के दो प्रमुख प्रकार हैं: बिंदु अनुमान और अंतराल अनुमान बिंदु अनुमान में हम पैरामीटर स्थान में एक अद्वितीय बिंदु चुनने का प्रयास करते हैं जिसे उचित रूप से पैरामीटर का सही मान माना जा सकता है। दूसरी ओर, पैरामीटर के अनूठे अनुमान के अतिरिक्त   हम  समूह के एक वर्ग के निर्माण में रुचि रखते हैं जिसमें एक निर्दिष्ट संभावना के साथ सही (अज्ञात) पैरामीटर मान होता है। सांख्यिकीय अनुमान की कई समस्याओं में हम केवल पैरामीटर का अनुमान लगाने या पैरामीटर से संबंधित कुछ परिकल्पना का परीक्षण करने में रुचि नहीं रखते हैं, हम वास्तविक-मान वाले पैरामीटर के लिए निचली या ऊपरी सीमा या दोनों भी प्राप्त करना चाहते हैं। ऐसा करने के लिए, हमें एक विश्वास अंतराल बनाने की आवश्यकता है।  


कॉन्फिडेंस इंटरवल बताता है कि अनुमान कितना विश्वसनीय है। हम देखे गए डेटा से अंतराल की ऊपरी और निचली आत्मविश्वास सीमा की गणना कर सकते हैं। मान लीजिए एक डेटासेट x<sub>1</sub>, . . . , x<sub>n</sub> दिया गया है, जिसे यादृच्छिक चर X<sub>1</sub>, . . . , X<sub>n</sub>. की प्राप्ति के रूप में तैयार किया गया है। मान लीजिए θ रुचि का पैरामीटर है, और γ 0 और 1 के बीच एक संख्या है। यदि नमूना आँकड़े मौजूद हैं  L<sub>n</sub> = g(X<sub>1</sub>, . . . , X<sub>n</sub>) और U<sub>n</sub> = h(X<sub>1</sub>, . . . , X<sub>n</sub>) जैसे कि P(L<sub>n</sub> < θ < U<sub>n</sub>) = γ के प्रत्येक मान के लिए, फिर (l<sub>n</sub>, u<sub>n</sub>), जहां l<sub>n</sub> = g(x<sub>1</sub>, . . . , x<sub>n</sub>) और  u<sub>n</sub> = h(x<sub>1</sub>, . . . , x<sub>n</sub>), है θ के लिए 100γ% विश्वास अंतराल कहा जाता है। संख्या γ को आत्मविश्वास स्तर कहा जाता है।<ref name=":0" /> समान्यता:, सामान्य रूप से वितरित नमूना माध्य के साथ, Ẋ, और मानक विचलन के लिए ज्ञात मान के साथ, σ, सच्चे μ के लिए 100(1-α)% विश्वास अंतराल Ẋ ± e लेकर बनता है, e = z<sub>1-α/2</sub>(σ/n<sup>1/2</sup>),के साथ  जहां z<sub>1-α/2</sub>  मानक सामान्य वक्र का 100(1-α/2)% संचयी मान है, और n उस कॉलम में डेटा मानों की संख्या है। उदाहरण के लिए, 95% आत्मविश्वास के लिए z1-α/2 1.96 के बराबर है।<ref>{{Cite book|title=Experimental Design – With Applications in Management, Engineering, and the Sciences|publisher=Paul D. Berger, Robert E. Maurer, Giovana B. Celli|year=2019|location=Springer}}</ref>
कॉन्फिडेंस इंटरवल बताता है कि अनुमान कितना विश्वसनीय है। हम देखे गए डेटा से अंतराल की ऊपरी और निचली आत्मविश्वास सीमा की गणना कर सकते हैं। मान लीजिए एक डेटासमूह <math>x1, . . . , xn                                                                                                                                                                                              </math> दिया गया है, जिसे यादृच्छिक चर <math>X1, . . . , Xn.                                                                                                                                                                                                              </math> की प्राप्ति के रूप में तैयार किया गया है। मान लीजिए θ रुचि का पैरामीटर है, और γ 0 और 1 के बीच एक संख्या है। यदि नमूना आँकड़े मौजूद हैं  L<sub>n</sub> = g(X<sub>1</sub>, . . . , X<sub>n</sub>) और U<sub>n</sub> = h(X<sub>1</sub>, . . . , X<sub>n</sub>) जैसे कि P(L<sub>n</sub> < θ < U<sub>n</sub>) = γ के प्रत्येक मान के लिए, फिर (l<sub>n</sub>, u<sub>n</sub>), जहां l<sub>n</sub> = g(x<sub>1</sub>, . . . , x<sub>n</sub>) और  u<sub>n</sub> = h(x<sub>1</sub>, . . . , x<sub>n</sub>), है θ के लिए 100γ% विश्वास अंतराल कहा जाता है। संख्या γ को आत्मविश्वास स्तर कहा जाता है।<ref name=":0" /> समान्यता:, सामान्य रूप से वितरित नमूना माध्य के साथ, Ẋ, और मानक विचलन के लिए ज्ञात मान के साथ, σ, सच्चे μ के लिए 100(1-α)% विश्वास अंतराल Ẋ ± e लेकर बनता है, e = z<sub>1-α/2</sub>(σ/n<sup>1/2</sup>),के साथ  जहां z<sub>1-α/2</sub>  मानक सामान्य वक्र का 100(1-α/2)% संचयी मान है, और n उस कॉलम में डेटा मानों की संख्या है। उदाहरण के लिए, 95% आत्मविश्वास के लिए z1-α/2 1.96 के समान है।<ref>{{Cite book|title=Experimental Design – With Applications in Management, Engineering, and the Sciences|publisher=Paul D. Berger, Robert E. Maurer, Giovana B. Celli|year=2019|location=Springer}}</ref>


यहां अवलोकनों के सेट से दो सीमाओं की गणना की जाती है, मान लीजिए  l<sub>n</sub> और u<sub>n</sub> और यह कुछ सीमा तक विश्वास के साथ प्रमाणित किया जाता है (संभाव्य शब्दों में मापा जाता है) कि γ का वास्तविक मान  (l<sub>n</sub> और u<sub>n</sub> के बीच है। इस प्रकार हमें एक अंतराल (l<sub>n</sub> और u<sub>n</sub> ) मिलता है जिसकी हमें उम्मीद है कि इसमें γ(θ) का वास्तविक मान सम्मिलित होगा। इसलिए इस प्रकार के अनुमान को आत्मविश्वास अंतराल अनुमान कहा जाता है।<ref name=":1" /> यह अनुमान मानों की एक श्रृंखला प्रदान करता है जो पैरामीटर से अपेक्षित है। यह सामान्यतः बिंदु अनुमानों की तुलना में अधिक जानकारी देता है और अनुमान लगाते समय इसे प्राथमिकता दी जाती है। एक तरह से हम कह सकते हैं कि बिंदु अनुमान अंतराल अनुमान के विपरीत है।
यहां अवलोकनों के समूह से दो सीमाओं की गणना की जाती है, मान लीजिए  l<sub>n</sub> और u<sub>n</sub> और यह कुछ सीमा तक विश्वास के साथ प्रमाणित किया जाता है (संभाव्य शब्दों में मापा जाता है) कि γ का वास्तविक मान  (l<sub>n</sub> और u<sub>n</sub> के बीच है। इस प्रकार हमें एक अंतराल (l<sub>n</sub> और u<sub>n</sub> ) मिलता है जिसकी हमें उम्मीद है कि इसमें γ(θ) का वास्तविक मान सम्मिलित होगा। इसलिए इस प्रकार के अनुमान को आत्मविश्वास अंतराल अनुमान कहा जाता है।<ref name=":1" /> यह अनुमान मानों की एक श्रृंखला प्रदान करता है जो पैरामीटर से अपेक्षित है। यह सामान्यतः बिंदु अनुमानों की तुलना में अधिक जानकारी देता है और अनुमान लगाते समय इसे प्राथमिकता दी जाती है। एक तरह से हम कह सकते हैं कि बिंदु अनुमान अंतराल अनुमान के विपरीत है।


== यह भी देखें ==
== यह भी देखें                                                                                               ==
{{Portal|Mathematics}}
{{Portal|Mathematics}}
* [[एल्गोरिथम अनुमान]]
* [[एल्गोरिथम अनुमान]]
Line 94: Line 96:
* अंतराल अनुमान
* अंतराल अनुमान
*[[सांख्यिकी का दर्शन]]
*[[सांख्यिकी का दर्शन]]
*भविष्यवाणी अनुमान
*पूर्वानुमानात्मक अनुमान


== संदर्भ ==
== संदर्भ ==
Line 116: Line 118:
|publisher=Springer
|publisher=Springer
}}
}}
[[Category: अनुमान सिद्धांत]]


[[Category: Machine Translated Page]]
[[Category:CS1 English-language sources (en)]]
[[Category:Created On 06/07/2023]]
[[Category:Created On 06/07/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with empty portal template]]
[[Category:Pages with script errors]]
[[Category:Portal templates with redlinked portals]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:अनुमान सिद्धांत]]

Latest revision as of 17:09, 29 July 2023


आंकड़ों में, बिंदु अनुमान में एकल मान की गणना करने के लिए नमूना डेटा का उपयोग सम्मिलित होता है (इसे बिंदु अनुमान के रूप में जाना जाता है क्योंकि यह कुछ पैरामीटर स्थान में एक बिंदु की पहचान करता है) जो किसी अज्ञात के "सर्वोत्तम अनुमान" या "सर्वोत्तम अनुमान" के रूप में कार्य करता है। जनसंख्या पैरामीटर (उदाहरण के लिए, जनसंख्या माध्य)। अधिक औपचारिक रूप से, यह एक बिंदु अनुमान प्राप्त करने के लिए डेटा पर एक बिंदु अनुमानक का अनुप्रयोग है।

बिंदु अनुमान की तुलना अंतराल अनुमान से की जा सकती है: ऐसे अंतराल अनुमान समान्यता: या तो विश्वास अंतराल होते हैं, बारंबार अनुमान के स्थिति में, या विश्वसनीय अंतराल, बायेसियन अनुमान के स्थिति में अधिक सामान्यतः एक बिंदु अनुमानक की तुलना एक निर्धारित अनुमानक से की जा सकती है। उदाहरण आत्मविश्वास समूह या विश्वसनीय समूह द्वारा दिए गए हैं। एक बिंदु अनुमानक की तुलना एक वितरण अनुमानक से भी की जा सकती है। उदाहरण आत्मविश्वास वितरण यादृच्छिक अनुमानक और बायेसियन पोस्टीरियर द्वारा दिए गए हैं।

बिंदु अनुमान के गुण

पक्षपात

इस प्रकार से "आकलनकर्ता के पूर्वाग्रह" को अनुमानक के अपेक्षित मान और अनुमानित जनसंख्या पैरामीटर के वास्तविक मान के बीच अंतर के रूप में परिभाषित किया गया है। इसे यह भी वर्णित किया जा सकता है कि किसी पैरामीटर का अपेक्षित मान मापा पैरामीटर के जितना समीप होगा परन्तु पूर्वाग्रह उतना ही कम होगा। जब अनुमानित संख्या और वास्तविक मान समान होता है, तो अनुमानक को निष्पक्ष माना जाता है। इसे निष्पक्ष अनुमानक कहा जाता है। यदि अनुमानक में न्यूनतम भिन्नता है तो वह सबसे अच्छा निष्पक्ष अनुमानक बन जाएगा। चूँकि छोटे विचरण वाला पक्षपाती अनुमानक बड़े विचरण वाले निष्पक्ष अनुमानक की तुलना में अधिक उपयोगी हो सकता है।[1] सबसे महत्वपूर्ण बात यह है कि हम ऐसे बिंदु अनुमानकों को प्राथमिकता देते हैं जिनमें सबसे छोटी माध्य वर्ग त्रुटि या माध्य वर्ग त्रुटियाँ हों।

यदि हम T = h(X1,X2,... , Xn) को एक यादृच्छिक नमूने X1,X2, . . . , Xn, के आधार पर एक अनुमानक मानते हैं। अनुमानक T को पैरामीटर θ के लिए एक निष्पक्ष अनुमानक कहा जाता है यदि E[T] = θ, θ के मान पर ध्यान दिए बिना।[1] उदाहरण के लिए, उसी यादृच्छिक नमूने से हमारे पास E( x̄ ) = µ(माध्य) और E(s2) = σ2 (विचरण) है, तो x̄ और s2 µ और σ2 के लिए निष्पक्ष अनुमानक होंगे। अंतर E[T ] - θ को T का पूर्वाग्रह कहा जाता है; यदि यह अंतर शून्येतर है, तो T को पक्षपाती कहा जाता है।

संगति

संगति इस बारे में है कि जब पैरामीटर अपना आकार बढ़ाता है तो बिंदु अनुमान मान के समीप रहता है या नहीं जो की नमूना आकार जितना बड़ा होगा, अनुमान उतना ही स्पष्ट होगा। यदि एक बिंदु अनुमानक सुसंगत है, तो इसका अपेक्षित मान और विचरण पैरामीटर के वास्तविक मान के समीप होना चाहिए। एक निष्पक्ष अनुमानक सुसंगत होता है यदि अनुमानक t के विचरण की सीमा शून्य के समान होती है।

दक्षता

माना और एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हों। अनुमानक T2 अनुमानक T1 की तुलना में अधिक कुशल कहा जाएगा यदि Var(T2) < Var(T1), θ के मान पर ध्यान दिए बिना।[1] हम यह भी कह सकते हैं कि सबसे कुशल अनुमानक वे हैं जिनके परिणामों में सबसे कम परिवर्तनशीलता है। इसलिए, यदि अनुमानक के पास नमूने से नमूने के बीच सबसे छोटा अंतर है, तो यह सबसे कुशल और निष्पक्ष दोनों है। हम अनुमानक T2 कहकर दक्षता की धारणा का विस्तार करते हैं अनुमानक T1 से अधिक कुशल है (रुचि के समान पैरामीटर के लिए), यदि T2 का एमएसई (मीन चुकता त्रुटि) T1 के एमएसई से छोटा है.[1]

समान्यता: हमें अनुमानकर्ताओं की दक्षता निर्धारित करते समय जनसंख्या के वितरण पर विचार करना चाहिए। उदाहरण के लिए एक सामान्य वितरण में, माध्य को माध्यिका की तुलना में अधिक कुशल माना जाता है, किंतु यह बात असममित, या विषम वितरण, वितरण में प्रयुक्त नहीं होती है।

पर्याप्तता

सांख्यिकी में, एक सांख्यिकीविद् का काम उन आंकड़ों की व्याख्या करना है जो उन्होंने एकत्र किए हैं और जांच के अनुसार जनसंख्या के बारे में सांख्यिकीय रूप से वैध निष्कर्ष निकालना है। किंतु कई स्थिति में कच्चा डेटा, जो बहुत अधिक है और संचयन के लिए बहुत मूल्यवान `है, इस उद्देश्य के लिए उपयुक्त नहीं है। इसलिए, सांख्यिकीविद् कुछ आँकड़ों की गणना करके डेटा को संक्षिप्त करना चाहेगा और अपने विश्लेषण को इन आँकड़ों पर आधारित करना चाहेगा जिससे ऐसा करने पर प्रासंगिक जानकारी का कोई हानि न हो, अर्थात सांख्यिकीविद् उन आँकड़ों को चुनना चाहेगा जिनके बारे में सारी जानकारी समाप्त हो जाती है पैरामीटर, जो नमूने में निहित है. हम पर्याप्त आँकड़ों को इस प्रकार परिभाषित करते हैं: मान लीजिए X =( X1, X2, ... ,Xn) एक यादृच्छिक नमूना है। एक आँकड़ा को θ (या वितरण के वर्ग के लिए) के लिए पर्याप्त माना जाता है यदि दिए गए T का सशर्त वितरण θ से मुक्त है।[2]

बिंदु अनुमान के प्रकार

बायेसियन बिंदु अनुमान

बायेसियन अनुमान समान्यता पश्च वितरण पर आधारित होता है। कई बायेसियन बिंदु अनुमानक केंद्रीय प्रवृत्ति के पश्च वितरण के आँकड़े हैं, उदाहरण के लिए, इसका माध्य माध्यिका या मोड:

  • पश्च माध्य, जो वर्ग-त्रुटि हानि फलन के लिए (पश्च) कठिन परिस्थिति (अपेक्षित हानि) को कम करता है; बायेसियन अनुमान में, कठिन परिस्थिति को पश्च वितरण के संदर्भ में परिभाषित किया गया है, जैसा कि गॉस ने देखा है ।[3]
  • पश्च माध्यिका, जो पूर्ण-मूल्य हानि फलन के लिए पश्च कठिन परिस्थिति को कम करती है, जैसा कि लाप्लास द्वारा देखा गया है।[3][4]
  • अधिकतम एक पोस्टीरियरी (एमएपी), जो अधिकतम पोस्टीरियर वितरण पाता है; एक समान पूर्व संभाव्यता के लिए, एमएपी अनुमानक अधिकतम-संभावना अनुमानक के साथ मेल खाता है;

एमएपी अनुमानक के पास कई कठिन समस्याओं के लिए भी अच्छे स्पर्शोन्मुख गुण हैं, जिन पर अधिकतम संभावना अनुमानक को कठिनाइयाँ होती हैं। नियमित समस्याओं के लिए, जहां अधिकतम-संभावना अनुमानक सुसंगत है, अधिकतम-संभावना अनुमानक अंततः एमएपी अनुमानक से सहमत होता है।[5][6][7] वाल्ड के प्रमेय के अनुसार बायेसियन अनुमानक स्वीकार्य हैं।[6][8]

न्यूनतम संदेश लंबाई (एमएमएल) बिंदु अनुमानक बायेसियन सूचना सिद्धांत पर आधारित है और यह सीधे रूप से पश्च वितरण से संबंधित नहीं है।

बेयस निस्पंदन के विशेष स्थिति महत्वपूर्ण हैं:

कम्प्यूटेशनल सांख्यिकी की कई पुनरावृत्तीय पद्धतियों का बायेसियन विश्लेषण के साथ घनिष्ठ संबंध है:

बिंदु अनुमान ज्ञात करने की विधियाँ

नीचे अज्ञात मापदंडों का अनुमान लगाने के कुछ सामान्य रूप से उपयोग किए जाने वाले विधि दिए गए हैं जिनसे अनुमानकर्ताओं को इनमें से कुछ महत्वपूर्ण गुण प्रदान करने की उम्मीद है। सामान्य रूप से स्थिति और हमारे अध्ययन के उद्देश्य के आधार पर हम बिंदु अनुमान के विधि में से किसी एक विधि को प्रयुक्त करते हैं जो उपयुक्त हो सकता है।

अधिकतम संभावना की विधि (एमएलई)

अधिकतम संभावना की विधि, आर.ए. के कारण फिशर, अनुमान लगाने की सबसे महत्वपूर्ण सामान्य विधि है। यह अनुमानक विधि अज्ञात मापदंडों को प्राप्त करने का प्रयास करती है जो संभावना फलन को अधिकतम करती है। यह एक ज्ञात मॉडल (उदा. सामान्य वितरण) का उपयोग करता है और मॉडल में पैरामीटर के मानों का उपयोग करता है जो डेटा के लिए सबसे उपयुक्त मिलान खोजने के लिए संभावना फलन को अधिकतम करता है।[9]

मान लीजिए संयुक्त पीडीएफ या पी.एम.एफ. के साथ एक यादृच्छिक नमूने को दर्शाता है। f(x, θ) (θ एक सदिश हो सकता है)। फलन f(x, θ), जिसे θ का फलन माना जाता है, संभाव्यता फलन कहलाता है। इस स्थिति में, इसे L(θ) द्वारा दर्शाया जाता है। अधिकतम संभावना के सिद्धांत में θ की स्वीकार्य सीमा के अंदर एक अनुमान चुनना सम्मिलित है, जो संभावना को अधिकतम करता है। इस अनुमानक को θ का अधिकतम संभावना अनुमान (एमएलई) कहा जाता है। θ का MLE प्राप्त करने के लिए, हम समीकरण का उपयोग करते हैं

dlogL(θ)/dθi=0, i = 1, 2, …, k.. यदि θ एक सदिश है, तो संभावना समीकरण प्राप्त करने के लिए आंशिक व्युत्पन्न पर विचार किया जाता है।[2]



क्षणों की विधि (एमओएम)

क्षणों की विधि 1887 में के. पियर्सन और पी. चेबीशेव द्वारा प्रारंभ की गई थी, और यह अनुमान लगाने की सबसे पुरानी विधियों में से एक है। यह विधि बड़ी संख्या के नियम पर आधारित है, जो जनसंख्या के बारे में सभी ज्ञात तथ्यों का उपयोग करती है और उन तथ्यों को समीकरण प्राप्त करके जनसंख्या के नमूने पर प्रयुक्त करती है जो जनसंख्या क्षणों को अज्ञात मापदंडों से जोड़ते हैं। फिर हम जनसंख्या क्षणों के नमूना माध्य से हल कर सकते हैं।[10] चूँकि सरलता के कारण यह विधि सदैव स्पष्ट नहीं होती है और आसानी से पक्षपाती हो सकती है।

मान लीजिए (X1, X2,…Xn) पीडीएफ वाली जनसंख्या से एक यादृच्छिक नमूना है। (या p.m.f) f(x,θ), θ = (θ1, θ2, …, θk). इसका उद्देश्य पैरामीटर θ1, θ2, ..., θk का अनुमान लगाना है। इसके अतिरिक्त , शून्य के बारे में पहले k जनसंख्या क्षणों को θ के स्पष्ट कार्य के रूप में उपस्थित होने दें, अथार्त μr = μr1, θ2,…, θk), r = 1, 2, …, k क्षणों की विधि में, हम k नमूना क्षणों को संबंधित जनसंख्या क्षणों के साथ समान करते हैं। समान्यता:, पहले k क्षण इसलिए लिए जाते हैं क्योंकि नमूने के कारण होने वाली त्रुटियाँ क्षण के क्रम के साथ बढ़ती हैं। इस प्रकार, हमें k समीकरण μr1, θ2,…, θk) = mr, r = 1, 2, …, k.मिलता है। इन समीकरणों को हल करने पर हमें क्षण अनुमानक (या अनुमान) की विधि प्राप्त होती है

mr = 1/n ΣXir.[2]क्षणों की सामान्यीकृत विधि भी देखें।

न्यूनतम वर्ग की विधि

न्यूनतम वर्ग की विधि में, हम अपेक्षा के कुछ निर्दिष्ट रूप और अवलोकनों के दूसरे क्षण का उपयोग करके मापदंडों के अनुमान पर विचार करते हैं। के लिए

फॉर्म y = f( x, β0, β1, ,,,, βp) के एक वक्र को डेटा (xi, yi), i = 1, 2,…n, में फिट करते हुए, हम कम से कम वर्गों की विधि का उपयोग कर सकते हैं। इस विधि में न्यूनतम करना सम्मिलित है

वर्गों का योग।

जब पैरामीटरों का एक रैखिक कार्य है और x-मान ज्ञात हैं, न्यूनतम वर्ग अनुमानक सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला) होगा। दोबारा, यदि हम मानते हैं कि न्यूनतम वर्ग अनुमान स्वतंत्र रूप से और समान रूप से सामान्य रूप से वितरित होते हैं, तो एक रैखिक अनुमानक निष्पक्ष अनुमानकों के पूरे वर्ग के लिए न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई) होगा। न्यूनतम माध्य वर्ग त्रुटि (एमएमएसई) भी देखें।[2]

न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक (एमवीयूई)

न्यूनतम-विचरण निष्पक्ष अनुमानक की विधि वर्ग-त्रुटि हानि-फलन के कठिन परिस्थिति (अपेक्षित हानि) को कम करती है।

माध्यिका निष्पक्ष अनुमानक

माध्यिका-निष्पक्ष अनुमानक पूर्ण-त्रुटि हानि फलन के कठिन परिस्थिति को कम करता है।

सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला)

सर्वश्रेष्ठ रैखिक निष्पक्ष अनुमानक, जिसे गॉस-मार्कोव प्रमेय के रूप में भी जाना जाता है, बताता है कि साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक में रैखिक निष्पक्ष अनुमानकों के वर्ग के अंदर सबसे कम नमूनाकरण भिन्नता होती है, यदि रैखिक प्रतिगमन मॉडल में त्रुटियां असंबद्ध हैं, तो समान भिन्नताएं होती हैं और उम्मीद का मान शून्य है।[11]

बिंदु अनुमान बनाम आत्मविश्वास अंतराल अनुमान

बिंदु अनुमान और आत्मविश्वास अंतराल अनुमान।

इस प्रकार अनुमान के दो प्रमुख प्रकार हैं: बिंदु अनुमान और अंतराल अनुमान बिंदु अनुमान में हम पैरामीटर स्थान में एक अद्वितीय बिंदु चुनने का प्रयास करते हैं जिसे उचित रूप से पैरामीटर का सही मान माना जा सकता है। दूसरी ओर, पैरामीटर के अनूठे अनुमान के अतिरिक्त हम समूह के एक वर्ग के निर्माण में रुचि रखते हैं जिसमें एक निर्दिष्ट संभावना के साथ सही (अज्ञात) पैरामीटर मान होता है। सांख्यिकीय अनुमान की कई समस्याओं में हम केवल पैरामीटर का अनुमान लगाने या पैरामीटर से संबंधित कुछ परिकल्पना का परीक्षण करने में रुचि नहीं रखते हैं, हम वास्तविक-मान वाले पैरामीटर के लिए निचली या ऊपरी सीमा या दोनों भी प्राप्त करना चाहते हैं। ऐसा करने के लिए, हमें एक विश्वास अंतराल बनाने की आवश्यकता है।

कॉन्फिडेंस इंटरवल बताता है कि अनुमान कितना विश्वसनीय है। हम देखे गए डेटा से अंतराल की ऊपरी और निचली आत्मविश्वास सीमा की गणना कर सकते हैं। मान लीजिए एक डेटासमूह दिया गया है, जिसे यादृच्छिक चर की प्राप्ति के रूप में तैयार किया गया है। मान लीजिए θ रुचि का पैरामीटर है, और γ 0 और 1 के बीच एक संख्या है। यदि नमूना आँकड़े मौजूद हैं Ln = g(X1, . . . , Xn) और Un = h(X1, . . . , Xn) जैसे कि P(Ln < θ < Un) = γ के प्रत्येक मान के लिए, फिर (ln, un), जहां ln = g(x1, . . . , xn) और un = h(x1, . . . , xn), है θ के लिए 100γ% विश्वास अंतराल कहा जाता है। संख्या γ को आत्मविश्वास स्तर कहा जाता है।[1] समान्यता:, सामान्य रूप से वितरित नमूना माध्य के साथ, Ẋ, और मानक विचलन के लिए ज्ञात मान के साथ, σ, सच्चे μ के लिए 100(1-α)% विश्वास अंतराल Ẋ ± e लेकर बनता है, e = z1-α/2(σ/n1/2),के साथ जहां z1-α/2 मानक सामान्य वक्र का 100(1-α/2)% संचयी मान है, और n उस कॉलम में डेटा मानों की संख्या है। उदाहरण के लिए, 95% आत्मविश्वास के लिए z1-α/2 1.96 के समान है।[12]

यहां अवलोकनों के समूह से दो सीमाओं की गणना की जाती है, मान लीजिए ln और un और यह कुछ सीमा तक विश्वास के साथ प्रमाणित किया जाता है (संभाव्य शब्दों में मापा जाता है) कि γ का वास्तविक मान (ln और un के बीच है। इस प्रकार हमें एक अंतराल (ln और un ) मिलता है जिसकी हमें उम्मीद है कि इसमें γ(θ) का वास्तविक मान सम्मिलित होगा। इसलिए इस प्रकार के अनुमान को आत्मविश्वास अंतराल अनुमान कहा जाता है।[2] यह अनुमान मानों की एक श्रृंखला प्रदान करता है जो पैरामीटर से अपेक्षित है। यह सामान्यतः बिंदु अनुमानों की तुलना में अधिक जानकारी देता है और अनुमान लगाते समय इसे प्राथमिकता दी जाती है। एक तरह से हम कह सकते हैं कि बिंदु अनुमान अंतराल अनुमान के विपरीत है।

यह भी देखें

संदर्भ

  1. 1.0 1.1 1.2 1.3 1.4 संभाव्यता और सांख्यिकी का एक आधुनिक परिचय (in English). F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester. 2005.
  2. 2.0 2.1 2.2 2.3 2.4 अनुमान और अनुमानात्मक सांख्यिकी (in English). Pradip Kumar Sahu, Santi Ranjan Pal, Ajit Kumar Das. 2015.
  3. 3.0 3.1 Dodge, Yadolah, ed. (1987). Statistical data analysis based on the L1-norm and related methods: Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987. North-Holland Publishing.
  4. Jaynes, E. T. (2007). Probability Theory: The logic of science (5. print. ed.). Cambridge University Press. p. 172. ISBN 978-0-521-59271-0.
  5. Ferguson, Thomas S. (1996). बड़े नमूना सिद्धांत में एक पाठ्यक्रम. Chapman & Hall. ISBN 0-412-04371-8.
  6. 6.0 6.1 Le Cam, Lucien (1986). सांख्यिकीय निर्णय सिद्धांत में स्पर्शोन्मुख विधियाँ. Springer-Verlag. ISBN 0-387-96307-3.
  7. Ferguson, Thomas S. (1982). "एक असंगत अधिकतम संभावना अनुमान". Journal of the American Statistical Association. 77 (380): 831–834. doi:10.1080/01621459.1982.10477894. JSTOR 2287314.
  8. Lehmann, E. L.; Casella, G. (1998). बिंदु अनुमान का सिद्धांत (2nd ed.). Springer. ISBN 0-387-98502-6.
  9. श्रेणीबद्ध डेटा विश्लेषण. John Wiley and Sons, New York: Agresti A. 1990.
  10. सांख्यिकी का संक्षिप्त विश्वकोश. Springer: Dodge, Y. 2008.
  11. सर्वोत्तम रैखिक निष्पक्ष अनुमान और भविष्यवाणी. New York: John Wiley & Sons: Theil Henri. 1971.
  12. Experimental Design – With Applications in Management, Engineering, and the Sciences. Springer: Paul D. Berger, Robert E. Maurer, Giovana B. Celli. 2019.


अग्रिम पठन

  • Bickel, Peter J. & Doksum, Kjell A. (2001). Mathematical Statistics: Basic and Selected Topics. Vol. I (Second (updated printing 2007) ed.). Pearson Prentice-Hall.
  • Liese, Friedrich & Miescke, Klaus-J. (2008). Statistical Decision Theory: Estimation, Testing, and Selection. Springer.