दक्षता (सांख्यिकी): Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Quality measure of a statistical method}} आंकड़ों में, दक्षता एक अनुमानक की गुणवत्ता...")
 
No edit summary
Line 2: Line 2:


आंकड़ों में, दक्षता एक अनुमानक की गुणवत्ता का एक माप है, एक प्रायोगिक डिजाइन का,{{sfn|Everitt|2002|p=128}} या [[परिकल्पना परीक्षण]] प्रक्रिया।<ref>{{SpringerEOM  | title= Efficiency of a statistical procedure| id=E/e035080 | last=Nikulin | first=M.S.}}</ref> अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है।
आंकड़ों में, दक्षता एक अनुमानक की गुणवत्ता का एक माप है, एक प्रायोगिक डिजाइन का,{{sfn|Everitt|2002|p=128}} या [[परिकल्पना परीक्षण]] प्रक्रिया।<ref>{{SpringerEOM  | title= Efficiency of a statistical procedure| id=E/e035080 | last=Nikulin | first=M.S.}}</ref> अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है।
एक कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच एक छोटा [[विचलन (सांख्यिकी)]] है। {{sfn|Everitt|2002|p=128}}
एक कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच एक छोटा [[विचलन (सांख्यिकी)]] है। {{sfn|Everitt|2002|p=128}}


दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, हालांकि अक्सर इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अक्सर एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय।
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय है।


== अनुमानक ==
== अनुमानक ==
एक [[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता, टी के पूर्वाग्रह की दक्षता को परिभाषित किया गया है <ref name=":1">{{cite journal|last1=Fisher|first1=R|title=सैद्धांतिक सांख्यिकी के गणितीय आधार पर|journal=Philosophical Transactions of the Royal Society of London A|date=1921|volume=222|pages=309–368|jstor=91208}}</ref>
एक [[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है <ref name=":1">{{cite journal|last1=Fisher|first1=R|title=सैद्धांतिक सांख्यिकी के गणितीय आधार पर|journal=Philosophical Transactions of the Royal Society of London A|date=1921|volume=222|pages=309–368|jstor=91208}}</ref>
:<math>
:<math>
e(T)
e(T)
Line 13: Line 14:
\frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)}
\frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)}
</math>
</math>
कहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार ई (टी) एक निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह साबित करने के लिए किया जा सकता है कि (टी) ≤ 1।
जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार ई (T) एक निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1।


=== कुशल अनुमानक ===
=== कुशल अनुमानक ===
एक कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" तरीके से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा एक विशेष हानि समारोह की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फ़ंक्शन का सबसे आम विकल्प द्विघात हानि फ़ंक्शन है, जिसके परिणामस्वरूप इष्टतमता का औसत चुकता त्रुटि मानदंड होता है।{{sfn|Everitt|2002|p=[https://archive.org/details/cambridgediction00ever/page/n135 128]}}
एक कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा एक विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत चुकता त्रुटि मानदंड होता है।{{sfn|Everitt|2002|p=[https://archive.org/details/cambridgediction00ever/page/n135 128]}}


सामान्य तौर पर, पैरामीटर θ के आसपास एक अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का एक उपाय है। इस प्रदर्शन की गणना माध्य चुकता त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से, T को पैरामीटर θ के लिए एक अनुमानक होने दें। T का माध्य चुकता त्रुटि मान है <math>\operatorname{MSE}(T)=E[(T-\theta)^2]</math>, जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है:
सामान्यतः, पैरामीटर θ के आसपास एक अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का एक उपाय है। इस प्रदर्शन की गणना माध्य चुकता त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से, T को पैरामीटर θ के लिए एक अनुमानक होने दें। T का माध्य चुकता त्रुटि मान है <math>\operatorname{MSE}(T)=E[(T-\theta)^2]</math>, जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है:


:<math>
:<math>
Line 27: Line 28:
\end{align}
\end{align}
</math>
</math>
अनुमानक टी<sub>1</sub> अनुमानक टी से बेहतर प्रदर्शन करता है<sub>2</sub> अगर <math> \operatorname{MSE}(T_1) < \operatorname{MSE}(T_2)</math>.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics: Understanding Why and How|url=https://archive.org/details/modernintroducti00dekk_722|url-access=limited|last=Dekking|first=F.M.|publisher=Springer|year=2007|isbn=978-1852338961|pages=[https://archive.org/details/modernintroducti00dekk_722/page/n307 303]–305}}</ref> अधिक विशिष्ट मामले के लिए, यदि टी<sub>1</sub> और टी<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस मामले में टी<sub>2</sub> T से अधिक कुशल है<sub>1</sub> यदि T का विचरण<sub>2</sub> T के विचरण से छोटा है<sub>1</sub>, अर्थात। <math>\operatorname{var}(T_1)>\operatorname{var}(T_2)</math> θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य मामले को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, <math>\operatorname E[T]=\theta</math>. इसलिए, एक निष्पक्ष अनुमानक के लिए, <math>\operatorname{MSE}(T)=\operatorname{var}(T)</math>, के रूप में <math>(\operatorname E[T]-\theta)^2</math> टर्म 0 के बराबर होने के लिए बाहर हो जाता है।<ref name=":0" />
अनुमानक T<sub>1</sub> अनुमानक T<sub>2</sub> से अच्छा प्रदर्शन करता है अगर <math> \operatorname{MSE}(T_1) < \operatorname{MSE}(T_2)</math>.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics: Understanding Why and How|url=https://archive.org/details/modernintroducti00dekk_722|url-access=limited|last=Dekking|first=F.M.|publisher=Springer|year=2007|isbn=978-1852338961|pages=[https://archive.org/details/modernintroducti00dekk_722/page/n307 303]–305}}</ref> अधिक विशिष्ट स्थितियों के लिए, यदि T<sub>1</sub> और T<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T<sub>2</sub> T<sub>1</sub> से अधिक कुशल है यदि <sub>2</sub> का विचरण <sub>1</sub> के विचरण से छोटा है, अर्थात। <math>\operatorname{var}(T_1)>\operatorname{var}(T_2)</math> θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, <math>\operatorname E[T]=\theta</math>. इसलिए, एक निष्पक्ष अनुमानक के लिए, <math>\operatorname{MSE}(T)=\operatorname{var}(T)</math>, के रूप में <math>(\operatorname E[T]-\theta)^2</math> टर्म 0 के बराबर होने के लिए बाहर हो जाता है।<ref name=":0" />


यदि एक पैरामीटर θ का एक [[अनुमानक पूर्वाग्रह]] अनुमानक प्राप्त करता है <math>e(T) = 1</math> पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।<ref name=":1" />
यदि एक पैरामीटर θ का एक [[अनुमानक पूर्वाग्रह]] अनुमानक प्राप्त करता है <math>e(T) = 1</math> पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।<ref name=":1" />


समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव बाउंड | क्रैमर-राव लोअर बाउंड एक निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है, जो एक निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है।
समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। '''क्रैमर-राव बाउंड |''' क्रैमर-राव लोअर बाउंड एक निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है, जो एक निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है।


एक कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि एक कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक, भले ही यह मौजूद है, आवश्यक रूप से कुशल नहीं है, क्योंकि न्यूनतम का मतलब क्रैमर-राव असमानता पर समानता नहीं है।
एक कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि एक कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक, भले ही यह उपस्थित है, आवश्यक रूप से कुशल नहीं है, क्योंकि न्यूनतम का मतलब क्रैमर-राव असमानता पर समानता नहीं है।


इस प्रकार एक कुशल अनुमानक के मौजूद होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है।
इस प्रकार एक कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है।


==== परिमित-नमूना दक्षता ====
==== परिमित-नमूना दक्षता ====
Line 42: Line 43:
     \operatorname{var}[\,T\,]\ \geq\ \mathcal{I}_\theta^{-1},
     \operatorname{var}[\,T\,]\ \geq\ \mathcal{I}_\theta^{-1},
   </math>
   </math>
कहाँ <math>\scriptstyle\mathcal{I}_\theta</math> बिंदु θ पर मॉडल का [[फिशर सूचना मैट्रिक्स]] है। आम तौर पर, विचरण अपने मतलब के आसपास एक यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सटीक अनुमान लगाते हैं। हम कहते हैं कि अनुमानक एक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए {{nowrap|''θ'' ∈ Θ}}. कुशल अनुमानक हमेशा [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] होते हैं। हालाँकि इसका विलोम असत्य है: वहाँ बिंदु-अनुमान समस्याएँ मौजूद हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।<ref>{{cite book
कहाँ <math>\scriptstyle\mathcal{I}_\theta</math> बिंदु θ पर मॉडल का [[फिशर सूचना मैट्रिक्स]] है। सामान्यतः, विचरण अपने मतलब के आसपास एक यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक एक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए {{nowrap|''θ'' ∈ Θ}}. कुशल अनुमानक हमेशा [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] होते हैं। चूंकि इसका विलोम असत्य है: वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।<ref>{{cite book
   | last1 = Romano | first1 = Joseph P.
   | last1 = Romano | first1 = Joseph P.
   | last2 = Siegel | first2 = Andrew F.  
   | last2 = Siegel | first2 = Andrew F.  
Line 50: Line 51:
   | page = 194
   | page = 194
   }}</ref>
   }}</ref>
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। हालाँकि इस मानदंड की कुछ सीमाएँ हैं:
 
* परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह साबित हो गया था कि कुशल अनुमान केवल एक [[घातीय परिवार]] में ही संभव है, और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=जांच अनुमान और मॉडुलन सिद्धांत।|date=2013 |others=Kristine L. Bell, Zhi Tian |isbn=1-299-66515-2 |edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref>
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। चूंकि इस मानदंड की कुछ सीमाएँ हैं:
* दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अक्सर ऐसा नहीं होता है।<ref>{{cite book |last1=DeGroot |last2=Schervish |title=प्रायिकता अौर सांख्यिकी|edition=3rd |year=2002 |pages=440–441 }}</ref>) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम एक चयन मानदंड के रूप में माध्य चुकता त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा बेहतर प्रदर्शन करेंगे। उदाहरण के लिए, आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक, [[नमूना माध्य]], [[स्वीकार्य प्रक्रिया]] है: परिणाम के बावजूद, इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी बदतर है।{{Citation needed|date=December 2011}}
* परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल एक [[घातीय परिवार]] में ही संभव है, और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=जांच अनुमान और मॉडुलन सिद्धांत।|date=2013 |others=Kristine L. Bell, Zhi Tian |isbn=1-299-66515-2 |edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref>
* दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अधिकांशतः ऐसा नहीं होता है।<ref>{{cite book |last1=DeGroot |last2=Schervish |title=प्रायिकता अौर सांख्यिकी|edition=3rd |year=2002 |pages=440–441 }}</ref>) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम एक चयन मानदंड के रूप में माध्य चुकता त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए, आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक, [[नमूना माध्य]], [[स्वीकार्य प्रक्रिया]] है: परिणाम के बावजूद, इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है।{{Citation needed|date=December 2011}}
* परिमित-नमूना दक्षता भिन्नता पर आधारित है, एक मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अलावा हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है।{{Citation needed|date=February 2012}}{{dubious|date=February 2012}}
* परिमित-नमूना दक्षता भिन्नता पर आधारित है, एक मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अलावा हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है।{{Citation needed|date=February 2012}}{{dubious|date=February 2012}}


एक उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक मौजूद हैं: [[सामान्य वितरण]] का औसत μ (लेकिन भिन्नता σ नहीं)<sup>2</sup>), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p।
एक उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं: [[सामान्य वितरण]] का औसत μ (लेकिन भिन्नता σ नहीं)<sup>2</sup>), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है।


अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: {{nowrap|1={ ''P<sub>θ</sub>'' = ''N''(''θ'', ''σ''<sup>2</sup>) {{!}} ''θ'' ∈ '''R''' }.}} डेटा में इस मॉडल से n [[स्वतंत्र और समान रूप से वितरित]] अवलोकन शामिल हैं: {{nowrap|1=''X'' = (''x''<sub>1</sub>, …, ''x<sub>n</sub>'')}}. हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं:
अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: {{nowrap|1={ ''P<sub>θ</sub>'' = ''N''(''θ'', ''σ''<sup>2</sup>) {{!}} ''θ'' ∈ '''R''' }.}} डेटा में इस मॉडल से n [[स्वतंत्र और समान रूप से वितरित]] अवलोकन सम्मिलित हैं: {{nowrap|1=''X'' = (''x''<sub>1</sub>, …, ''x<sub>n</sub>'')}}. हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं:
: <math>
: <math>
     T(X) = \frac1n \sum_{i=1}^n x_i\ .
     T(X) = \frac1n \sum_{i=1}^n x_i\ .
Line 64: Line 66:


=== स्पर्शोन्मुख दक्षता ===
=== स्पर्शोन्मुख दक्षता ===
स्पर्शोन्मुख दक्षता के लिए [[संगति (सांख्यिकी)]] की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण, और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी बदतर नहीं है।<ref>{{Cite book |last=Greene |first=William H. |url=https://www.worldcat.org/oclc/726074601 |title=अर्थमितीय विश्लेषण|date=2012 |publisher=Pearson |isbn=978-0-273-75356-8 |edition=7th ed., international |location=Boston |oclc=726074601}}</ref>
स्पर्शोन्मुख दक्षता के लिए [[संगति (सांख्यिकी)]] की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण, और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी बेकार नहीं है।<ref>{{Cite book |last=Greene |first=William H. |url=https://www.worldcat.org/oclc/726074601 |title=अर्थमितीय विश्लेषण|date=2012 |publisher=Pearson |isbn=978-0-273-75356-8 |edition=7th ed., international |location=Boston |oclc=726074601}}</ref>




Line 83: Line 85:
</math>
</math>
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref>
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref>
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का एक नमूना आकार लगभग 74% की दक्षता देता है)।{{citation needed|date=April 2013}}
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का एक नमूना आकार लगभग 74% की दक्षता देता है)।{{citation needed|date=April 2013}}


इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। हालाँकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका बेहतर प्रदर्शन करती है। उदाहरण के लिए, माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के फायदे हो सकते हैं (मजबूत आंकड़े देखें)।
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के फायदे हो सकते हैं (मजबूत आंकड़े देखें)।


=== प्रमुख अनुमानक ===
=== प्रमुख अनुमानक ===
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> [[हावी निर्णय नियम]] कहा जाता है <math>T_2</math> अगर:
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> [[हावी निर्णय नियम]] कहा जाता है <math>T_2</math> अगर:
# इसकी माध्य चुकता त्रुटि (MSE) के कम से कम कुछ मान के लिए छोटी है <math>\theta</math>
# इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है <math>\theta</math>
# MSE इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए।
# एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए।


औपचारिक रूप से, <math>T_1</math> हावी <math>T_2</math> अगर
औपचारिक रूप से, <math>T_1</math> हावी <math>T_2</math> अगर
Line 110: Line 113:
= \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)}
= \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)}
</math>
</math>
यद्यपि <math>e</math> का एक कार्य है <math>\theta</math>, कई मामलों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, <math>e</math> एक से बड़ा होने का मतलब यह होगा <math>T_1</math> के सही मूल्य की परवाह किए बिना बेहतर है <math>\theta</math>.
यद्यपि <math>e</math> का एक कार्य है <math>\theta</math>, कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, <math>e</math> एक से बड़ा होने का मतलब यह होगा <math>T_1</math> के सही मूल्य की परवाह किए बिना <math>\theta</math> अच्छा है


आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का एक विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के करीब अनुमान उत्पन्न करता है।
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का एक विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के करीब अनुमान उत्पन्न करता है।


अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> हावी निर्णय नियम कहा जाता है <math>T_2</math> अगर:
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> हावी निर्णय नियम कहा जाता है <math>T_2</math> अगर:
# इसकी माध्य चुकता त्रुटि (MSE) के कम से कम कुछ मान के लिए छोटी है <math>\theta</math>
# इसकी माध्य चुकता त्रुटि (एमएसई) के <math>\theta</math> कम से कम कुछ मान के लिए छोटी है  
# MSE इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए।
# एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए।


औपचारिक रूप से, <math>T_1</math> हावी <math>T_2</math> अगर
औपचारिक रूप से, <math>T_1</math> हावी <math>T_2</math> अगर
Line 133: Line 136:


==== यूआईडी के माध्य के आकलनकर्ता चर ====
==== यूआईडी के माध्य के आकलनकर्ता चर ====
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस मामले में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है, अर्थात,<ref>{{cite book |last=Grubbs |first=Frank |title=राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय|date=1965 |pages=26–27}}</ref>
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है, अर्थात,<ref>{{cite book |last=Grubbs |first=Frank |title=राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय|date=1965 |pages=26–27}}</ref>
: <math> e \equiv \left(\frac{\sigma }{\mu} \right)^2</math>
: <math> e \equiv \left(\frac{\sigma }{\mu} \right)^2</math>
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। सबूत:
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण:


:<math> \frac{e_1}{e_2} = \frac{s_1^2}{s_2^2}.</math>
:<math> \frac{e_1}{e_2} = \frac{s_1^2}{s_2^2}.</math>
Line 141: Line 144:


=== मजबूती ===
=== मजबूती ===
यदि वितरण बदलता है, अक्सर गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - एक अनुमानक जैसे नमूना माध्य एक सामान्य वितरण के जनसंख्या माध्य का एक कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के [[मिश्रण वितरण]] का एक अक्षम अनुमानक हो सकता है। माध्य और भिन्न भिन्न। उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अक्सर दूषित आउटलेयर) नमूना माध्य की दक्षता को काफी कम कर देता है μ के अनुमानक के रूप में। इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है, और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, [[संभाव्यता वितरण का आकार]], जैसे [[तिरछापन]] या भारी-पुच्छ वितरण, उन अनुमानकों की दक्षता को काफी कम कर सकता है जो एक सममित वितरण या पतली पूंछ मानते हैं।
यदि वितरण बदलता है, अधिकांशतः गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - एक अनुमानक जैसे नमूना माध्य एक सामान्य वितरण के जनसंख्या माध्य का एक कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के [[मिश्रण वितरण]] का एक अक्षम अनुमानक हो सकता है। माध्य और भिन्न भिन्न। उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को काफी कम कर देता है μ के अनुमानक के रूप में। इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है, और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, [[संभाव्यता वितरण का आकार]], जैसे [[तिरछापन]] या भारी-पुच्छ वितरण, उन अनुमानकों की दक्षता को काफी कम कर सकता है जो एक सममित वितरण या पतली पूंछ मानते हैं।


=== अक्षम अनुमानकों का उपयोग ===
=== अक्षम अनुमानकों का उपयोग ===
{{further|L-estimator#Applications}}
{{further|L-estimator#Applications}}


जबकि दक्षता एक [[अनुमानक]] का वांछनीय गुण है, इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए, और एक अनुमानक जो कुछ वितरणों के लिए कुशल है, अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से, अनुमानक जो एक साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं, और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के बजाय वितरण की एक विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। एम-अनुमानक इन चिंताओं से प्रेरित समाधानों का एक सामान्य वर्ग है, जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, हालांकि कुछ मामलों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। हालाँकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं।
जबकि दक्षता एक [[अनुमानक]] का वांछनीय गुण है, इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए, और एक अनुमानक जो कुछ वितरणों के लिए कुशल है, अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से, अनुमानक जो एक साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं, और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के बजाय वितरण की एक विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। एम-अनुमानक इन चिंताओं से प्रेरित समाधानों का एक सामान्य वर्ग है, जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं।


एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई मामलों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अक्सर पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए एल-अनुमानक#अनुप्रयोग|एल-अनुमानक के अनुप्रयोग देखें।
एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई स्थितियों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए एल-अनुमानक#अनुप्रयोग|एल-अनुमानक के अनुप्रयोग देखें।


=== आँकड़ों में दक्षता ===
=== आँकड़ों में दक्षता ===
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। हालांकि एक निष्पक्ष अनुमानक आमतौर पर एक पक्षपाती के पक्ष में होता है, एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए, यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के करीब एक संख्या के आसपास इकट्ठा होते हैं। इस प्रकार, अनुमानक के प्रदर्शन का अनुमान उनकी माध्य चुकता त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है।
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि एक निष्पक्ष अनुमानक आमतौर पर एक पक्षपाती के पक्ष में होता है, एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए, यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के करीब एक संख्या के आसपास इकट्ठा होते हैं। इस प्रकार, अनुमानक के प्रदर्शन का अनुमान उनकी माध्य चुकता त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है।


== परिकल्पना परीक्षण ==
== परिकल्पना परीक्षण ==
Line 161: Line 164:
{{further|Optimal design}}
{{further|Optimal design}}


प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए एक डिजाइन की क्षमता से संबंधित है। सरल मामलों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।<ref>{{cite book |last=Dodge |first=Y. |year=2006 |title=द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स|publisher=Oxford University Press |isbn=0-19-920613-9 |url-access=registration |url=https://archive.org/details/oxforddictionary0000unse }}</ref>
प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए एक डिजाइन की क्षमता से संबंधित है। सरल स्थितियों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।<ref>{{cite book |last=Dodge |first=Y. |year=2006 |title=द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स|publisher=Oxford University Press |isbn=0-19-920613-9 |url-access=registration |url=https://archive.org/details/oxforddictionary0000unse }}</ref>





Revision as of 22:07, 28 March 2023

आंकड़ों में, दक्षता एक अनुमानक की गुणवत्ता का एक माप है, एक प्रायोगिक डिजाइन का,[1] या परिकल्पना परीक्षण प्रक्रिया।[2] अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है।

एक कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच एक छोटा विचलन (सांख्यिकी) है। [1]

दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय है।

अनुमानक

एक सांख्यिकीय पैरामीटर θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है [3]

जहाँ नमूने की फिशर जानकारी है। इस प्रकार ई (T) एक निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1।

कुशल अनुमानक

एक कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा एक विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत चुकता त्रुटि मानदंड होता है।[4]

सामान्यतः, पैरामीटर θ के आसपास एक अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का एक उपाय है। इस प्रदर्शन की गणना माध्य चुकता त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से, T को पैरामीटर θ के लिए एक अनुमानक होने दें। T का माध्य चुकता त्रुटि मान है , जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है:

अनुमानक T1 अनुमानक T2 से अच्छा प्रदर्शन करता है अगर .[5] अधिक विशिष्ट स्थितियों के लिए, यदि T1 और T2 एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T2 T1 से अधिक कुशल है यदि 2 का विचरण 1 के विचरण से छोटा है, अर्थात। θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, . इसलिए, एक निष्पक्ष अनुमानक के लिए, , के रूप में टर्म 0 के बराबर होने के लिए बाहर हो जाता है।[5]

यदि एक पैरामीटर θ का एक अनुमानक पूर्वाग्रह अनुमानक प्राप्त करता है पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।[3]

समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव बाउंड | क्रैमर-राव लोअर बाउंड एक निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है, जो एक निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है।

एक कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि एक कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक, भले ही यह उपस्थित है, आवश्यक रूप से कुशल नहीं है, क्योंकि न्यूनतम का मतलब क्रैमर-राव असमानता पर समानता नहीं है।

इस प्रकार एक कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है।

परिमित-नमूना दक्षता

कल्पना करना { Pθ | θ ∈ Θ } एक पैरामीट्रिक मॉडल है और X = (X1, …, Xn) इस मॉडल से लिए गए डेटा हैं। होने देना T = T(X) पैरामीटर θ के लिए एक अनुमानक बनें। यदि यह अनुमानक एक अनुमानक का पूर्वाग्रह है (अर्थात, E[ T ] = θ), तो क्रैमर-राव असमानता बताती है कि इस अनुमानक का प्रसरण नीचे से घिरा हुआ है:

कहाँ बिंदु θ पर मॉडल का फिशर सूचना मैट्रिक्स है। सामान्यतः, विचरण अपने मतलब के आसपास एक यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक एक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए θ ∈ Θ. कुशल अनुमानक हमेशा न्यूनतम-विचरण निष्पक्ष अनुमानक होते हैं। चूंकि इसका विलोम असत्य है: वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।[6]

ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। चूंकि इस मानदंड की कुछ सीमाएँ हैं:

  • परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल एक घातीय परिवार में ही संभव है, और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।[7]
  • दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अधिकांशतः ऐसा नहीं होता है।[8]) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम एक चयन मानदंड के रूप में माध्य चुकता त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए, आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक, नमूना माध्य, स्वीकार्य प्रक्रिया है: परिणाम के बावजूद, इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है।[citation needed]
  • परिमित-नमूना दक्षता भिन्नता पर आधारित है, एक मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अलावा हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है।[citation needed][dubious ]

एक उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं: सामान्य वितरण का औसत μ (लेकिन भिन्नता σ नहीं)2), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है।

अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: { Pθ = N(θ, σ2) | θR }. डेटा में इस मॉडल से n स्वतंत्र और समान रूप से वितरित अवलोकन सम्मिलित हैं: X = (x1, …, xn). हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं:

इस अनुमानक का मतलब θ और का विचरण है σ2 / n, जो नमूने से फिशर की जानकारी के व्युत्क्रम के बराबर है। इस प्रकार, नमूना माध्य सामान्य वितरण के माध्य के लिए परिमित-नमूना कुशल अनुमानक है।

स्पर्शोन्मुख दक्षता

स्पर्शोन्मुख दक्षता के लिए संगति (सांख्यिकी) की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण, और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी बेकार नहीं है।[9]


उदाहरण: माध्यिका

आकार के एक नमूने पर विचार करें माध्य के सामान्य वितरण से निकाला गया और इकाई विचरण, यानी, नमूना मतलब, , नमूने का , के रूप में परिभाषित

माध्य का प्रसरण, 1/N (मानक त्रुटि का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है।

अब नमूना माध्यिका पर विचार करें, . यह एक अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है . बड़े के लिए नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है और विचरण [10]

बड़े के लिए माध्यिका की दक्षता इस प्रकार है

दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा , या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।[11]

ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता अनंत की ओर जाता है। के परिमित मूल्यों के लिए दक्षता इससे अधिक है (उदाहरण के लिए, 3 का एक नमूना आकार लगभग 74% की दक्षता देता है)।[citation needed]

इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका ग़ैर के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के फायदे हो सकते हैं (मजबूत आंकड़े देखें)।

प्रमुख अनुमानक

अगर और पैरामीटर के लिए अनुमानक हैं , तब हावी निर्णय नियम कहा जाता है अगर:

  1. इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है
  2. एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।

औपचारिक रूप से, हावी अगर

सभी के लिए रखता है , कहीं सख्त असमानता के साथ।

सापेक्ष दक्षता

दो निष्पक्ष अनुमानकों की सापेक्ष दक्षता को इस रूप में परिभाषित किया गया है[12]

यद्यपि का एक कार्य है , कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, एक से बड़ा होने का मतलब यह होगा के सही मूल्य की परवाह किए बिना अच्छा है

आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का एक विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के करीब अनुमान उत्पन्न करता है।

अगर और पैरामीटर के लिए अनुमानक हैं , तब हावी निर्णय नियम कहा जाता है अगर:

  1. इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है
  2. एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।

औपचारिक रूप से, हावी अगर

सभी के लिए रखता है , कहीं सख्त असमानता के साथ।

यूआईडी के माध्य के आकलनकर्ता चर

असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है, अर्थात,[13]

इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण:

अब क्योंकि अपने पास , इसलिए सापेक्ष दक्षता दूसरे के विचरण से मेल खाने के लिए आवश्यक पहले अनुमानक के सापेक्ष नमूना आकार को व्यक्त करती है।

मजबूती

यदि वितरण बदलता है, अधिकांशतः गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - एक अनुमानक जैसे नमूना माध्य एक सामान्य वितरण के जनसंख्या माध्य का एक कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के मिश्रण वितरण का एक अक्षम अनुमानक हो सकता है। माध्य और भिन्न भिन्न। उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को काफी कम कर देता है μ के अनुमानक के रूप में। इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है, और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, संभाव्यता वितरण का आकार, जैसे तिरछापन या भारी-पुच्छ वितरण, उन अनुमानकों की दक्षता को काफी कम कर सकता है जो एक सममित वितरण या पतली पूंछ मानते हैं।

अक्षम अनुमानकों का उपयोग

जबकि दक्षता एक अनुमानक का वांछनीय गुण है, इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए, और एक अनुमानक जो कुछ वितरणों के लिए कुशल है, अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से, अनुमानक जो एक साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं, और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के बजाय वितरण की एक विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। एम-अनुमानक इन चिंताओं से प्रेरित समाधानों का एक सामान्य वर्ग है, जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं।

एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई स्थितियों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए एल-अनुमानक#अनुप्रयोग|एल-अनुमानक के अनुप्रयोग देखें।

आँकड़ों में दक्षता

आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि एक निष्पक्ष अनुमानक आमतौर पर एक पक्षपाती के पक्ष में होता है, एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए, यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के करीब एक संख्या के आसपास इकट्ठा होते हैं। इस प्रकार, अनुमानक के प्रदर्शन का अनुमान उनकी माध्य चुकता त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है।

परिकल्पना परीक्षण

महत्व परीक्षणों की तुलना करने के लिए, किसी दिए गए कार्य सांख्यिकीय शक्ति को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का एक सार्थक उपाय परिभाषित किया जा सकता है।[14]

पिटमैन दक्षता[15] और बहादुर दक्षता (या हॉजेस-लेहमन दक्षता)[16][17][18] सांख्यिकीय परिकल्पना परीक्षण प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का संक्षिप्त विवरण प्रदान करता है।

प्रायोगिक डिजाइन

प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए एक डिजाइन की क्षमता से संबंधित है। सरल स्थितियों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।[19]


यह भी देखें

टिप्पणियाँ

  1. 1.0 1.1 Everitt 2002, p. 128.
  2. Nikulin, M.S. (2001) [1994], "Efficiency of a statistical procedure", Encyclopedia of Mathematics, EMS Press
  3. 3.0 3.1 Fisher, R (1921). "सैद्धांतिक सांख्यिकी के गणितीय आधार पर". Philosophical Transactions of the Royal Society of London A. 222: 309–368. JSTOR 91208.
  4. Everitt 2002, p. 128.
  5. 5.0 5.1 Dekking, F.M. (2007). A Modern Introduction to Probability and Statistics: Understanding Why and How. Springer. pp. 303–305. ISBN 978-1852338961.
  6. Romano, Joseph P.; Siegel, Andrew F. (1986). Counterexamples in Probability and Statistics. Chapman and Hall. p. 194.
  7. Van Trees, Harry L. (2013). जांच अनुमान और मॉडुलन सिद्धांत।. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 1-299-66515-2. OCLC 851161356.{{cite book}}: CS1 maint: location missing publisher (link)
  8. DeGroot; Schervish (2002). प्रायिकता अौर सांख्यिकी (3rd ed.). pp. 440–441.
  9. Greene, William H. (2012). अर्थमितीय विश्लेषण (7th ed., international ed.). Boston: Pearson. ISBN 978-0-273-75356-8. OCLC 726074601.
  10. Williams, D. (2001). बाधाओं का वजन. Cambridge University Press. p. 165. ISBN 052100618X.
  11. Maindonald, John; Braun, W. John (2010-05-06). Data Analysis and Graphics Using R: An Example-Based Approach (in English). Cambridge University Press. p. 104. ISBN 978-1-139-48667-5.
  12. Wackerly, Dennis D.; Mendenhall, William; Scheaffer, Richard L. (2008). अनुप्रयोगों के साथ गणितीय आँकड़े (Seventh ed.). Belmont, CA: Thomson Brooks/Cole. p. 445. ISBN 9780495110811. OCLC 183886598.
  13. Grubbs, Frank (1965). राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय. pp. 26–27.
  14. Everitt 2002, p. 321.
  15. Nikitin, Ya.Yu. (2001) [1994], "Efficiency, asymptotic", Encyclopedia of Mathematics, EMS Press
  16. "Bahadur efficiency - Encyclopedia of Mathematics".
  17. Arcones M. A. "Bahadur efficiency of the likelihood ratio test" preprint
  18. Canay I. A. & Otsu, T. "Hodges–Lehmann Optimality for Testing Moment Condition Models"
  19. Dodge, Y. (2006). द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स. Oxford University Press. ISBN 0-19-920613-9.


संदर्भ


अग्रिम पठन