बिंदु अनुमान

From Vigyanwiki


आंकड़ों में, बिंदु अनुमान में एकल मान की गणना करने के लिए नमूना डेटा का उपयोग सम्मिलित होता है (इसे बिंदु अनुमान के रूप में जाना जाता है क्योंकि यह कुछ पैरामीटर स्थान में एक बिंदु की पहचान करता है) जो किसी अज्ञात के "सर्वोत्तम अनुमान" या "सर्वोत्तम अनुमान" के रूप में कार्य करता है। जनसंख्या पैरामीटर (उदाहरण के लिए, जनसंख्या माध्य)। अधिक औपचारिक रूप से, यह एक बिंदु अनुमान प्राप्त करने के लिए डेटा पर एक बिंदु अनुमानक का अनुप्रयोग है।

बिंदु अनुमान की तुलना अंतराल अनुमान से की जा सकती है: ऐसे अंतराल अनुमान समान्यता: या तो विश्वास अंतराल होते हैं, बारंबार अनुमान के स्थिति में, या विश्वसनीय अंतराल, बायेसियन अनुमान के स्थिति में अधिक सामान्यतः एक बिंदु अनुमानक की तुलना एक निर्धारित अनुमानक से की जा सकती है। उदाहरण आत्मविश्वास समूह या विश्वसनीय समूह द्वारा दिए गए हैं। एक बिंदु अनुमानक की तुलना एक वितरण अनुमानक से भी की जा सकती है। उदाहरण आत्मविश्वास वितरण यादृच्छिक अनुमानक और बायेसियन पोस्टीरियर द्वारा दिए गए हैं।

बिंदु अनुमान के गुण

पक्षपात

इस प्रकार से "आकलनकर्ता के पूर्वाग्रह" को अनुमानक के अपेक्षित मान और अनुमानित जनसंख्या पैरामीटर के वास्तविक मान के बीच अंतर के रूप में परिभाषित किया गया है। इसे यह भी वर्णित किया जा सकता है कि किसी पैरामीटर का अपेक्षित मान मापा पैरामीटर के जितना समीप होगा परन्तु पूर्वाग्रह उतना ही कम होगा। जब अनुमानित संख्या और वास्तविक मान समान होता है, तो अनुमानक को निष्पक्ष माना जाता है। इसे निष्पक्ष अनुमानक कहा जाता है। यदि अनुमानक में न्यूनतम भिन्नता है तो वह सबसे अच्छा निष्पक्ष अनुमानक बन जाएगा। चूँकि छोटे विचरण वाला पक्षपाती अनुमानक बड़े विचरण वाले निष्पक्ष अनुमानक की तुलना में अधिक उपयोगी हो सकता है।[1] सबसे महत्वपूर्ण बात यह है कि हम ऐसे बिंदु अनुमानकों को प्राथमिकता देते हैं जिनमें सबसे छोटी माध्य वर्ग त्रुटि या माध्य वर्ग त्रुटियाँ हों।

यदि हम T = h(X1,X2,... , Xn) को एक यादृच्छिक नमूने X1,X2, . . . , Xn, के आधार पर एक अनुमानक मानते हैं। अनुमानक T को पैरामीटर θ के लिए एक निष्पक्ष अनुमानक कहा जाता है यदि E[T] = θ, θ के मान पर ध्यान दिए बिना।[1] उदाहरण के लिए, उसी यादृच्छिक नमूने से हमारे पास E( x̄ ) = µ(माध्य) और E(s2) = σ2 (विचरण) है, तो x̄ और s2 µ और σ2 के लिए निष्पक्ष अनुमानक होंगे। अंतर E[T ] - θ को T का पूर्वाग्रह कहा जाता है; यदि यह अंतर शून्येतर है, तो T को पक्षपाती कहा जाता है।

संगति

संगति इस बारे में है कि जब पैरामीटर अपना आकार बढ़ाता है तो बिंदु अनुमान मान के समीप रहता है या नहीं जो की नमूना आकार जितना बड़ा होगा, अनुमान उतना ही स्पष्ट होगा। यदि एक बिंदु अनुमानक सुसंगत है, तो इसका अपेक्षित मान और विचरण पैरामीटर के वास्तविक मान के समीप होना चाहिए। एक निष्पक्ष अनुमानक सुसंगत होता है यदि अनुमानक t के विचरण की सीमा शून्य के समान होती है।

दक्षता

माना और एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हों। अनुमानक T2 अनुमानक T1 की तुलना में अधिक कुशल कहा जाएगा यदि Var(T2) < Var(T1), θ के मान पर ध्यान दिए बिना।[1] हम यह भी कह सकते हैं कि सबसे कुशल अनुमानक वे हैं जिनके परिणामों में सबसे कम परिवर्तनशीलता है। इसलिए, यदि अनुमानक के पास नमूने से नमूने के बीच सबसे छोटा अंतर है, तो यह सबसे कुशल और निष्पक्ष दोनों है। हम अनुमानक T2 कहकर दक्षता की धारणा का विस्तार करते हैं अनुमानक T1 से अधिक कुशल है (रुचि के समान पैरामीटर के लिए), यदि T2 का एमएसई (मीन चुकता त्रुटि) T1 के एमएसई से छोटा है.[1]

समान्यता: हमें अनुमानकर्ताओं की दक्षता निर्धारित करते समय जनसंख्या के वितरण पर विचार करना चाहिए। उदाहरण के लिए एक सामान्य वितरण में, माध्य को माध्यिका की तुलना में अधिक कुशल माना जाता है, किंतु यह बात असममित, या विषम वितरण, वितरण में प्रयुक्त नहीं होती है।

पर्याप्तता

सांख्यिकी में, एक सांख्यिकीविद् का काम उन आंकड़ों की व्याख्या करना है जो उन्होंने एकत्र किए हैं और जांच के अनुसार जनसंख्या के बारे में सांख्यिकीय रूप से वैध निष्कर्ष निकालना है। किंतु कई स्थिति में कच्चा डेटा, जो बहुत अधिक है और संचयन के लिए बहुत मूल्यवान `है, इस उद्देश्य के लिए उपयुक्त नहीं है। इसलिए, सांख्यिकीविद् कुछ आँकड़ों की गणना करके डेटा को संक्षिप्त करना चाहेगा और अपने विश्लेषण को इन आँकड़ों पर आधारित करना चाहेगा जिससे ऐसा करने पर प्रासंगिक जानकारी का कोई हानि न हो, अर्थात सांख्यिकीविद् उन आँकड़ों को चुनना चाहेगा जिनके बारे में सारी जानकारी समाप्त हो जाती है पैरामीटर, जो नमूने में निहित है. हम पर्याप्त आँकड़ों को इस प्रकार परिभाषित करते हैं: मान लीजिए X =( X1, X2, ... ,Xn) एक यादृच्छिक नमूना है। एक आँकड़ा को θ (या वितरण के वर्ग के लिए) के लिए पर्याप्त माना जाता है यदि दिए गए T का सशर्त वितरण θ से मुक्त है।[2]

बिंदु अनुमान के प्रकार

बायेसियन बिंदु अनुमान

बायेसियन अनुमान समान्यता पश्च वितरण पर आधारित होता है। कई बायेसियन बिंदु अनुमानक केंद्रीय प्रवृत्ति के पश्च वितरण के आँकड़े हैं, उदाहरण के लिए, इसका माध्य माध्यिका या मोड:

  • पश्च माध्य, जो वर्ग-त्रुटि हानि फलन के लिए (पश्च) कठिन परिस्थिति (अपेक्षित हानि) को कम करता है; बायेसियन अनुमान में, कठिन परिस्थिति को पश्च वितरण के संदर्भ में परिभाषित किया गया है, जैसा कि गॉस ने देखा है ।[3]
  • पश्च माध्यिका, जो पूर्ण-मूल्य हानि फलन के लिए पश्च कठिन परिस्थिति को कम करती है, जैसा कि लाप्लास द्वारा देखा गया है।[3][4]
  • अधिकतम एक पोस्टीरियरी (एमएपी), जो अधिकतम पोस्टीरियर वितरण पाता है; एक समान पूर्व संभाव्यता के लिए, एमएपी अनुमानक अधिकतम-संभावना अनुमानक के साथ मेल खाता है;

एमएपी अनुमानक के पास कई कठिन समस्याओं के लिए भी अच्छे स्पर्शोन्मुख गुण हैं, जिन पर अधिकतम संभावना अनुमानक को कठिनाइयाँ होती हैं। नियमित समस्याओं के लिए, जहां अधिकतम-संभावना अनुमानक सुसंगत है, अधिकतम-संभावना अनुमानक अंततः एमएपी अनुमानक से सहमत होता है।[5][6][7] वाल्ड के प्रमेय के अनुसार बायेसियन अनुमानक स्वीकार्य हैं।[6][8]

न्यूनतम संदेश लंबाई (एमएमएल) बिंदु अनुमानक बायेसियन सूचना सिद्धांत पर आधारित है और यह सीधे रूप से पश्च वितरण से संबंधित नहीं है।

बेयस निस्पंदन के विशेष स्थिति महत्वपूर्ण हैं:

कम्प्यूटेशनल सांख्यिकी की कई पुनरावृत्तीय पद्धतियों का बायेसियन विश्लेषण के साथ घनिष्ठ संबंध है:

बिंदु अनुमान ज्ञात करने की विधियाँ

नीचे अज्ञात मापदंडों का अनुमान लगाने के कुछ सामान्य रूप से उपयोग किए जाने वाले विधि दिए गए हैं जिनसे अनुमानकर्ताओं को इनमें से कुछ महत्वपूर्ण गुण प्रदान करने की उम्मीद है। सामान्य रूप से स्थिति और हमारे अध्ययन के उद्देश्य के आधार पर हम बिंदु अनुमान के विधि में से किसी एक विधि को प्रयुक्त करते हैं जो उपयुक्त हो सकता है।

अधिकतम संभावना की विधि (एमएलई)

अधिकतम संभावना की विधि, आर.ए. के कारण फिशर, अनुमान लगाने की सबसे महत्वपूर्ण सामान्य विधि है। यह अनुमानक विधि अज्ञात मापदंडों को प्राप्त करने का प्रयास करती है जो संभावना फलन को अधिकतम करती है। यह एक ज्ञात मॉडल (उदा. सामान्य वितरण) का उपयोग करता है और मॉडल में पैरामीटर के मानों का उपयोग करता है जो डेटा के लिए सबसे उपयुक्त मिलान खोजने के लिए संभावना फलन को अधिकतम करता है।[9]

मान लीजिए संयुक्त पीडीएफ या पी.एम.एफ. के साथ एक यादृच्छिक नमूने को दर्शाता है। f(x, θ) (θ एक सदिश हो सकता है)। फलन f(x, θ), जिसे θ का फलन माना जाता है, संभाव्यता फलन कहलाता है। इस स्थिति में, इसे L(θ) द्वारा दर्शाया जाता है। अधिकतम संभावना के सिद्धांत में θ की स्वीकार्य सीमा के अंदर एक अनुमान चुनना सम्मिलित है, जो संभावना को अधिकतम करता है। इस अनुमानक को θ का अधिकतम संभावना अनुमान (एमएलई) कहा जाता है। θ का MLE प्राप्त करने के लिए, हम समीकरण का उपयोग करते हैं

dlogL(θ)/dθi=0, i = 1, 2, …, k.. यदि θ एक सदिश है, तो संभावना समीकरण प्राप्त करने के लिए आंशिक व्युत्पन्न पर विचार किया जाता है।[2]



क्षणों की विधि (एमओएम)

क्षणों की विधि 1887 में के. पियर्सन और पी. चेबीशेव द्वारा प्रारंभ की गई थी, और यह अनुमान लगाने की सबसे पुरानी विधियों में से एक है। यह विधि बड़ी संख्या के नियम पर आधारित है, जो जनसंख्या के बारे में सभी ज्ञात तथ्यों का उपयोग करती है और उन तथ्यों को समीकरण प्राप्त करके जनसंख्या के नमूने पर प्रयुक्त करती है जो जनसंख्या क्षणों को अज्ञात मापदंडों से जोड़ते हैं। फिर हम जनसंख्या क्षणों के नमूना माध्य से हल कर सकते हैं।[10] चूँकि सरलता के कारण यह विधि सदैव स्पष्ट नहीं होती है और आसानी से पक्षपाती हो सकती है।

मान लीजिए (X1, X2,…Xn) पीडीएफ वाली जनसंख्या से एक यादृच्छिक नमूना है। (या p.m.f) f(x,θ), θ = (θ1, θ2, …, θk). इसका उद्देश्य पैरामीटर θ1, θ2, ..., θk का अनुमान लगाना है। इसके अतिरिक्त , शून्य के बारे में पहले k जनसंख्या क्षणों को θ के स्पष्ट कार्य के रूप में उपस्थित होने दें, अथार्त μr = μr1, θ2,…, θk), r = 1, 2, …, k क्षणों की विधि में, हम k नमूना क्षणों को संबंधित जनसंख्या क्षणों के साथ समान करते हैं। समान्यता:, पहले k क्षण इसलिए लिए जाते हैं क्योंकि नमूने के कारण होने वाली त्रुटियाँ क्षण के क्रम के साथ बढ़ती हैं। इस प्रकार, हमें k समीकरण μr1, θ2,…, θk) = mr, r = 1, 2, …, k.मिलता है। इन समीकरणों को हल करने पर हमें क्षण अनुमानक (या अनुमान) की विधि प्राप्त होती है

mr = 1/n ΣXir.[2]क्षणों की सामान्यीकृत विधि भी देखें।

न्यूनतम वर्ग की विधि

न्यूनतम वर्ग की विधि में, हम अपेक्षा के कुछ निर्दिष्ट रूप और अवलोकनों के दूसरे क्षण का उपयोग करके मापदंडों के अनुमान पर विचार करते हैं। के लिए

फॉर्म y = f( x, β0, β1, ,,,, βp) के एक वक्र को डेटा (xi, yi), i = 1, 2,…n, में फिट करते हुए, हम कम से कम वर्गों की विधि का उपयोग कर सकते हैं। इस विधि में न्यूनतम करना सम्मिलित है

वर्गों का योग।

जब पैरामीटरों का एक रैखिक कार्य है और x-मान ज्ञात हैं, न्यूनतम वर्ग अनुमानक सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला) होगा। दोबारा, यदि हम मानते हैं कि न्यूनतम वर्ग अनुमान स्वतंत्र रूप से और समान रूप से सामान्य रूप से वितरित होते हैं, तो एक रैखिक अनुमानक निष्पक्ष अनुमानकों के पूरे वर्ग के लिए न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई) होगा। न्यूनतम माध्य वर्ग त्रुटि (एमएमएसई) भी देखें।[2]

न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक (एमवीयूई)

न्यूनतम-विचरण निष्पक्ष अनुमानक की विधि वर्ग-त्रुटि हानि-फलन के कठिन परिस्थिति (अपेक्षित हानि) को कम करती है।

माध्यिका निष्पक्ष अनुमानक

माध्यिका-निष्पक्ष अनुमानक पूर्ण-त्रुटि हानि फलन के कठिन परिस्थिति को कम करता है।

सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला)

सर्वश्रेष्ठ रैखिक निष्पक्ष अनुमानक, जिसे गॉस-मार्कोव प्रमेय के रूप में भी जाना जाता है, बताता है कि साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक में रैखिक निष्पक्ष अनुमानकों के वर्ग के अंदर सबसे कम नमूनाकरण भिन्नता होती है, यदि रैखिक प्रतिगमन मॉडल में त्रुटियां असंबद्ध हैं, तो समान भिन्नताएं होती हैं और उम्मीद का मान शून्य है।[11]

बिंदु अनुमान बनाम आत्मविश्वास अंतराल अनुमान

बिंदु अनुमान और आत्मविश्वास अंतराल अनुमान।

इस प्रकार अनुमान के दो प्रमुख प्रकार हैं: बिंदु अनुमान और अंतराल अनुमान बिंदु अनुमान में हम पैरामीटर स्थान में एक अद्वितीय बिंदु चुनने का प्रयास करते हैं जिसे उचित रूप से पैरामीटर का सही मान माना जा सकता है। दूसरी ओर, पैरामीटर के अनूठे अनुमान के अतिरिक्त हम समूह के एक वर्ग के निर्माण में रुचि रखते हैं जिसमें एक निर्दिष्ट संभावना के साथ सही (अज्ञात) पैरामीटर मान होता है। सांख्यिकीय अनुमान की कई समस्याओं में हम केवल पैरामीटर का अनुमान लगाने या पैरामीटर से संबंधित कुछ परिकल्पना का परीक्षण करने में रुचि नहीं रखते हैं, हम वास्तविक-मान वाले पैरामीटर के लिए निचली या ऊपरी सीमा या दोनों भी प्राप्त करना चाहते हैं। ऐसा करने के लिए, हमें एक विश्वास अंतराल बनाने की आवश्यकता है।

कॉन्फिडेंस इंटरवल बताता है कि अनुमान कितना विश्वसनीय है। हम देखे गए डेटा से अंतराल की ऊपरी और निचली आत्मविश्वास सीमा की गणना कर सकते हैं। मान लीजिए एक डेटासमूह दिया गया है, जिसे यादृच्छिक चर की प्राप्ति के रूप में तैयार किया गया है। मान लीजिए θ रुचि का पैरामीटर है, और γ 0 और 1 के बीच एक संख्या है। यदि नमूना आँकड़े मौजूद हैं Ln = g(X1, . . . , Xn) और Un = h(X1, . . . , Xn) जैसे कि P(Ln < θ < Un) = γ के प्रत्येक मान के लिए, फिर (ln, un), जहां ln = g(x1, . . . , xn) और un = h(x1, . . . , xn), है θ के लिए 100γ% विश्वास अंतराल कहा जाता है। संख्या γ को आत्मविश्वास स्तर कहा जाता है।[1] समान्यता:, सामान्य रूप से वितरित नमूना माध्य के साथ, Ẋ, और मानक विचलन के लिए ज्ञात मान के साथ, σ, सच्चे μ के लिए 100(1-α)% विश्वास अंतराल Ẋ ± e लेकर बनता है, e = z1-α/2(σ/n1/2),के साथ जहां z1-α/2 मानक सामान्य वक्र का 100(1-α/2)% संचयी मान है, और n उस कॉलम में डेटा मानों की संख्या है। उदाहरण के लिए, 95% आत्मविश्वास के लिए z1-α/2 1.96 के समान है।[12]

यहां अवलोकनों के समूह से दो सीमाओं की गणना की जाती है, मान लीजिए ln और un और यह कुछ सीमा तक विश्वास के साथ प्रमाणित किया जाता है (संभाव्य शब्दों में मापा जाता है) कि γ का वास्तविक मान (ln और un के बीच है। इस प्रकार हमें एक अंतराल (ln और un ) मिलता है जिसकी हमें उम्मीद है कि इसमें γ(θ) का वास्तविक मान सम्मिलित होगा। इसलिए इस प्रकार के अनुमान को आत्मविश्वास अंतराल अनुमान कहा जाता है।[2] यह अनुमान मानों की एक श्रृंखला प्रदान करता है जो पैरामीटर से अपेक्षित है। यह सामान्यतः बिंदु अनुमानों की तुलना में अधिक जानकारी देता है और अनुमान लगाते समय इसे प्राथमिकता दी जाती है। एक तरह से हम कह सकते हैं कि बिंदु अनुमान अंतराल अनुमान के विपरीत है।

यह भी देखें

संदर्भ

  1. 1.0 1.1 1.2 1.3 1.4 संभाव्यता और सांख्यिकी का एक आधुनिक परिचय (in English). F.M. Dekking, C. Kraaikamp, H.P. Lopuhaa, L.E. Meester. 2005.
  2. 2.0 2.1 2.2 2.3 2.4 अनुमान और अनुमानात्मक सांख्यिकी (in English). Pradip Kumar Sahu, Santi Ranjan Pal, Ajit Kumar Das. 2015.
  3. 3.0 3.1 Dodge, Yadolah, ed. (1987). Statistical data analysis based on the L1-norm and related methods: Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987. North-Holland Publishing.
  4. Jaynes, E. T. (2007). Probability Theory: The logic of science (5. print. ed.). Cambridge University Press. p. 172. ISBN 978-0-521-59271-0.
  5. Ferguson, Thomas S. (1996). बड़े नमूना सिद्धांत में एक पाठ्यक्रम. Chapman & Hall. ISBN 0-412-04371-8.
  6. 6.0 6.1 Le Cam, Lucien (1986). सांख्यिकीय निर्णय सिद्धांत में स्पर्शोन्मुख विधियाँ. Springer-Verlag. ISBN 0-387-96307-3.
  7. Ferguson, Thomas S. (1982). "एक असंगत अधिकतम संभावना अनुमान". Journal of the American Statistical Association. 77 (380): 831–834. doi:10.1080/01621459.1982.10477894. JSTOR 2287314.
  8. Lehmann, E. L.; Casella, G. (1998). बिंदु अनुमान का सिद्धांत (2nd ed.). Springer. ISBN 0-387-98502-6.
  9. श्रेणीबद्ध डेटा विश्लेषण. John Wiley and Sons, New York: Agresti A. 1990.
  10. सांख्यिकी का संक्षिप्त विश्वकोश. Springer: Dodge, Y. 2008.
  11. सर्वोत्तम रैखिक निष्पक्ष अनुमान और भविष्यवाणी. New York: John Wiley & Sons: Theil Henri. 1971.
  12. Experimental Design – With Applications in Management, Engineering, and the Sciences. Springer: Paul D. Berger, Robert E. Maurer, Giovana B. Celli. 2019.


अग्रिम पठन

  • Bickel, Peter J. & Doksum, Kjell A. (2001). Mathematical Statistics: Basic and Selected Topics. Vol. I (Second (updated printing 2007) ed.). Pearson Prentice-Hall.
  • Liese, Friedrich & Miescke, Klaus-J. (2008). Statistical Decision Theory: Estimation, Testing, and Selection. Springer.