बिंदु अनुमान

आंकड़ों में, बिंदु अनुमान में एकल मान की गणना करने के लिए नमूना डेटा का उपयोग सम्मिलित होता है (इसे बिंदु अनुमान के रूप में जाना जाता है क्योंकि यह कुछ पैरामीटर स्थान में एक बिंदु की पहचान करता है) जो किसी अज्ञात के "सर्वोत्तम अनुमान" या "सर्वोत्तम अनुमान" के रूप में कार्य करता है। जनसंख्या पैरामीटर (उदाहरण के लिए, जनसंख्या माध्य)। अधिक औपचारिक रूप से, यह एक बिंदु अनुमान प्राप्त करने के लिए डेटा पर एक बिंदु अनुमानक का अनुप्रयोग है।

बिंदु अनुमान की तुलना अंतराल अनुमान से की जा सकती है: ऐसे अंतराल अनुमान समान्यता: या तो विश्वास अंतराल होते हैं, बारंबार अनुमान के स्थिति में, या विश्वसनीय अंतराल, बायेसियन अनुमान के स्थिति में अधिक सामान्यतः एक बिंदु अनुमानक की तुलना एक निर्धारित अनुमानक से की जा सकती है। उदाहरण आत्मविश्वास समूह या विश्वसनीय समूह द्वारा दिए गए हैं। एक बिंदु अनुमानक की तुलना एक वितरण अनुमानक से भी की जा सकती है। उदाहरण आत्मविश्वास वितरण यादृच्छिक अनुमानक और बायेसियन पोस्टीरियर द्वारा दिए गए हैं।

पक्षपात
इस प्रकार से "आकलनकर्ता के पूर्वाग्रह" को अनुमानक के अपेक्षित मान और अनुमानित जनसंख्या पैरामीटर के वास्तविक मान के बीच अंतर के रूप में परिभाषित किया गया है। इसे यह भी वर्णित किया जा सकता है कि किसी पैरामीटर का अपेक्षित मान मापा पैरामीटर के जितना समीप होगा परन्तु पूर्वाग्रह उतना ही कम होगा। जब अनुमानित संख्या और वास्तविक मान समान होता है, तो अनुमानक को निष्पक्ष माना जाता है। इसे निष्पक्ष अनुमानक कहा जाता है। यदि अनुमानक में न्यूनतम भिन्नता है तो वह सबसे अच्छा निष्पक्ष अनुमानक बन जाएगा। चूँकि छोटे विचरण वाला पक्षपाती अनुमानक बड़े विचरण वाले निष्पक्ष अनुमानक की तुलना में अधिक उपयोगी हो सकता है। सबसे महत्वपूर्ण बात यह है कि हम ऐसे बिंदु अनुमानकों को प्राथमिकता देते हैं जिनमें सबसे छोटी माध्य वर्ग त्रुटि या माध्य वर्ग त्रुटियाँ हों।

यदि हम T = h(X1,X2,..., Xn) को एक यादृच्छिक नमूने X1,X2,. . ., Xn, के आधार पर एक अनुमानक मानते हैं। अनुमानक T को पैरामीटर θ के लिए एक निष्पक्ष अनुमानक कहा जाता है यदि E[T] = θ, θ के मान पर ध्यान दिए बिना। उदाहरण के लिए, उसी यादृच्छिक नमूने से हमारे पास E( x̄ ) = µ(माध्य) और E(s2) = σ2 (विचरण) है, तो x̄ और s2 µ और σ2 के लिए निष्पक्ष अनुमानक होंगे। अंतर E[T ] - θ को T का पूर्वाग्रह कहा जाता है; यदि यह अंतर शून्येतर है, तो T को पक्षपाती कहा जाता है।

संगति
संगति इस बारे में है कि जब पैरामीटर अपना आकार बढ़ाता है तो बिंदु अनुमान मान के समीप रहता है या नहीं जो की नमूना आकार जितना बड़ा होगा, अनुमान उतना ही स्पष्ट होगा। यदि एक बिंदु अनुमानक सुसंगत है, तो इसका अपेक्षित मान और विचरण पैरामीटर के वास्तविक मान के समीप होना चाहिए। एक निष्पक्ष अनुमानक सुसंगत होता है यदि अनुमानक t के विचरण की सीमा शून्य के समान होती है।

दक्षता
माना $$T1                                                                                                                                                                                                    $$ और $$T2                                                                                                                                                                                                                   $$ एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हों। अनुमानक T2 अनुमानक T1 की तुलना में अधिक कुशल कहा जाएगा यदि Var(T2) < Var(T1), θ के मान पर ध्यान दिए बिना। हम यह भी कह सकते हैं कि सबसे कुशल अनुमानक वे हैं जिनके परिणामों में सबसे कम परिवर्तनशीलता है। इसलिए, यदि अनुमानक के पास नमूने से नमूने के बीच सबसे छोटा अंतर है, तो यह सबसे कुशल और निष्पक्ष दोनों है। हम अनुमानक T2  कहकर दक्षता की धारणा का विस्तार करते हैं अनुमानक T1 से अधिक कुशल है (रुचि के समान पैरामीटर के लिए), यदि T2  का एमएसई (मीन चुकता त्रुटि) T1 के एमएसई से छोटा है.

समान्यता: हमें अनुमानकर्ताओं की दक्षता निर्धारित करते समय जनसंख्या के वितरण पर विचार करना चाहिए। उदाहरण के लिए एक सामान्य वितरण में, माध्य को माध्यिका की तुलना में अधिक कुशल माना जाता है, किंतु यह बात असममित, या विषम  वितरण, वितरण में प्रयुक्त नहीं होती है।

पर्याप्तता
सांख्यिकी में, एक सांख्यिकीविद् का काम उन आंकड़ों की व्याख्या करना है जो उन्होंने एकत्र किए हैं और जांच के अनुसार जनसंख्या के बारे में सांख्यिकीय रूप से वैध निष्कर्ष निकालना है। किंतु कई स्थिति में कच्चा डेटा, जो बहुत अधिक है और संचयन के लिए बहुत मूल्यवान `है, इस उद्देश्य के लिए उपयुक्त नहीं है। इसलिए, सांख्यिकीविद् कुछ आँकड़ों की गणना करके डेटा को संक्षिप्त करना चाहेगा और अपने विश्लेषण को इन आँकड़ों पर आधारित करना चाहेगा जिससे ऐसा करने पर प्रासंगिक जानकारी का कोई हानि न हो, अर्थात सांख्यिकीविद् उन आँकड़ों को चुनना चाहेगा जिनके बारे में सारी जानकारी समाप्त हो जाती है पैरामीटर, जो नमूने में निहित है. हम पर्याप्त आँकड़ों को इस प्रकार परिभाषित करते हैं: मान लीजिए X =( X1, X2, ... ,Xn) एक यादृच्छिक नमूना है। एक आँकड़ा $$T(X)                                                                                                                                                                                                                  $$ को θ (या वितरण के वर्ग के लिए) के लिए पर्याप्त माना जाता है यदि दिए गए T का सशर्त वितरण θ से मुक्त है।

बायेसियन बिंदु अनुमान
बायेसियन अनुमान समान्यता पश्च वितरण पर आधारित होता है। कई बायेसियन बिंदु अनुमानक केंद्रीय प्रवृत्ति के पश्च वितरण के आँकड़े हैं, उदाहरण के लिए, इसका माध्य माध्यिका या मोड:

एमएपी अनुमानक के पास कई कठिन समस्याओं के लिए भी अच्छे स्पर्शोन्मुख गुण हैं, जिन पर अधिकतम संभावना अनुमानक को कठिनाइयाँ होती हैं। नियमित समस्याओं के लिए, जहां अधिकतम-संभावना अनुमानक सुसंगत है, अधिकतम-संभावना अनुमानक अंततः एमएपी अनुमानक से सहमत होता है। वाल्ड के प्रमेय के अनुसार बायेसियन अनुमानक स्वीकार्य हैं।
 * पश्च माध्य, जो वर्ग-त्रुटि हानि फलन के लिए (पश्च) कठिन परिस्थिति (अपेक्षित हानि) को कम करता है; बायेसियन अनुमान में, कठिन परिस्थिति को पश्च वितरण के संदर्भ में परिभाषित किया गया है, जैसा कि गॉस ने देखा है ।
 * पश्च माध्यिका, जो पूर्ण-मूल्य हानि फलन के लिए पश्च कठिन परिस्थिति को कम करती है, जैसा कि लाप्लास द्वारा देखा गया है।
 * अधिकतम एक पोस्टीरियरी (एमएपी), जो अधिकतम पोस्टीरियर वितरण पाता है; एक समान पूर्व संभाव्यता के लिए, एमएपी अनुमानक अधिकतम-संभावना अनुमानक के साथ मेल खाता है;

न्यूनतम संदेश लंबाई (एमएमएल) बिंदु अनुमानक बायेसियन सूचना सिद्धांत पर आधारित है और यह सीधे रूप से पश्च वितरण से संबंधित नहीं है।

बेयस निस्पंदन के विशेष स्थिति महत्वपूर्ण हैं:
 * कलमन निस्पंदन
 * विनीज़ निस्पंदन

कम्प्यूटेशनल सांख्यिकी की कई पुनरावृत्तीय पद्धतियों का बायेसियन विश्लेषण के साथ घनिष्ठ संबंध है:
 * कण निस्पंदन
 * मार्कोव श्रृंखला मोंटे कार्लो (एमसीएमसी)

बिंदु अनुमान ज्ञात करने की विधियाँ
नीचे अज्ञात मापदंडों का अनुमान लगाने के कुछ सामान्य रूप से उपयोग किए जाने वाले विधि दिए गए हैं जिनसे अनुमानकर्ताओं को इनमें से कुछ महत्वपूर्ण गुण प्रदान करने की उम्मीद है। सामान्य रूप से स्थिति और हमारे अध्ययन के उद्देश्य के आधार पर हम बिंदु अनुमान के विधि में से किसी एक विधि को प्रयुक्त करते हैं जो उपयुक्त हो सकता है।

अधिकतम संभावना की विधि (एमएलई)
अधिकतम संभावना की विधि, आर.ए. के कारण फिशर, अनुमान लगाने की सबसे महत्वपूर्ण सामान्य विधि है। यह अनुमानक विधि अज्ञात मापदंडों को प्राप्त करने का प्रयास करती है जो संभावना फलन को अधिकतम करती है। यह एक ज्ञात मॉडल (उदा. सामान्य वितरण) का उपयोग करता है और मॉडल में पैरामीटर के मानों का उपयोग करता है जो डेटा के लिए सबसे उपयुक्त मिलान खोजने के लिए संभावना फलन को अधिकतम करता है।

मान लीजिए $$X = (X1, X2, ... ,Xn)                                                                                                                                                                                                                  $$  संयुक्त पीडीएफ या पी.एम.एफ. के साथ एक यादृच्छिक नमूने को दर्शाता है। f(x, θ) (θ एक सदिश हो सकता है)। फलन f(x, θ), जिसे θ का फलन माना जाता है, संभाव्यता फलन कहलाता है। इस स्थिति में, इसे L(θ) द्वारा दर्शाया जाता है। अधिकतम संभावना के सिद्धांत में θ की स्वीकार्य सीमा के अंदर एक अनुमान चुनना सम्मिलित है, जो संभावना को अधिकतम करता है। इस अनुमानक को θ का अधिकतम संभावना अनुमान (एमएलई) कहा जाता है। θ का MLE प्राप्त करने के लिए, हम समीकरण का उपयोग करते हैं

dlogL(θ)/dθi=0, i = 1, 2, …, k.. यदि θ एक सदिश है, तो संभावना समीकरण प्राप्त करने के लिए आंशिक व्युत्पन्न पर विचार किया जाता है।

क्षणों की विधि (एमओएम)
क्षणों की विधि 1887 में के. पियर्सन और पी. चेबीशेव द्वारा प्रारंभ की गई थी, और यह अनुमान लगाने की सबसे पुरानी विधियों में से एक है। यह विधि बड़ी संख्या के नियम पर आधारित है, जो जनसंख्या के बारे में सभी ज्ञात तथ्यों का उपयोग करती है और उन तथ्यों को समीकरण प्राप्त करके जनसंख्या के नमूने पर प्रयुक्त करती है जो जनसंख्या क्षणों को अज्ञात मापदंडों से जोड़ते हैं। फिर हम जनसंख्या क्षणों के नमूना माध्य से हल कर सकते हैं। चूँकि सरलता के कारण यह विधि सदैव स्पष्ट  नहीं होती है और आसानी से पक्षपाती हो सकती है।

मान लीजिए (X1, X2,…Xn) पीडीएफ वाली जनसंख्या से एक यादृच्छिक नमूना है। (या p.m.f) f(x,θ), θ = (θ1, θ2, …, θk). इसका उद्देश्य पैरामीटर θ1, θ2, ..., θk का अनुमान लगाना है। इसके अतिरिक्त, शून्य के बारे में पहले k जनसंख्या क्षणों को θ के स्पष्ट कार्य के रूप में उपस्थित होने दें, अथार्त μr = μr(θ1, θ2,…, θk), r = 1, 2, …, k क्षणों की विधि में, हम k नमूना क्षणों को संबंधित जनसंख्या क्षणों के साथ समान करते हैं। समान्यता:, पहले k क्षण इसलिए लिए जाते हैं क्योंकि नमूने के कारण होने वाली त्रुटियाँ क्षण के क्रम के साथ बढ़ती हैं। इस प्रकार, हमें k समीकरण μr(θ1, θ2,…, θk) = mr, r = 1, 2, …, k.मिलता है। इन समीकरणों को हल करने पर हमें क्षण अनुमानक (या अनुमान) की विधि प्राप्त होती है

mr = 1/n ΣXir. क्षणों की सामान्यीकृत विधि भी देखें।

न्यूनतम वर्ग की विधि
न्यूनतम वर्ग की विधि में, हम अपेक्षा के कुछ निर्दिष्ट रूप और अवलोकनों के दूसरे क्षण का उपयोग करके मापदंडों के अनुमान पर विचार करते हैं। के लिए

फॉर्म y = f( x, β0, β1, ,,,, βp) के एक वक्र को डेटा (xi, yi), i = 1, 2,…n, में फिट करते हुए, हम कम से कम वर्गों की विधि का उपयोग कर सकते हैं। इस विधि में न्यूनतम करना सम्मिलित है

वर्गों का योग।

जब पैरामीटरों का एक रैखिक कार्य है और x-मान ज्ञात हैं, न्यूनतम वर्ग अनुमानक सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला) होगा। दोबारा, यदि हम मानते हैं कि न्यूनतम वर्ग अनुमान स्वतंत्र रूप से और समान रूप से सामान्य रूप से वितरित होते हैं, तो एक रैखिक अनुमानक निष्पक्ष अनुमानकों के पूरे वर्ग के लिए न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई) होगा। न्यूनतम माध्य वर्ग त्रुटि (एमएमएसई) भी देखें।

न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक (एमवीयूई)
न्यूनतम-विचरण निष्पक्ष अनुमानक की विधि वर्ग-त्रुटि हानि-फलन के कठिन परिस्थिति (अपेक्षित हानि) को कम करती है।

माध्यिका निष्पक्ष अनुमानक
माध्यिका-निष्पक्ष अनुमानक पूर्ण-त्रुटि हानि फलन के कठिन परिस्थिति को कम करता है।

सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला)
सर्वश्रेष्ठ रैखिक निष्पक्ष अनुमानक, जिसे गॉस-मार्कोव प्रमेय के रूप में भी जाना जाता है, बताता है कि साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक में रैखिक निष्पक्ष अनुमानकों के वर्ग के अंदर सबसे कम नमूनाकरण भिन्नता होती है, यदि रैखिक प्रतिगमन मॉडल  में  त्रुटियां  असंबद्ध  हैं,  तो  समान  भिन्नताएं  होती  हैं  और  उम्मीद  का  मान  शून्य  है।

बिंदु अनुमान बनाम  आत्मविश्वास  अंतराल  अनुमान
इस प्रकार अनुमान के  दो  प्रमुख  प्रकार  हैं:  बिंदु  अनुमान  और  अंतराल  अनुमान  बिंदु  अनुमान  में  हम  पैरामीटर  स्थान  में  एक  अद्वितीय  बिंदु  चुनने  का  प्रयास  करते  हैं  जिसे  उचित  रूप  से  पैरामीटर  का  सही  मान  माना  जा  सकता  है।  दूसरी  ओर,  पैरामीटर  के  अनूठे  अनुमान  के  अतिरिक्त    हम  समूह  के  एक  वर्ग  के  निर्माण  में  रुचि  रखते  हैं  जिसमें  एक निर्दिष्ट संभावना के साथ सही (अज्ञात) पैरामीटर मान होता है। सांख्यिकीय अनुमान की कई समस्याओं में हम केवल पैरामीटर का अनुमान लगाने या पैरामीटर से संबंधित कुछ परिकल्पना का परीक्षण करने में रुचि नहीं रखते हैं, हम वास्तविक-मान वाले पैरामीटर के लिए निचली या ऊपरी सीमा या दोनों भी प्राप्त करना चाहते हैं। ऐसा करने के लिए, हमें एक विश्वास अंतराल बनाने की आवश्यकता है।

कॉन्फिडेंस इंटरवल बताता है कि अनुमान कितना विश्वसनीय है। हम देखे गए डेटा से अंतराल की ऊपरी और निचली आत्मविश्वास सीमा की गणना कर सकते हैं। मान लीजिए एक डेटासमूह $$x1,. . ., xn                                                                                                                                                                                             $$ दिया गया है, जिसे यादृच्छिक चर $$X1,. . ., Xn. $$ की प्राप्ति के रूप में तैयार किया गया है। मान लीजिए θ रुचि का पैरामीटर है, और γ 0 और 1 के बीच एक संख्या है। यदि नमूना आँकड़े मौजूद हैं Ln = g(X1, . . ., Xn) और Un = h(X1, . . . , Xn) जैसे कि P(Ln < θ < Un) = γ के प्रत्येक मान के लिए, फिर (ln, un), जहां ln = g(x1, . . . , xn) और  un = h(x1, . . . , xn), है θ के लिए 100γ% विश्वास अंतराल कहा जाता है। संख्या γ को आत्मविश्वास स्तर कहा जाता है। समान्यता:, सामान्य रूप से वितरित नमूना माध्य के साथ, Ẋ, और मानक विचलन के लिए ज्ञात मान के साथ, σ, सच्चे μ के लिए 100(1-α)% विश्वास अंतराल Ẋ ± e लेकर बनता है, e = z1-α/2(σ/n1/2),के साथ  जहां z1-α/2  मानक सामान्य वक्र का 100(1-α/2)% संचयी मान है, और n उस कॉलम में डेटा मानों की संख्या है। उदाहरण के लिए, 95% आत्मविश्वास के लिए z1-α/2 1.96 के समान है।

यहां अवलोकनों के समूह से दो सीमाओं की गणना की जाती है, मान लीजिए ln और un और यह कुछ सीमा तक विश्वास के साथ प्रमाणित किया जाता है (संभाव्य शब्दों में मापा जाता है) कि γ का वास्तविक मान  (ln और un के बीच है। इस प्रकार हमें एक अंतराल (ln और un ) मिलता है जिसकी हमें उम्मीद है कि इसमें γ(θ) का वास्तविक मान सम्मिलित होगा। इसलिए इस प्रकार के अनुमान को आत्मविश्वास अंतराल अनुमान कहा जाता है। यह अनुमान मानों की एक श्रृंखला प्रदान करता है जो पैरामीटर से अपेक्षित है। यह सामान्यतः बिंदु अनुमानों की तुलना में अधिक जानकारी देता है और अनुमान लगाते समय इसे प्राथमिकता दी जाती है। एक तरह से हम कह सकते हैं कि बिंदु अनुमान अंतराल अनुमान के विपरीत है।

यह भी देखें

 * एल्गोरिथम अनुमान
 * द्विपद वितरण
 * विश्वास वितरण
 * प्रेरण (दर्शन)
 * अंतराल अनुमान
 * सांख्यिकी का दर्शन
 * पूर्वानुमानात्मक अनुमान

अग्रिम पठन