बिंदु अनुमान

आंकड़ों में, बिंदु अनुमान में एकल मान की गणना करने के लिए सांख्यिकीय नमूना आंकड़े का उपयोग शामिल होता है (इसे बिंदु अनुमान के रूप में जाना जाता है क्योंकि यह कुछ [[पैरामीटर स्थान]] में एक बिंदु (ज्यामिति) की पहचान करता है) जो किसी अज्ञात के सर्वोत्तम अनुमान या सर्वोत्तम अनुमान के रूप में कार्य करता है। जनसंख्या पैरामीटर (उदाहरण के लिए, जनसंख्या माध्य)। अधिक औपचारिक रूप से, यह एक बिंदु अनुमान प्राप्त करने के लिए डेटा पर एक बिंदु अनुमानक का अनुप्रयोग है।

बिंदु अनुमान की तुलना अंतराल अनुमान से की जा सकती है: ऐसे अंतराल अनुमान आमतौर पर या तो विश्वास अंतराल होते हैं, बारंबार अनुमान के मामले में, या विश्वसनीय अंतराल, बायेसियन अनुमान के मामले में। अधिक सामान्यतः, एक बिंदु अनुमानक की तुलना एक निर्धारित अनुमानक से की जा सकती है। उदाहरण कॉन्फिडेंस क्षेत्र या विश्वसनीय अंतराल|विश्वसनीय सेट द्वारा दिए गए हैं। एक बिंदु अनुमानक की तुलना एक वितरण अनुमानक से भी की जा सकती है। उदाहरण आत्मविश्वास वितरण, यादृच्छिक निर्णय नियम और बायेसियन सांख्यिकी द्वारा दिए गए हैं।

पक्षपात
"आकलनकर्ता के पूर्वाग्रह" को अनुमानक के अपेक्षित मूल्य और अनुमानित जनसंख्या पैरामीटर के वास्तविक मूल्य के बीच अंतर के रूप में परिभाषित किया गया है। इसे यह भी वर्णित किया जा सकता है कि किसी पैरामीटर का अपेक्षित मान मापा पैरामीटर के जितना करीब होगा, पूर्वाग्रह उतना ही कम होगा। जब अनुमानित संख्या और वास्तविक मूल्य बराबर होता है, तो अनुमानक को निष्पक्ष माना जाता है। इसे निष्पक्ष अनुमानक कहा जाता है। यदि अनुमानक में न्यूनतम भिन्नता है तो वह सबसे अच्छा निष्पक्ष अनुमानक बन जाएगा। हालाँकि, छोटे विचरण वाला पक्षपाती अनुमानक बड़े विचरण वाले निष्पक्ष अनुमानक की तुलना में अधिक उपयोगी हो सकता है। सबसे महत्वपूर्ण बात यह है कि हम ऐसे बिंदु अनुमानकों को प्राथमिकता देते हैं जिनमें सबसे छोटी माध्य वर्ग त्रुटि|माध्य वर्ग त्रुटियाँ हों।

यदि हम T = h(X1,एक्स2, . . ., एक्सn) एक यादृच्छिक नमूना एक्स के आधार पर एक अनुमानक बनें1,एक्स2,. . ., एक्सn, यदि E[T] = θ है, तो अनुमानक T को पैरामीटर θ के लिए निष्पक्ष अनुमानक कहा जाता है, चाहे θ का मान कुछ भी हो। उदाहरण के लिए, उसी यादृच्छिक नमूने से हमारे पास E( x̄ ) = µ(माध्य) और E(s) है2) = पी2 (विचरण), फिर x̄ और s2µ और σ के लिए निष्पक्ष अनुमानक होंगे2. अंतर E[T ] - θ को T का पूर्वाग्रह कहा जाता है; यदि यह अंतर शून्येतर है, तो T को पक्षपाती कहा जाता है।

संगति
संगति इस बारे में है कि जब पैरामीटर अपना आकार बढ़ाता है तो बिंदु अनुमान मूल्य के करीब रहता है या नहीं। नमूना आकार जितना बड़ा होगा, अनुमान उतना ही सटीक होगा। यदि एक बिंदु अनुमानक सुसंगत है, तो इसका अपेक्षित मूल्य और विचरण पैरामीटर के वास्तविक मूल्य के करीब होना चाहिए। एक निष्पक्ष अनुमानक सुसंगत होता है यदि अनुमानक टी के विचरण की सीमा शून्य के बराबर होती है।

दक्षता
चलो टी1 और टी2 एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हों। अनुमानक टी2 अनुमानक टी से अधिक कुशल कहा जाएगा1 यदि वार(टी2) < वार(टी1), θ के मान पर ध्यान दिए बिना। हम यह भी कह सकते हैं कि सबसे कुशल अनुमानक वे हैं जिनके परिणामों में सबसे कम परिवर्तनशीलता है। इसलिए, यदि अनुमानक के पास नमूने से नमूने के बीच सबसे छोटा अंतर है, तो यह सबसे कुशल और निष्पक्ष दोनों है। हम अनुमानक टी कहकर दक्षता की धारणा का विस्तार करते हैं2 अनुमानक टी से अधिक कुशल है1 (रुचि के समान पैरामीटर के लिए), यदि टी का एमएसई (मीन चुकता त्रुटि)।2 टी के एमएसई से छोटा है1. आम तौर पर, हमें अनुमानकर्ताओं की दक्षता निर्धारित करते समय जनसंख्या के वितरण पर विचार करना चाहिए। उदाहरण के लिए, एक सामान्य वितरण में, माध्य को माध्यिका की तुलना में अधिक कुशल माना जाता है, लेकिन यह बात असममित, या तिरछे वितरण, वितरण में लागू नहीं होती है।

पर्याप्तता
सांख्यिकी में, एक सांख्यिकीविद् का काम उन आंकड़ों की व्याख्या करना है जो उन्होंने एकत्र किए हैं और जांच के तहत जनसंख्या के बारे में सांख्यिकीय रूप से वैध निष्कर्ष निकालना है। लेकिन कई मामलों में कच्चा डेटा, जो बहुत अधिक है और भंडारण के लिए बहुत महंगा है, इस उद्देश्य के लिए उपयुक्त नहीं है। इसलिए, सांख्यिकीविद् कुछ आँकड़ों की गणना करके डेटा को संक्षिप्त करना चाहेगा और अपने विश्लेषण को इन आँकड़ों पर आधारित करना चाहेगा ताकि ऐसा करने पर प्रासंगिक जानकारी का कोई नुकसान न हो, अर्थात सांख्यिकीविद् उन आँकड़ों को चुनना चाहेगा जिनके बारे में सारी जानकारी समाप्त हो जाती है पैरामीटर, जो नमूने में निहित है. हम पर्याप्त आँकड़ों को इस प्रकार परिभाषित करते हैं: मान लीजिए X =(1, एक्स2, ... ,एक्सn) एक यादृच्छिक नमूना बनें। एक आँकड़ा T(X) को θ (या वितरण के परिवार के लिए) के लिए पर्याप्त माना जाता है यदि दिए गए T का सशर्त वितरण θ से मुक्त है।

बायेसियन बिंदु अनुमान
बायेसियन अनुमान आम तौर पर पश्च वितरण पर आधारित होता है। कई बायेसियन अनुमान केंद्रीय प्रवृत्ति के पश्च वितरण के आँकड़े हैं, उदाहरण के लिए, इसका माध्य, माध्य या मोड: एमएपी अनुमानक के पास कई कठिन समस्याओं के लिए भी अच्छे स्पर्शोन्मुख गुण हैं, जिन पर अधिकतम संभावना अनुमानक को कठिनाइयाँ होती हैं। नियमित समस्याओं के लिए, जहां अधिकतम-संभावना अनुमानक सुसंगत है, अधिकतम-संभावना अनुमानक अंततः एमएपी अनुमानक से सहमत होता है। वाल्ड के प्रमेय के अनुसार बायेसियन अनुमानक स्वीकार्य प्रक्रिया हैं। न्यूनतम संदेश लंबाई (न्यूनतम संदेश लंबाई) बिंदु अनुमानक बायेसियन सूचना सिद्धांत पर आधारित है और यह सीधे तौर पर पश्च वितरण से संबंधित नहीं है।
 * बेयस अनुमानक # पश्च माध्य, जो न्यूनतम माध्य वर्ग त्रुटि | वर्ग-त्रुटि हानि फ़ंक्शन के लिए (पश्च) जोखिम फ़ंक्शन (अपेक्षित हानि) को कम करता है; बायेसियन अनुमान में, जोखिम को पश्च वितरण के संदर्भ में परिभाषित किया गया है, जैसा कि गॉस ने देखा है।
 * बेयस अनुमानक#पश्च माध्यिका और अन्य मात्राएँ, जो पूर्ण-मूल्य हानि फ़ंक्शन के लिए पश्च जोखिम को कम करता है, जैसा कि लाप्लास द्वारा देखा गया है।
 * अधिकतम एक पोस्टीरियरी (एमएपी), जो अधिकतम पोस्टीरियर वितरण पाता है; एक समान पूर्व संभाव्यता के लिए, एमएपी अनुमानक अधिकतम-संभावना अनुमानक के साथ मेल खाता है;

बेयस फ़िल्टर के विशेष मामले महत्वपूर्ण हैं:
 * कलमन फ़िल्टर
 * विनीज़ फ़िल्टर

कम्प्यूटेशनल सांख्यिकी की कई पुनरावृत्तीय पद्धतियों का बायेसियन विश्लेषण के साथ घनिष्ठ संबंध है:
 * कण फिल्टर
 * मार्कोव श्रृंखला मोंटे कार्लो (एमसीएमसी)

बिंदु अनुमान ज्ञात करने की विधियाँ
नीचे अज्ञात मापदंडों का अनुमान लगाने के कुछ सामान्य रूप से उपयोग किए जाने वाले तरीके दिए गए हैं जिनसे अनुमानकर्ताओं को इनमें से कुछ महत्वपूर्ण गुण प्रदान करने की उम्मीद है। सामान्य तौर पर, स्थिति और हमारे अध्ययन के उद्देश्य के आधार पर हम बिंदु अनुमान के तरीकों में से किसी एक तरीके को लागू करते हैं जो उपयुक्त हो सकता है।

अधिकतम संभावना की विधि (एमएलई)
आर.ए. के कारण अधिकतम संभावना अनुमान फिशर, अनुमान लगाने की सबसे महत्वपूर्ण सामान्य विधि है। यह अनुमानक विधि अज्ञात मापदंडों को प्राप्त करने का प्रयास करती है जो संभावना फ़ंक्शन को अधिकतम करती है। यह एक ज्ञात मॉडल (उदा. सामान्य वितरण) का उपयोग करता है और मॉडल में पैरामीटर के मानों का उपयोग करता है जो डेटा के लिए सबसे उपयुक्त मिलान खोजने के लिए संभावना फ़ंक्शन को अधिकतम करता है। माना X = (X1, एक्स2, ... ,एक्सn) संयुक्त पी.डी.एफ. या पी.एम.एफ. के साथ एक यादृच्छिक नमूना निरूपित करें। f(x, θ) (θ एक सदिश हो सकता है)। फलन f(x, θ), जिसे θ का फलन माना जाता है, संभाव्यता फलन कहलाता है। इस मामले में, इसे L(θ) द्वारा दर्शाया जाता है। अधिकतम संभावना के सिद्धांत में θ की स्वीकार्य सीमा के भीतर एक अनुमान चुनना शामिल है, जो संभावना को अधिकतम करता है। इस अनुमानक को θ का अधिकतम संभावना अनुमान (एमएलई) कहा जाता है। θ का MLE प्राप्त करने के लिए, हम समीकरण का उपयोग करते हैं

dlogL(θ)/dθi=0, मैं = 1, 2, …, के. यदि θ एक वेक्टर है, तो संभावना समीकरण प्राप्त करने के लिए आंशिक व्युत्पन्न पर विचार किया जाता है।

क्षणों की विधि (MOM)
क्षणों की विधि (सांख्यिकी) 1887 में के. पियर्सन और पी. चेबीशेव द्वारा शुरू की गई थी, और यह अनुमान लगाने की सबसे पुरानी विधियों में से एक है। यह विधि बड़ी संख्या के कानून पर आधारित है, जो जनसंख्या के बारे में सभी ज्ञात तथ्यों का उपयोग करती है और उन तथ्यों को समीकरण प्राप्त करके जनसंख्या के नमूने पर लागू करती है जो जनसंख्या क्षणों को अज्ञात मापदंडों से जोड़ते हैं। फिर हम जनसंख्या क्षणों के नमूना माध्य से हल कर सकते हैं। हालाँकि, सरलता के कारण, यह विधि हमेशा सटीक नहीं होती है और आसानी से पक्षपाती हो सकती है।

चलो (एक्स1, एक्स2,…एक्सn) पी.डी.एफ. वाली जनसंख्या से एक यादृच्छिक नमूना बनें। (या p.m.f) f(x,θ), θ = (θ1, मैं2, ..., मैंk). इसका उद्देश्य पैरामीटर θ का अनुमान लगाना है1, मैं2, ..., मैंk. इसके अलावा, शून्य के बारे में पहले k जनसंख्या क्षणों को θ, यानी μ के स्पष्ट कार्य के रूप में मौजूद होने देंr = एमr(मैं1, मैं2,..., मैंk), आर = 1, 2, …, के. क्षणों की विधि में, हम k नमूना क्षणों को संबंधित जनसंख्या क्षणों के साथ बराबर करते हैं। आम तौर पर, पहले k क्षण इसलिए लिए जाते हैं क्योंकि नमूने के कारण होने वाली त्रुटियाँ क्षण के क्रम के साथ बढ़ती हैं। इस प्रकार, हमें k समीकरण μ मिलता हैr(मैं1, मैं2,..., मैंk) = एमr, आर = 1, 2, …, के। इन समीकरणों को हल करने पर हमें क्षण अनुमानक (या अनुमान) की विधि प्राप्त होती है

एमr = 1/एन ΣXiर. क्षणों की सामान्यीकृत विधि भी देखें।

न्यूनतम वर्ग की विधि
न्यूनतम वर्ग की विधि में, हम अपेक्षा के कुछ निर्दिष्ट रूप और अवलोकनों के दूसरे क्षण का उपयोग करके मापदंडों के अनुमान पर विचार करते हैं। के लिए

y = f( x, β के रूप का एक वक्र फिट करना0, बी1, ,,,, बीp) डेटा के लिए (xi, औरi), i = 1, 2,…n, हम न्यूनतम वर्ग की विधि का उपयोग कर सकते हैं। इस विधि में न्यूनतम करना शामिल है

वर्गों का योग।

जब f( x, β0, बी1, ,,,, बीp) पैरामीटरों का एक रैखिक कार्य है और x-मान ज्ञात हैं, न्यूनतम वर्ग अनुमानक सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला) होगा। दोबारा, यदि हम मानते हैं कि न्यूनतम वर्ग अनुमान स्वतंत्र रूप से और समान रूप से सामान्य रूप से वितरित होते हैं, तो एक रैखिक अनुमानक निष्पक्ष अनुमानकों के पूरे वर्ग के लिए न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई) होगा। न्यूनतम माध्य वर्ग त्रुटि (एमएमएसई) भी देखें।

न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक (एमवीयूई)
न्यूनतम-विचरण निष्पक्ष अनुमानक की विधि वर्ग-त्रुटि हानि फ़ंक्शन | हानि-फ़ंक्शन के जोखिम फ़ंक्शन (अपेक्षित हानि) को कम करती है।

माध्यिका निष्पक्ष अनुमानक
माध्यिका-निष्पक्ष अनुमानक पूर्ण-त्रुटि हानि फ़ंक्शन के जोखिम को कम करता है।

सर्वोत्तम रैखिक निष्पक्ष अनुमानक (नीला)
सर्वश्रेष्ठ रैखिक निष्पक्ष अनुमानक, जिसे गॉस-मार्कोव प्रमेय के रूप में भी जाना जाता है, बताता है कि साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक में रैखिक निष्पक्ष अनुमानकों के वर्ग के भीतर सबसे कम नमूनाकरण भिन्नता होती है, यदि रैखिक प्रतिगमन मॉडल में त्रुटियां असंबद्ध हैं, तो समान भिन्नताएं होती हैं और उम्मीद का मान शून्य है।

बिंदु अनुमान बनाम आत्मविश्वास अंतराल अनुमान
अनुमान के दो प्रमुख प्रकार हैं: बिंदु अनुमान और अंतराल अनुमान। बिंदु अनुमान में हम पैरामीटर स्थान में एक अद्वितीय बिंदु चुनने का प्रयास करते हैं जिसे उचित रूप से पैरामीटर का सही मान माना जा सकता है। दूसरी ओर, पैरामीटर के अनूठे अनुमान के बजाय, हम सेट के एक परिवार के निर्माण में रुचि रखते हैं जिसमें एक निर्दिष्ट संभावना के साथ सही (अज्ञात) पैरामीटर मान होता है। सांख्यिकीय अनुमान की कई समस्याओं में हम केवल पैरामीटर का अनुमान लगाने या पैरामीटर से संबंधित कुछ परिकल्पना का परीक्षण करने में रुचि नहीं रखते हैं, हम वास्तविक-मूल्य वाले पैरामीटर के लिए निचली या ऊपरी सीमा या दोनों भी प्राप्त करना चाहते हैं। ऐसा करने के लिए, हमें एक विश्वास अंतराल बनाने की आवश्यकता है।

कॉन्फिडेंस इंटरवल बताता है कि अनुमान कितना विश्वसनीय है। हम देखे गए डेटा से अंतराल की ऊपरी और निचली आत्मविश्वास सीमा की गणना कर सकते हैं। मान लीजिए एक डेटासेट x1,. . ., एक्सn दिया गया है, जिसे यादृच्छिक चर X की प्राप्ति के रूप में तैयार किया गया है1,. . ., एक्सn. मान लीजिए θ रुचि का पैरामीटर है, और γ 0 और 1 के बीच की एक संख्या है। यदि नमूना आँकड़े मौजूद हैं तो Ln = जी(एक्स1, . . ., एक्सn) और आपn = एच(एक्स1, . . . , एक्सn) ऐसा कि P(Ln < θ < यूn) = θ के प्रत्येक मान के लिए, फिर (ln, मेंn), जहां एलn = जी(एक्स1, . . . , एक्सn) और आपn = एच(एक्स1, . . . , एक्सn), को θ के लिए 100γ% विश्वास अंतराल कहा जाता है। संख्या γ को आत्मविश्वास स्तर कहा जाता है। सामान्य तौर पर, सामान्य रूप से वितरित नमूना माध्य के साथ, Ẋ, और मानक विचलन के लिए ज्ञात मान के साथ, σ, सच्चे μ के लिए 100(1-α)% विश्वास अंतराल Ẋ ± e लेकर बनता है, e = के साथ जेड1-α/2(एस/एन1/2), जहां z1-α/2 मानक सामान्य वक्र का 100(1-α/2)% संचयी मान है, और n उस कॉलम में डेटा मानों की संख्या है। उदाहरण के लिए, z1-α/2 95% आत्मविश्वास के लिए 1.96 के बराबर है। यहां दो सीमाओं की गणना अवलोकनों के सेट से की गई है, मान लीजिए ln और आपn और कुछ हद तक विश्वास के साथ यह दावा किया जाता है (संभाव्य शब्दों में मापा गया) कि γ का वास्तविक मान l के बीच हैn और आपn. इस प्रकार हमें एक अंतराल (एल) मिलता हैn और आपn) जिसकी हम अपेक्षा करते हैं उसमें γ(θ) का वास्तविक मान शामिल होगा। तो इस प्रकार के अनुमान को आत्मविश्वास अंतराल अनुमान कहा जाता है। यह अनुमान मानों की एक श्रृंखला प्रदान करता है जो पैरामीटर से अपेक्षित है। यह आम तौर पर बिंदु अनुमानों की तुलना में अधिक जानकारी देता है और अनुमान लगाते समय इसे प्राथमिकता दी जाती है। एक तरह से हम कह सकते हैं कि बिंदु अनुमान अंतराल अनुमान के विपरीत है।

यह भी देखें

 * एल्गोरिथम अनुमान
 * द्विपद वितरण
 * विश्वास वितरण
 * प्रेरण (दर्शन)
 * अंतराल अनुमान
 * सांख्यिकी का दर्शन
 * भविष्यवाणी अनुमान

अग्रिम पठन