पर्याप्त आँकड़ा: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Statistical principle}} आँकड़ों में, एक आँकड़ा एक [[सांख्यिकीय मॉडल]] और उस...")
 
No edit summary
 
(8 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Statistical principle}}
{{Short description|Statistical principle}}
आँकड़ों में, एक आँकड़ा एक [[[[सांख्यिकीय]] मॉडल]] और उससे जुड़े अज्ञात [[पैरामीटर]] के संबंध में ''पर्याप्त'' होता है यदि कोई अन्य आँकड़ा जिसकी गणना उसी नमूने (आँकड़े) से नहीं की जा सकती है, पैरामीटर के मूल्य के बारे में कोई अतिरिक्त जानकारी प्रदान करता है।<ref name=Fisher1922>{{cite journal
सांख्यिकी में, सांख्यिकी [[सांख्यिकीय]] मॉडल और उससे जुड़े अज्ञात [[पैरामीटर|मापदंड]] के संबंध में ''पर्याप्त'' होता है यदि कोई अन्य सांख्यिकी जिसकी गणना उसी प्रतिरूप (सांख्यिकी) से नहीं की जा सकती है, मापदंड के मान के बारे में कोई अतिरिक्त जानकारी प्रदान करता है।<ref name=Fisher1922>{{cite journal
  | last=Fisher | first=R.A. |author-link=Ronald Fisher
  | last=Fisher | first=R.A. |author-link=Ronald Fisher
  | journal= Philosophical Transactions of the Royal Society A
  | journal= Philosophical Transactions of the Royal Society A
Line 7: Line 7:
  | url=http://digital.library.adelaide.edu.au/dspace/handle/2440/15172
  | url=http://digital.library.adelaide.edu.au/dspace/handle/2440/15172
  | jstor=91208 | jfm = 48.1280.02 |doi=10.1098/rsta.1922.0009
  | jstor=91208 | jfm = 48.1280.02 |doi=10.1098/rsta.1922.0009
| bibcode=1922RSPTA.222..309F | doi-access=free }}</ref> विशेष रूप से, एक आँकड़ा संभाव्यता वितरण के [[पैरामीट्रिक परिवार]] के लिए पर्याप्त है यदि जिस नमूने से इसकी गणना की जाती है वह आँकड़े के अलावा कोई अतिरिक्त जानकारी नहीं देता है, कि उन संभाव्यता वितरणों में से कौन सा नमूना वितरण है।
| bibcode=1922RSPTA.222..309F | doi-access=free }}</ref> विशेष रूप से, सांख्यिकी संभाव्यता वितरण के [[पैरामीट्रिक परिवार|पैरामीट्रिक वर्ग]] के लिए पर्याप्त है यदि जिस प्रतिरूप से इसकी गणना की जाती है वह सांख्यिकी के अतिरिक्त कोई अतिरिक्त जानकारी नहीं देता है, कि उन संभाव्यता वितरणों में से कौन सा प्रतिरूप वितरण है।


एक संबंधित अवधारणा रैखिक पर्याप्तता की है, जो ''पर्याप्तता'' से कमजोर है लेकिन इसे कुछ मामलों में लागू किया जा सकता है जहां पर्याप्त आंकड़े नहीं हैं, हालांकि यह रैखिक अनुमानकों तक ही सीमित है।<ref>Dodge, Y. (2003) — entry for linear sufficiency</ref> [[कोलमोगोरोव संरचना कार्य]] व्यक्तिगत परिमित डेटा से संबंधित है; संबंधित धारणा एल्गोरिथम पर्याप्त आँकड़ा है।
संबंधित अवधारणा रैखिक पर्याप्तता की है, जो ''पर्याप्तता'' से अशक्त है किन्तु इसे कुछ स्थितियों में प्रयुक्त किया जा सकता है जहां पर्याप्त सांख्यिकी नहीं हैं, चूँकि यह रैखिक अनुमानकों तक ही सीमित है।<ref>Dodge, Y. (2003) — entry for linear sufficiency</ref> [[कोलमोगोरोव संरचना कार्य]] व्यक्तिगत परिमित डेटा से संबंधित है; संबंधित धारणा एल्गोरिथम पर्याप्त सांख्यिकी है।


यह अवधारणा 1920 में [[रोनाल्ड फिशर]] की देन है। स्टीफन स्टिगलर ने 1973 में उल्लेख किया था कि वितरणात्मक रूप की धारणा पर मजबूत निर्भरता के कारण वर्णनात्मक आंकड़ों में पर्याप्तता की अवधारणा पक्ष से बाहर हो गई है (देखें #एक्सपोनेंशियल परिवार|पिटमैन-कूपमैन- डार्मोइस प्रमेय नीचे), लेकिन सैद्धांतिक कार्य में बहुत महत्वपूर्ण रहा।<ref name=Stigler1973>{{cite journal
यह अवधारणा 1920 में [[रोनाल्ड फिशर]] की देन है। स्Tफन स्टिगलर ने 1973 में उल्लेख किया था कि वितरणात्मक रूप की धारणा पर सशक्त निर्भरता के कारण वर्णनात्मक सांख्यिकी में पर्याप्तता की अवधारणा पक्ष से बाहर हो गई है (देखें xपोनेंशियल वर्ग या पिटमैन-कूपमैन- डार्मोइस प्रमेय नीचे), किन्तु सैद्धांतिक कार्य में बहुत महत्वपूर्ण रहा था।<ref name=Stigler1973>{{cite journal
  | last = Stigler
  | last = Stigler
  | first = Stephen
  | first = Stephen
Line 24: Line 24:
  | mr = 0326872 | jstor = 2334992
  | mr = 0326872 | jstor = 2334992
  }}</ref>
  }}</ref>
==पृष्ठभूमि                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                ==
सामान्यतः, समुच्चय <math> \mathbf{X}</math> दिया गया है अज्ञात मापदंड पर वातानुकूलित स्वतंत्र समान रूप से वितरित डेटा का <math>\theta</math>, पर्याप्त सांख्यिकी फलन <math>T(\mathbf{X})</math> है जिसके मान में मापदंड के किसी भी अनुमान की गणना करने के लिए आवश्यक सभी जानकारी सम्मिलित है (उदाहरण के लिए अधिकतम संभावना अनुमान)। गुणनखंडन प्रमेय (फिशर-नेमैन गुणनखंडन प्रमेय) के कारण, पर्याप्त सांख्यिकी के लिए <math>T(\mathbf{X})</math>, संभाव्यता घनत्व <math>f_{\mathbf{X}}(x) = h(x) \, g(\theta, T(x))</math> को इस प्रकार लिखा जा सकता है . इस गुणनखंड से, यह सरलता से देखा जा सकता है कि अधिकतम संभावना का अनुमान <math>\theta</math> है तथा <math>\mathbf{X}</math> के साथ इंटरैक्ट करेंगे केवल अन्दर से <math>T(\mathbf{X})</math>. सामान्यतः, पर्याप्त सांख्यिकी डेटा का सरल कार्य है, उदाहरण सभी डेटा बिंदुओं का योग उपयुक्त होता है.


अधिक सामान्यतः, अज्ञात मापदंड अज्ञात मात्राओं के [[यूक्लिडियन वेक्टर|यूक्लिडियन सदिश]] का प्रतिनिधित्व कर सकता है या मॉडल के बारे में सब कुछ का प्रतिनिधित्व कर सकता है जो अज्ञात है या पूरी तरह से निर्दिष्ट नहीं है। ऐसे स्थिति में, पर्याप्त सांख्यिकी कार्यों का समूह हो सकता है, जिसे संयुक्त रूप से पर्याप्त सांख्यिकी कहा जाता है। सामान्यतः, जितने मापदंड होते हैं उतने ही फलन होते हैं। उदाहरण के लिए, अज्ञात माध्य और विवेरिएबल ण वाले [[गाऊसी वितरण]] के लिए, संयुक्त रूप से पर्याप्त सांख्यिकी, जिससे दोनों मापदंडों की अधिकतम संभावना का अनुमान लगाया जा सकता है, इसमें दो फलन सम्मिलित हैं, सभी डेटा बिंदुओं का योग और सभी वर्ग डेटा बिंदुओं का योग (या समकक्ष, [[नमूना माध्य|प्रतिरूप माध्य]] और [[नमूना विचरण|प्रतिरूप विवेरिएबल ण]]) है।


==पृष्ठभूमि==
दूसरे शब्दों में, 'डेटा का [[संयुक्त संभाव्यता वितरण]] मापदंड के लिए पर्याप्त सांख्यिकी के मान को देखते हुए मापदंड से नियमबद्ध रूप से स्वतंत्र है।' सांख्यिकी और अंतर्निहित मापदंड दोनों सदिश हो सकते हैं।
मोटे तौर पर, एक सेट दिया गया <math> \mathbf{X}</math> एक अज्ञात पैरामीटर पर वातानुकूलित स्वतंत्र समान रूप से वितरित डेटा का <math>\theta</math>, एक पर्याप्त आँकड़ा एक फ़ंक्शन है <math>T(\mathbf{X})</math> जिसके मूल्य में पैरामीटर के किसी भी अनुमान की गणना करने के लिए आवश्यक सभी जानकारी शामिल है (उदाहरण के लिए अधिकतम संभावना अनुमान)। गुणनखंडन प्रमेय (#फिशर-नेमैन गुणनखंडन प्रमेय) के कारण, पर्याप्त आंकड़ों के लिए <math>T(\mathbf{X})</math>, संभाव्यता घनत्व को इस प्रकार लिखा जा सकता है <math>f_{\mathbf{X}}(x) = h(x) \, g(\theta, T(x))</math>. इस गुणनखंड से, यह आसानी से देखा जा सकता है कि अधिकतम संभावना का अनुमान है <math>\theta</math> के साथ बातचीत करेंगे <math>\mathbf{X}</math> केवल भीतर से <math>T(\mathbf{X})</math>. आमतौर पर, पर्याप्त आँकड़ा डेटा का एक सरल कार्य है, उदा। सभी डेटा बिंदुओं का योग.


अधिक आम तौर पर, अज्ञात पैरामीटर अज्ञात मात्राओं के [[यूक्लिडियन वेक्टर]] का प्रतिनिधित्व कर सकता है या मॉडल के बारे में सब कुछ का प्रतिनिधित्व कर सकता है जो अज्ञात है या पूरी तरह से निर्दिष्ट नहीं है। ऐसे मामले में, पर्याप्त आँकड़ा कार्यों का एक समूह हो सकता है, जिसे संयुक्त रूप से पर्याप्त आँकड़ा कहा जाता है। आमतौर पर, जितने पैरामीटर होते हैं उतने ही फ़ंक्शन होते हैं। उदाहरण के लिए, अज्ञात माध्य और विचरण वाले [[गाऊसी वितरण]] के लिए, संयुक्त रूप से पर्याप्त आँकड़ा, जिससे दोनों मापदंडों की अधिकतम संभावना का अनुमान लगाया जा सकता है, इसमें दो फ़ंक्शन शामिल हैं, सभी डेटा बिंदुओं का योग और सभी वर्ग डेटा बिंदुओं का योग ( या समकक्ष, [[नमूना माध्य]] और [[नमूना विचरण]])।
==गणितीय परिभाषा                                          ==


दूसरे शब्दों में, 'डेटा का [[संयुक्त संभाव्यता वितरण]] पैरामीटर के लिए पर्याप्त आंकड़ों के मूल्य को देखते हुए पैरामीटर से सशर्त रूप से स्वतंत्र है।' आँकड़े और अंतर्निहित पैरामीटर दोनों वेक्टर हो सकते हैं।
सांख्यिकी t = T(X) 'अंतर्निहित मापदंड θ के लिए पर्याप्त' है, यदि डेटा X का [[सशर्त संभाव्यता वितरण|नियमबद्ध संभाव्यता वितरण]], सांख्यिकी t = T(X) दिया गया है, मापदंड θ पर निर्भर नहीं करता है।<ref name="CasellaBerger">{{cite book | last = Casella | first = George |author2=Berger, Roger L.  | title = Statistical Inference, 2nd ed | publisher=Duxbury Press | year = 2002}}</ref> वैकल्पिक रूप से, कोई यह कह सकता है कि सांख्यिकी T(X) θ के लिए पर्याप्त है यदि θ के साथ इसकी पारस्परिक जानकारी X और θ के बीच पारस्परिक जानकारी के समान है।<ref>{{Cite book|last=Cover|first=Thomas M.|title=सूचना सिद्धांत के तत्व|date=2006|publisher=Wiley-Interscience|others=Joy A. Thomas|isbn=0-471-24195-4|edition=2nd|location=Hoboken, N.J.|pages=36|oclc=59879802}}</ref> दूसरे शब्दों में, [[डेटा प्रोसेसिंग असमानता]] समानता बन जाती है:
 
==गणितीय परिभाषा==
 
एक आँकड़ा t = T(X) 'अंतर्निहित पैरामीटर θ के लिए पर्याप्त' है, यदि डेटा X का [[सशर्त संभाव्यता वितरण]], आँकड़ा t = T(X) दिया गया है, पैरामीटर θ पर निर्भर नहीं करता है।<ref name="CasellaBerger">{{cite book | last = Casella | first = George |author2=Berger, Roger L.  | title = Statistical Inference, 2nd ed | publisher=Duxbury Press | year = 2002}}</ref>
वैकल्पिक रूप से, कोई यह कह सकता है कि आँकड़ा T(X) θ के लिए पर्याप्त है यदि θ के साथ इसकी पारस्परिक जानकारी X और θ के बीच पारस्परिक जानकारी के बराबर है।<ref>{{Cite book|last=Cover|first=Thomas M.|title=सूचना सिद्धांत के तत्व|date=2006|publisher=Wiley-Interscience|others=Joy A. Thomas|isbn=0-471-24195-4|edition=2nd|location=Hoboken, N.J.|pages=36|oclc=59879802}}</ref> दूसरे शब्दों में, [[डेटा प्रोसेसिंग असमानता]] एक समानता बन जाती है:


:<math>I\bigl(\theta ; T(X)\bigr) = I(\theta ; X)</math>
:<math>I\bigl(\theta ; T(X)\bigr) = I(\theta ; X)</math>
===उदाहरण                                  ===
उदाहरण सामान्यतः, प्रतिरूप माध्य ज्ञात विवेरिएबल ण वाले [[सामान्य वितरण]] के माध्य (μ) के लिए पर्याप्त है। प्रतिरूप माध्य ज्ञात हो जाने पर, प्रतिरूप से μ के बारे में कोई और जानकारी प्राप्त नहीं की जा सकती है। दूसरी ओर, इच्छानुसार वितरण के लिए माध्य माध्य के लिए पर्याप्त नहीं है: तथापि प्रतिरूप का माध्य ज्ञात होता है, प्रतिरूप जानने से ही जनसंख्या माध्य के बारे में अधिक जानकारी मिल जाती है। उदाहरण के लिए, यदि माध्यिका से कम प्रेक्षण केवल थोड़े कम हैं, किन्तु माध्यिका से अधिक होने वाले प्रेक्षण इससे बड़ी मात्रा में अधिक हैं, तो इसका जनसंख्या माध्य के बारे में किसी के अनुमान पर प्रभाव पड़ता है।


==फिशर-नेमैन गुणनखंडन प्रमेय                                    ==


===उदाहरण===
रोनाल्ड फिशर का गुणनखंडन प्रमेय या गुणनखंडन मानदंड पर्याप्त सांख्यिकी का सुविधाजनक 'लक्षणीकरण' प्रदान करता है। यदि संभाव्यता घनत्व फलन ƒ<sub>''θ''</sub>(x) है, जिससे T, θ के लिए पर्याप्त है यदि और केवल यदि गैर-ऋणात्मक फलन g और h को ऐसे पाया जा सकता है कि
उदाहरण के तौर पर, नमूना माध्य ज्ञात विचरण वाले [[सामान्य वितरण]] के माध्य (μ) के लिए पर्याप्त है। एक बार नमूना माध्य ज्ञात हो जाने पर, नमूने से μ के बारे में कोई और जानकारी प्राप्त नहीं की जा सकती। दूसरी ओर, एक मनमाना वितरण के लिए माध्य माध्य के लिए पर्याप्त नहीं है: भले ही नमूने का माध्य ज्ञात हो, नमूना जानने से ही जनसंख्या माध्य के बारे में अधिक जानकारी मिल जाएगी। उदाहरण के लिए, यदि माध्यिका से कम प्रेक्षण केवल थोड़े कम हैं, लेकिन माध्यिका से अधिक होने वाले प्रेक्षण इससे बड़ी मात्रा में अधिक हैं, तो इसका जनसंख्या माध्य के बारे में किसी के अनुमान पर असर पड़ेगा।
 
==फिशर-नेमैन गुणनखंडन प्रमेय==
 
रोनाल्ड फिशर|फिशर का गुणनखंडन प्रमेय या गुणनखंडन मानदंड एक पर्याप्त आँकड़े का सुविधाजनक 'लक्षणीकरण' प्रदान करता है। यदि संभाव्यता घनत्व फ़ंक्शन ƒ है<sub>''θ''</sub>(x), तो T, θ के लिए पर्याप्त है यदि और केवल यदि गैर-ऋणात्मक फलन g और h को ऐसे पाया जा सकता है कि


:<math> f_\theta(x)=h(x) \, g_\theta(T(x)), </math>
:<math> f_\theta(x)=h(x) \, g_\theta(T(x)), </math>
यानी घनत्व ƒ को एक उत्पाद में इस तरह से विभाजित किया जा सकता है कि एक कारक, एच, θ पर निर्भर नहीं होता है और दूसरा कारक, जो θ पर निर्भर करता है, केवल T(x) के माध्यम से x पर निर्भर करता है। इसका एक सामान्य प्रमाण हैल्मोस और सैवेज ने दिया था<ref>{{Cite journal |last1=Halmos |first1=P. R. |last2=Savage |first2=L. J. |date=1949 |title=पर्याप्त सांख्यिकी के सिद्धांत के लिए रेडॉन-निकोडिम प्रमेय का अनुप्रयोग|url=http://projecteuclid.org/euclid.aoms/1177730032 |journal=The Annals of Mathematical Statistics |language=en |volume=20 |issue=2 |pages=225–241 |doi=10.1214/aoms/1177730032 |issn=0003-4851}}</ref> और प्रमेय को कभी-कभी हेल्मोस-सैवेज गुणनखंडन प्रमेय के रूप में जाना जाता है।<ref>{{Cite web |title=गुणनखंडन प्रमेय - गणित का विश्वकोश|url=https://encyclopediaofmath.org/wiki/Factorization_theorem |access-date=2022-09-07 |website=encyclopediaofmath.org}}</ref> नीचे दिए गए प्रमाण विशेष मामलों को संभालते हैं, लेकिन उसी तर्ज पर एक वैकल्पिक सामान्य प्रमाण भी दिया जा सकता है।<ref>{{Cite journal |last=Taraldsen |first=G. |date=2022 |title=पर्याप्तता के लिए गुणनखंडन प्रमेय|url= |journal=Preprint |language=en |doi=10.13140/RG.2.2.15068.87687}}</ref> यह देखना आसान है कि यदि F(t) एक-से-एक फ़ंक्शन है और T पर्याप्त है
अर्थात घनत्व ƒ को उत्पाद में इस तरह से विभाजित किया जा सकता है कि कारक, H, θ पर निर्भर नहीं होता है और दूसरा कारक, जो θ पर निर्भर करता है, केवल T(x) के माध्यम से x पर निर्भर करता है। इसका सामान्य प्रमाण हैल्मोस और सैवेज ने दिया था <ref>{{Cite journal |last1=Halmos |first1=P. R. |last2=Savage |first2=L. J. |date=1949 |title=पर्याप्त सांख्यिकी के सिद्धांत के लिए रेडॉन-निकोडिम प्रमेय का अनुप्रयोग|url=http://projecteuclid.org/euclid.aoms/1177730032 |journal=The Annals of Mathematical Statistics |language=en |volume=20 |issue=2 |pages=225–241 |doi=10.1214/aoms/1177730032 |issn=0003-4851}}</ref> और प्रमेय को कभी-कभी हेल्मोस-सैवेज गुणनखंडन प्रमेय के रूप में जाना जाता है।<ref>{{Cite web |title=गुणनखंडन प्रमेय - गणित का विश्वकोश|url=https://encyclopediaofmath.org/wiki/Factorization_theorem |access-date=2022-09-07 |website=encyclopediaofmath.org}}</ref> नीचे दिए गए प्रमाण विशेष स्थितियों को संभालते हैं, किन्तु उसी पंक्तियां पर वैकल्पिक सामान्य प्रमाण भी दिया जा सकता है।<ref>{{Cite journal |last=Taraldsen |first=G. |date=2022 |title=पर्याप्तता के लिए गुणनखंडन प्रमेय|url= |journal=Preprint |language=en |doi=10.13140/RG.2.2.15068.87687}}</ref> यह देखना आसान है कि यदि F(t) वन-से-वन फलन है और T पर्याप्त है सांख्यिकी, तो F(T) पर्याप्त सांख्यिकी है। विशेष रूप से हम a को गुणा कर सकते हैं गैर शून्य स्थिरांक द्वारा पर्याप्त सांख्यिकी और अन्य पर्याप्त सांख्यिकी प्राप्त करते है।
आँकड़ा, तो F(T) एक पर्याप्त आँकड़ा है। विशेष रूप से हम a को गुणा कर सकते हैं
एक गैरशून्य स्थिरांक द्वारा पर्याप्त आँकड़ा और एक अन्य पर्याप्त आँकड़ा प्राप्त करें।


===संभावना सिद्धांत व्याख्या===
===संभावना सिद्धांत व्याख्या                                         ===
प्रमेय का एक निहितार्थ यह है कि संभावना-आधारित अनुमान का उपयोग करते समय, पर्याप्त आंकड़े टी (एक्स) के लिए समान मान उत्पन्न करने वाले डेटा के दो सेट हमेशा θ के बारे में समान अनुमान उत्पन्न करेंगे। गुणनखंडन मानदंड के अनुसार, θ पर संभावना की निर्भरता केवल T(X) के संयोजन में है। चूँकि यह दोनों मामलों में समान है, θ पर निर्भरता भी समान होगी, जिससे समान निष्कर्ष निकलेंगे।
प्रमेय का निहितार्थ यह है कि संभावना-आधारित अनुमान का उपयोग करते समय, पर्याप्त सांख्यिकी T (x) के लिए समान मान उत्पन्न करने वाले डेटा के दो समुच्चय सदैव θ के बारे में समान अनुमान उत्पन्न करते है। गुणनखंडन मानदंड के अनुसार, θ पर संभावना की निर्भरता केवल T(X) के संयोजन में है। चूँकि यह दोनों स्थितियों में समान है, θ पर निर्भरता भी समान होगी, जिससे समान निष्कर्ष निकलते है।


===प्रमाण===
===प्रमाण ===
हॉग और क्रेग के कारण.<ref name="HoggCraig">{{cite book | last = Hogg | first = Robert V. |author2=Craig, Allen T.  | title = गणितीय सांख्यिकी का परिचय| publisher=Prentice Hall | year = 1995 | isbn=978-0-02-355722-4}}</ref> होने देना <math>X_1, X_2, \ldots, X_n</math>, ι < θ < δ के लिए संभाव्यता घनत्व फ़ंक्शन f(x, θ) वाले वितरण से एक यादृच्छिक नमूना निरूपित करें। चलो वाई<sub>1</sub>= में<sub>1</sub>(एक्स<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>''n''</sub>) एक आँकड़ा बनें जिसका पीडीएफ जी है<sub>1</sub>(और<sub>1</sub>; θ). हम जो साबित करना चाहते हैं वह यह है कि वाई<sub>1</sub>= में<sub>1</sub>(एक्स<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>''n''</sub>) θ के लिए एक पर्याप्त आँकड़ा है यदि और केवल यदि, किसी फ़ंक्शन H के लिए,
हॉग और क्रेग के कारण.<ref name="HoggCraig">{{cite book | last = Hogg | first = Robert V. |author2=Craig, Allen T.  | title = गणितीय सांख्यिकी का परिचय| publisher=Prentice Hall | year = 1995 | isbn=978-0-02-355722-4}}</ref> मान लीजिए <math>X_1, X_2, \ldots, X_n</math>, ι < θ < δ के लिए संभाव्यता घनत्व फलन f(x, θ) वाले वितरण से यादृच्छिक प्रतिरूप निरूपित करें। माना Y<sub>1</sub>= I<sub>1</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>) सांख्यिकी बनें जिसका पीडीएफ g<sub>1</sub> है (y<sub>1</sub>; θ). हम जो सिद्ध करना चाहते हैं वह यह है कि Y<sub>1</sub>= I<sub>1</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>) θ के लिए पर्याप्त सांख्यिकी है यदि और केवल यदि, किसी फलन H के लिए है


:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n). </math>
:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n).                                                         </math>
सबसे पहले, मान लीजिए
सबसे पहले, मान लीजिए
:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n). </math>
:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n). </math>
हम परिवर्तन करेंगे y<sub>''i''</sub>= में<sub>i</sub>(एक्स<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>''n''</sub>), i = 1, ..., n के लिए, जिसमें व्युत्क्रम फलन x है<sub>''i''</sub>= डब्ल्यू<sub>''i''</sub>(और<sub>1</sub>, और<sub>2</sub>, ..., और<sub>''n''</sub>), i = 1, ..., n, और [[जैकोबियन मैट्रिक्स और निर्धारक]] के लिए <math> J = \left[w_i/y_j \right] </math>. इस प्रकार,
हम परिवर्तन करेंगे y<sub>''i''</sub>= I<sub>i</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>), i = 1, ..., n के लिए, जिसमें व्युत्क्रम फलन x<sub>''i''</sub>= w<sub>''i''</sub>(y<sub>1</sub>, y<sub>2</sub>, ..., y<sub>''n''</sub>), i = 1, ..., n है, और [[जैकोबियन मैट्रिक्स और निर्धारक|जैकोबियन आव्यूह और निर्धारक]] के लिए <math> J = \left[w_i/y_j \right] </math>. इस प्रकार,


:<math>
:<math>
Line 68: Line 61:
  |J| g_1 (y_1; \theta) H \left[ w_1(y_1, y_2, \dots, y_n), \dots, w_n(y_1, y_2, \dots, y_n) \right].
  |J| g_1 (y_1; \theta) H \left[ w_1(y_1, y_2, \dots, y_n), \dots, w_n(y_1, y_2, \dots, y_n) \right].
</math>
</math>
बाएँ हाथ का सदस्य संयुक्त पीडीएफ g(y) है<sub>1</sub>, और<sub>2</sub>, ..., और<sub>''n''</sub>; θ) का Y<sub>1</sub> = यू<sub>1</sub>(एक्स<sub>1</sub>, ..., एक्स<sub>''n''</sub>), ..., और<sub>''n''</sub> = यू<sub>''n''</sub>(एक्स<sub>1</sub>, ..., एक्स<sub>''n''</sub>). दाहिने हाथ के सदस्य में, <math>g_1(y_1;\theta)</math> का पीडीएफ है <math>Y_1</math>, ताकि <math>H[ w_1, \dots , w_n] |J|</math> का भागफल है <math>g(y_1,\dots,y_n;\theta)</math> और <math>g_1(y_1;\theta)</math>; अर्थात्, यह सशर्त पीडीएफ है <math>h(y_2, \dots, y_n \mid  y_1; \theta)</math> का <math>Y_2,\dots,Y_n</math> दिया गया <math>Y_1=y_1</math>.
बाएँ हाथ का सदस्य संयुक्त पीडीएफ g(y)<sub>1</sub>, y<sub>2</sub>, ..., y<sub>''n''</sub>; θ) का Y<sub>1</sub> = u<sub>1</sub>(x<sub>1</sub>, ..., x<sub>''n''</sub>), ..., y<sub>''n''</sub> = u<sub>''n''</sub>(x<sub>1</sub>, ..., x<sub>''n''</sub>) है. दाहिने हाथ के सदस्य में, <math>g_1(y_1;\theta)</math> का पीडीएफ <math>Y_1</math> है, जिससे <math>H[ w_1, \dots , w_n] |J|</math> का भागफल <math>g(y_1,\dots,y_n;\theta)</math> और <math>g_1(y_1;\theta)</math>; है अर्थात्, यह नियमबद्ध पीडीएफ <math>h(y_2, \dots, y_n \mid  y_1; \theta)</math> का <math>Y_2,\dots,Y_n</math> है और दिया गया <math>Y_1=y_1</math> है


लेकिन <math>H(x_1,x_2,\dots,x_n)</math>, और इस तरह <math>H\left[w_1(y_1,\dots,y_n), \dots, w_n(y_1, \dots, y_n))\right]</math>, पर निर्भर न रहने के लिए दिया गया था <math>\theta</math>. तब से <math>\theta</math> परिवर्तन में पेश नहीं किया गया था और तदनुसार जैकोबियन में नहीं <math>J</math>, यह इस प्रकार है कि <math>h(y_2, \dots, y_n \mid y_1; \theta)</math> पर निर्भर नहीं है <math>\theta</math> ओर वो <math>Y_1</math> के लिए पर्याप्त आँकड़े हैं <math>\theta</math>.
किन्तु <math>H(x_1,x_2,\dots,x_n)</math>, और इस तरह <math>H\left[w_1(y_1,\dots,y_n), \dots, w_n(y_1, \dots, y_n))\right]</math>, पर निर्भर न रहने के लिए <math>\theta</math> दिया गया था . तब से <math>\theta</math> परिवर्तन में प्रस्तुत नहीं किया गया था और तदनुसार जैकोबियन में <math>J</math> नहीं है , यह इस प्रकार है कि <math>h(y_2, \dots, y_n \mid y_1; \theta)</math> पर निर्भर नहीं है <math>\theta</math> ओर वो <math>Y_1</math> के लिए पर्याप्त सांख्यिकी <math>\theta</math> हैं .


इसका विपरीत निम्नलिखित लेकर सिद्ध किया जाता है:
इसका विपरीत निम्नलिखित लेकर सिद्ध किया जाता है:


:<math>g(y_1,\dots,y_n;\theta)=g_1(y_1; \theta) h(y_2, \dots, y_n \mid y_1),</math>
:<math>g(y_1,\dots,y_n;\theta)=g_1(y_1; \theta) h(y_2, \dots, y_n \mid y_1),</math>
कहाँ <math>h(y_2, \dots, y_n \mid y_1)</math> पर निर्भर नहीं है <math>\theta</math> क्योंकि <math>Y_2 ... Y_n</math> पर ही निर्भर हैं <math>X_1 ... X_n</math>, जो पर स्वतंत्र हैं <math>\Theta</math> जब द्वारा वातानुकूलित किया जाता है <math>Y_1</math>, परिकल्पना द्वारा पर्याप्त आँकड़े। अब दोनों सदस्यों को गैर-लुप्त होने वाले जैकोबियन के पूर्ण मूल्य से विभाजित करें <math>J</math>, और प्रतिस्थापित करें <math>y_1, \dots, y_n</math> कार्यों द्वारा <math>u_1(x_1, \dots, x_n), \dots, u_n(x_1,\dots, x_n)</math> में <math>x_1,\dots, x_n</math>. यह प्रदान करता है
जहाँ <math>h(y_2, \dots, y_n \mid y_1)</math> पर निर्भर <math>\theta</math> नहीं है क्योंकि <math>Y_2 ... Y_n</math> पर ही निर्भर <math>X_1 ... X_n</math> हैं , जो <math>\Theta</math> पर स्वतंत्र हैं जब द्वारा वातानुकूलित <math>Y_1</math> किया जाता है , परिकल्पना द्वारा पर्याप्त सांख्यिकी अब दोनों सदस्यों को गैर-लुप्त होने वाले जैकोबियन के पूर्ण मान <math>J</math> से विभाजित करें , और प्रतिस्थापित करें <math>y_1, \dots, y_n</math> कार्यों द्वारा <math>u_1(x_1, \dots, x_n), \dots, u_n(x_1,\dots, x_n)</math> में <math>x_1,\dots, x_n</math>. यह प्रदान करता है


:<math>\frac{g\left[ u_1(x_1, \dots, x_n), \dots, u_n(x_1, \dots, x_n); \theta \right]}{|J^*|}=g_1\left[u_1(x_1,\dots,x_n); \theta\right] \frac{h(u_2, \dots, u_n \mid u_1)}{|J^*|}</math>
:<math>\frac{g\left[ u_1(x_1, \dots, x_n), \dots, u_n(x_1, \dots, x_n); \theta \right]}{|J^*|}=g_1\left[u_1(x_1,\dots,x_n); \theta\right] \frac{h(u_2, \dots, u_n \mid u_1)}{|J^*|}</math>
कहाँ <math>J^*</math> जैकोबियन के साथ है <math>y_1,\dots,y_n</math> उनके मान के अनुसार प्रतिस्थापित किया गया <math>x_1, \dots, x_n</math>. बाएँ हाथ का सदस्य आवश्यक रूप से संयुक्त पीडीएफ है <math>f(x_1;\theta)\cdots f(x_n;\theta)</math> का <math>X_1,\dots,X_n</math>. तब से <math>h(y_2,\dots,y_n\mid y_1)</math>, और इस तरह <math>h(u_2,\dots,u_n\mid u_1)</math>, पर निर्भर नहीं है <math>\theta</math>, तब
जहाँ <math>J^*</math> जैकोबियन <math>y_1,\dots,y_n</math> के साथ है उनके मान के अनुसार प्रतिस्थापित किया गया <math>x_1, \dots, x_n</math> है बाएँ हाथ का सदस्य आवश्यक रूप से संयुक्त पीडीएफ <math>f(x_1;\theta)\cdots f(x_n;\theta)</math> का <math>X_1,\dots,X_n</math> है. तब से <math>h(y_2,\dots,y_n\mid y_1)</math>, और इस तरह <math>h(u_2,\dots,u_n\mid u_1)</math>, पर निर्भर <math>\theta</math> नहीं है , तब


:<math>H(x_1,\dots,x_n)=\frac{h(u_2,\dots,u_n\mid u_1)}{|J^*|}</math>
:<math>H(x_1,\dots,x_n)=\frac{h(u_2,\dots,u_n\mid u_1)}{|J^*|}</math>
एक ऐसा फ़ंक्शन है जो निर्भर नहीं करता है <math>\theta</math>.
ऐसा फलन है जो निर्भर <math>\theta</math> नहीं करता है .


===एक और प्रमाण===
===और प्रमाण===
एक सरल और अधिक उदाहरणात्मक प्रमाण इस प्रकार है, हालाँकि यह केवल अलग मामले में ही लागू होता है।
सरल और अधिक उदाहरणात्मक प्रमाण इस प्रकार है, चूँकि यह केवल भिन्न  स्थिति में ही प्रयुक्त होता है।


हम संयुक्त संभाव्यता घनत्व को दर्शाने के लिए शॉर्टहैंड नोटेशन का उपयोग करते हैं <math>(X, T(X))</math> द्वारा <math>f_\theta(x,t)</math>. तब से <math>T</math> का एक कार्य है <math>X</math>, अपने पास <math>f_\theta(x,t) = f_\theta(x)</math>, जब तक कि <math>t = T(x)</math> और अन्यथा शून्य. इसलिए:
हम संयुक्त संभाव्यता घनत्व को दर्शाने के लिए शॉर्टहैंड नोटेशन का उपयोग करते हैं इस प्रकार <math>(X, T(X))</math> द्वारा <math>f_\theta(x,t)</math>. तब से <math>T</math> का कार्य <math>X</math> है , अपने पास <math>f_\theta(x,t) = f_\theta(x)</math>, जब तक कि <math>t = T(x)</math> और अन्यथा शून्य है इसलिए:


:<math>
:<math>
Line 95: Line 88:
\end{align}
\end{align}
</math>
</math>
पर्याप्त आँकड़ों की परिभाषा के अनुसार अंतिम समानता सत्य है। इस प्रकार <math>f_\theta(x)=a(x) b_\theta(t)</math> साथ <math>a(x) = f_{X \mid t}(x)</math> और <math>b_\theta(t) = f_\theta(t)</math>.
पर्याप्त सांख्यिकी की परिभाषा के अनुसार अंतिम समानता सत्य है। इस प्रकार <math>f_\theta(x)=a(x) b_\theta(t)</math> साथ <math>a(x) = f_{X \mid t}(x)</math> और <math>b_\theta(t) = f_\theta(t)</math> है


इसके विपरीत, यदि <math>f_\theta(x)=a(x) b_\theta(t)</math>, अपने पास
इसके विपरीत, यदि <math>f_\theta(x)=a(x) b_\theta(t)</math>, अपने पास
Line 105: Line 98:
& = \sum _{x : T(x) = t} a(x) b_\theta(t) \\[5pt]
& = \sum _{x : T(x) = t} a(x) b_\theta(t) \\[5pt]
& = \left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t).
& = \left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t).
\end{align}</math>
\end{align}                                                                                                                                                                                                   </math>
पहली समानता संभाव्यता घनत्व फ़ंक्शन द्वारा # कई चर के साथ जुड़े संभाव्यता फ़ंक्शन द्वारा, दूसरी उपरोक्त टिप्पणी द्वारा, तीसरी परिकल्पना द्वारा, और चौथी क्योंकि सारांश समाप्त नहीं हुआ है <math>t</math>.
पहली समानता संभाव्यता घनत्व फलन द्वारा अनेक वेरिएबल  के साथ जुड़े संभाव्यता फलन द्वारा, दूसरी उपरोक्त टिप्पणी द्वारा, तीसरी परिकल्पना द्वारा, और चौथी क्योंकि सारांश समाप्त <math>t</math> नहीं हुआ है .


होने देना <math>f_{X\mid t}(x)</math> की सशर्त संभाव्यता घनत्व को निरूपित करें <math>X</math> दिया गया <math>T(X)</math>. तब हम इसके लिए एक स्पष्ट अभिव्यक्ति प्राप्त कर सकते हैं:
मान लीजिए <math>f_{X\mid t}(x)</math> की नियमबद्ध संभाव्यता घनत्व <math>X</math> को निरूपित करें दिया गया <math>T(X)</math> है तब हम इसके लिए स्पष्ट अभिव्यक्ति प्राप्त कर सकते हैं:
:<math>
:<math>
\begin{align}
\begin{align}
Line 116: Line 109:
& = \frac{a(x) b_\theta(t)}{\left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t)} \\[5pt]
& = \frac{a(x) b_\theta(t)}{\left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t)} \\[5pt]
& = \frac{a(x)}{\sum _{x : T(x) = t} a(x)}.
& = \frac{a(x)}{\sum _{x : T(x) = t} a(x)}.
\end{align}</math>
\end{align}                                                                                                                                                                                             </math>
पहली समानता सशर्त संभाव्यता घनत्व की परिभाषा से, दूसरी उपरोक्त टिप्पणी से, तीसरी समानता ऊपर सिद्ध द्वारा, और चौथी सरलीकरण द्वारा। यह अभिव्यक्ति निर्भर नहीं करती <math>\theta</math> और इस तरह <math>T</math> पर्याप्त आँकड़ा है.<ref>{{cite web | url=http://cnx.org/content/m11480/1.6/ | title=The Fisher–Neyman Factorization Theorem}}. Webpage at Connexions (cnx.org)</ref>
पहली समानता नियमबद्ध संभाव्यता घनत्व की परिभाषा से, दूसरी उपरोक्त टिप्पणी से, तीसरी समानता ऊपर सिद्ध द्वारा, और चौथी सरलीकरण द्वारा यह अभिव्यक्ति निर्भर नहीं करती <math>\theta</math> और इस तरह <math>T</math> पर्याप्त सांख्यिकी है.<ref>{{cite web | url=http://cnx.org/content/m11480/1.6/ | title=The Fisher–Neyman Factorization Theorem}}. Webpage at Connexions (cnx.org)</ref>
 
 
==न्यूनतम पर्याप्तता==
==न्यूनतम पर्याप्तता==
एक पर्याप्त आँकड़ा न्यूनतम पर्याप्त है यदि इसे किसी अन्य पर्याप्त आँकड़े के कार्य के रूप में दर्शाया जा सकता है। दूसरे शब्दों में, ''S''(''X'') न्यूनतम पर्याप्त है यदि और केवल यदि<ref>Dodge (2003) — entry for minimal sufficient statistics</ref>
पर्याप्त सांख्यिकी न्यूनतम पर्याप्त है यदि इसे किसी अन्य पर्याप्त सांख्यिकी के कार्य के रूप में दर्शाया जा सकता है। दूसरे शब्दों में, ''S''(''X'') न्यूनतम पर्याप्त है यदि और केवल यदि <ref>Dodge (2003) — entry for minimal sufficient statistics</ref>
#S(X) पर्याप्त है, और
#S(X) पर्याप्त है, और
#यदि T(X) पर्याप्त है, तो एक फ़ंक्शन f मौजूद है जैसे कि S(X) = f(T(X))
#यदि T(X) पर्याप्त है, तो फलन f उपस्थित है जैसे कि S(X) = f(T(X)) है।


सहज रूप से, एक न्यूनतम पर्याप्त आँकड़ा सबसे कुशलता से पैरामीटर θ के बारे में सभी संभावित जानकारी प्राप्त करता है।
सामान्यतः, न्यूनतम पर्याप्त सांख्यिकी सबसे कुशलता से मापदंड θ के बारे में सभी संभावित जानकारी प्राप्त करता है।


न्यूनतम पर्याप्तता का एक उपयोगी लक्षण वर्णन यह है कि जब घनत्व f<sub>θ</sub> अस्तित्व में है, S(X) 'न्यूनतम पर्याप्त' है यदि और केवल यदि
न्यूनतम पर्याप्तता का उपयोगी लक्षण वर्णन यह है कि जब घनत्व f<sub>θ</sub> अस्तित्व में है, S(X) 'न्यूनतम पर्याप्त' है यदि और केवल यदि
:<math>\frac{f_\theta(x)}{f_\theta(y)}</math> θ से स्वतंत्र है:<math>\Longleftrightarrow</math> एस(एक्स) = एस(वाई)
:<math>\frac{f_\theta(x)}{f_\theta(y)}</math> θ से स्वतंत्र है:<math>\Longleftrightarrow</math> s(x) = s(Y)


यह ऊपर बताए गए #फिशर-नेमैन गुणनखंडन प्रमेय|फिशर के गुणनखंडन प्रमेय के परिणाम के रूप में अनुसरण करता है।
यह ऊपर बताए गए फिशर-नेमैन गुणनखंडन प्रमेय|फिशर के गुणनखंडन प्रमेय के परिणाम के रूप में अनुसरण करता है।


एक ऐसा मामला जिसमें कोई न्यूनतम पर्याप्त आँकड़ा नहीं है, बहादुर द्वारा 1954 में दिखाया गया था।<ref>Lehmann and Casella (1998), ''Theory of Point Estimation'', 2nd Edition, Springer, p 37</ref> हालाँकि, हल्की परिस्थितियों में, एक न्यूनतम पर्याप्त आँकड़ा हमेशा मौजूद रहता है। विशेष रूप से, यूक्लिडियन अंतरिक्ष में, ये स्थितियाँ हमेशा लागू रहती हैं यदि यादृच्छिक चर (के साथ जुड़े)<math>P_\theta</math> ) सभी असतत हैं या सभी निरंतर हैं।
ऐसा स्थिति जिसमें कोई न्यूनतम पर्याप्त सांख्यिकी नहीं है, बहादुर द्वारा 1954 में दिखाया गया था।<ref>Lehmann and Casella (1998), ''Theory of Point Estimation'', 2nd Edition, Springer, p 37</ref> चूँकि, हल्की परिस्थितियों में, न्यूनतम पर्याप्त सांख्यिकी सदैव उपस्थित रहता है। विशेष रूप से, यूक्लिडियन अंतरिक्ष में, ये स्थितियाँ सदैव प्रयुक्त रहती हैं यदि यादृच्छिक वेरिएबल  (के साथ जुड़े) <math>P_\theta</math> ) सभी असतत हैं या सभी निरंतर हैं।


यदि कोई न्यूनतम पर्याप्त आँकड़ा मौजूद है, और यह आमतौर पर मामला है, तो प्रत्येक पूर्णता (आँकड़े) पर्याप्त आँकड़ा आवश्यक रूप से न्यूनतम पर्याप्त है<ref>Lehmann and Casella (1998), ''Theory of Point Estimation'', 2nd Edition, Springer, page 42</ref>(ध्यान दें कि यह कथन एक पैथोलॉजिकल मामले को बाहर नहीं करता है जिसमें पूर्ण पर्याप्त मौजूद है जबकि कोई न्यूनतम पर्याप्त आँकड़ा नहीं है)। हालाँकि ऐसे मामलों को ढूंढना कठिन है जिनमें न्यूनतम पर्याप्त आँकड़ा मौजूद नहीं है, ऐसे मामलों को खोजना इतना कठिन नहीं है जिनमें कोई पूर्ण आँकड़ा मौजूद नहीं है।
यदि कोई न्यूनतम पर्याप्त सांख्यिकी उपस्थित है, और यह सामान्यतः स्थिति है, तो प्रत्येक पूर्णता (सांख्यिकी) पर्याप्त सांख्यिकी आवश्यक रूप से न्यूनतम पर्याप्त है <ref>Lehmann and Casella (1998), ''Theory of Point Estimation'', 2nd Edition, Springer, page 42</ref> (ध्यान दें कि यह कथन पैथोलॉजिकल स्थिति को बाहर नहीं करता है जिसमें पूर्ण पर्याप्त उपस्थित है जबकि कोई न्यूनतम पर्याप्त सांख्यिकी नहीं है)। चूँकि ऐसे स्थितियों को खोजना कठिन है जिनमें न्यूनतम पर्याप्त सांख्यिकी उपस्थित नहीं है, ऐसे स्थितियों को खोजना इतना कठिन नहीं है जिनमें कोई पूर्ण सांख्यिकी उपस्थित नहीं है।


संभाव्यता अनुपातों का संग्रह <math>\left\{\frac{L(X \mid \theta_i)}{L(X \mid \theta_0)}\right\}</math> के लिए <math>i = 1, ..., k</math>, यदि पैरामीटर स्थान असतत है तो न्यूनतम पर्याप्त आँकड़ा है <math>\left\{\theta_0, ..., \theta_k\right\}</math>.
संभाव्यता अनुपातों का संग्रह <math>\left\{\frac{L(X \mid \theta_i)}{L(X \mid \theta_0)}\right\}</math> के लिए <math>i = 1, ..., k</math>, यदि मापदंड स्थान असतत है तो न्यूनतम पर्याप्त सांख्यिकी <math>\left\{\theta_0, ..., \theta_k\right\}</math> है .


==उदाहरण==
==उदाहरण                 ==


===बर्नौली वितरण===
===बर्नौली वितरण===


यदि एक्स<sub>1</sub>, ...., एक्स<sub>''n''</sub> स्वतंत्र [[बर्नौली परीक्षण]] हैं|बर्नौली-वितरित यादृच्छिक चर अपेक्षित मूल्य पी के साथ, फिर योग टी(एक्स) = एक्स<sub>1</sub>+...+एक्स<sub>''n''</sub> पी के लिए एक पर्याप्त आँकड़ा है (यहाँ 'सफलता' एक्स से मेल खाती है<sub>''i''</sub>= 1 और एक्स के लिए 'विफलता'<sub>''i''</sub>= 0; अतः T सफलताओं की कुल संख्या है)
यदि x<sub>1</sub>, ...., x<sub>''n''</sub> स्वतंत्र [[बर्नौली परीक्षण]] हैं बर्नौली-वितरित यादृच्छिक वेरिएबल  अपेक्षित मान p के साथ, फिर योग T(x) = x<sub>1</sub>+...+x<sub>''n''</sub> p के लिए पर्याप्त सांख्यिकी है (यहाँ 'सफलता' x<sub>''i''</sub>= 1 से मेल खाती है और x के लिए 'विफलता'; अतः T<sub>''i''</sub>= 0 सफलताओं की कुल संख्या है)


इसे संयुक्त संभाव्यता वितरण पर विचार करके देखा जाता है:
इसे संयुक्त संभाव्यता वितरण पर विचार करके देखा जाता है:
Line 156: Line 147:
p^{\sum x_i}(1-p)^{n-\sum x_i}=p^{T(x)}(1-p)^{n-T(x)}
p^{\sum x_i}(1-p)^{n-\sum x_i}=p^{T(x)}(1-p)^{n-T(x)}
</math>
</math>
जो गुणनखंडन मानदंड को पूरा करता है, जिसमें h(x)=1 केवल एक स्थिरांक है।
जो गुणनखंडन मानदंड को पूरा करता है, जिसमें h(x)=1 केवल स्थिरांक है।


महत्वपूर्ण विशेषता पर ध्यान दें: अज्ञात पैरामीटर p केवल आँकड़ा T(x) = Σx के माध्यम से डेटा x के साथ इंटरैक्ट करता है<sub>''i''</sub>.
महत्वपूर्ण विशेषता पर ध्यान दें: अज्ञात मापदंड p केवल सांख्यिकी T(x) = Σx के माध्यम से डेटा x के साथ इंटरैक्ट करता है<sub>''i''</sub>.


एक ठोस अनुप्रयोग के रूप में, यह एक निष्पक्ष सिक्के#उचित परिणाम को एक पक्षपाती सिक्के से अलग करने की एक प्रक्रिया देता है।
ठोस अनुप्रयोग के रूप में, यह निष्पक्ष सिक्के उचित परिणाम को पक्षपाती सिक्के से भिन्न  करने की प्रक्रिया देता है।


===यूनिफ़ॉर्म वितरण===
===यूनिफ़ॉर्म वितरण===
{{see also|German tank problem}}
{{see also|जर्मन टैंक समस्या}}
यदि एक्स<sub>1</sub>, ...., एक्स<sub>''n''</sub> अंतराल [0,θ] पर स्वतंत्र और [[समान वितरण (निरंतर)]] हैं, तो T(X) = max(X)<sub>1</sub>, ..., एक्स<sub>''n''</sub>) θ के लिए पर्याप्त है - [[नमूना अधिकतम]] जनसंख्या अधिकतम के लिए पर्याप्त आँकड़ा है।


इसे देखने के लिए, X·(X) के संयुक्त संभाव्यता घनत्व फ़ंक्शन पर विचार करें<sub>1</sub>,...,एक्स<sub>''n''</sub>). क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है
यदि x<sub>1</sub>, ...., x<sub>''n''</sub> अंतराल [0,θ] पर स्वतंत्र और [[समान वितरण (निरंतर)]] हैं, तो T(X) = max(X)<sub>1</sub>, ..., x<sub>''n''</sub>) θ के लिए पर्याप्त है - [[नमूना अधिकतम|प्रतिरूप अधिकतम]] जनसंख्या अधिकतम के लिए पर्याप्त सांख्यिकी है।
 
इसे देखने के लिए, X·(X)<sub>1</sub>,...,x<sub>''n''</sub>). के संयुक्त संभाव्यता घनत्व फलन पर विचार करें क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है


:<math>\begin{align}
:<math>\begin{align}
Line 174: Line 166:
   &= \frac{1}{\theta^n} \mathbf{1}_{\{0\leq\min\{x_i\}\}}\mathbf{1}_{\{\max\{x_i\}\leq\theta\}}
   &= \frac{1}{\theta^n} \mathbf{1}_{\{0\leq\min\{x_i\}\}}\mathbf{1}_{\{\max\{x_i\}\leq\theta\}}
\end{align}</math>
\end{align}</math>
कहां 1<sub>{''...''}</sub> [[सूचक कार्य]] है. इस प्रकार घनत्व फिशर-नेमैन गुणनखंड प्रमेय द्वारा आवश्यक रूप लेता है, जहां h(x)='1'<sub>{min{''x<sub>i</sub>}≥0}</sub>, और शेष अभिव्यक्ति केवल θ और T(x)=max{x का एक फलन है<sub>i</sub>}.
जहाँ 1<sub>{''...''}</sub> [[सूचक कार्य]] है. इस प्रकार घनत्व फिशर-नेमैन गुणनखंड प्रमेय द्वारा आवश्यक रूप लेता है, जहां h(x)='1'<sub>{min{''x<sub>i</sub>}≥0}</sub>, और शेष अभिव्यक्ति केवल θ और T(x)=max{x<sub>i</sub>} का फलन है.


वास्तव में, θ के लिए [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] (एमवीयूई) है
वास्तव में, θ के लिए [[न्यूनतम-विचरण निष्पक्ष अनुमानक|न्यूनतम-विवेरिएबल ण निष्पक्ष अनुमानक]] (एमवीयूई) है


:<math> \frac{n+1}{n}T(X). </math>
:<math> \frac{n+1}{n}T(X). </math>
यह नमूना अधिकतम है, जिसे अनुमानक के पूर्वाग्रह को सही करने के लिए स्केल किया गया है, और लेहमैन-शेफ़े प्रमेय द्वारा एमवीयूई है। अनस्केल्ड नमूना अधिकतम T(X) θ के लिए [[अधिकतम संभावना अनुमानक]] है।
यह प्रतिरूप अधिकतम है, जिसे अनुमानक के पूर्वाग्रह को सही करने के लिए स्केल किया गया है, और लेहमैन-शेफ़े प्रमेय द्वारा एमवीयूई है। अनस्केल्ड प्रतिरूप अधिकतम T(X) θ के लिए [[अधिकतम संभावना अनुमानक]] है।


===समान वितरण (दो मापदंडों के साथ)===
===समान वितरण (दो मापदंडों के साथ)===


अगर <math>X_1,...,X_n</math> अंतराल पर स्वतंत्र और समान वितरण (निरंतर) हैं <math>[\alpha, \beta]</math> (कहाँ <math>\alpha</math> और <math>\beta</math> अज्ञात पैरामीटर हैं), फिर <math>T(X_1^n)=\left(\min_{1 \leq i \leq n}X_i,\max_{1 \leq i \leq n}X_i\right)</math> के लिए एक द्वि-आयामी पर्याप्त आँकड़ा है <math>(\alpha\, , \, \beta)</math>.
यदि <math>X_1,...,X_n</math> अंतराल पर स्वतंत्र और समान वितरण (निरंतर) <math>[\alpha, \beta]</math> हैं (जहाँ <math>\alpha</math> और <math>\beta</math> अज्ञात मापदंड हैं), फिर <math>T(X_1^n)=\left(\min_{1 \leq i \leq n}X_i,\max_{1 \leq i \leq n}X_i\right)</math> के लिए द्वि-आयामी पर्याप्त सांख्यिकी <math>(\alpha\, , \, \beta)</math> है .


इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फ़ंक्शन पर विचार करें <math>X_1^n=(X_1,\ldots,X_n)</math>. क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, यानी।
इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन <math>X_1^n=(X_1,\ldots,X_n)</math> पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।


:<math>\begin{align}
:<math>\begin{align}
Line 193: Line 185:
   &= \left({1 \over \beta-\alpha}\right)^n \mathbf{1}_{ \{ \alpha \, \leq \, \min_{1 \leq i \leq n}X_i \} } \mathbf{1}_{ \{ \max_{1 \leq i \leq n}X_i \, \leq \, \beta \} }.
   &= \left({1 \over \beta-\alpha}\right)^n \mathbf{1}_{ \{ \alpha \, \leq \, \min_{1 \leq i \leq n}X_i \} } \mathbf{1}_{ \{ \max_{1 \leq i \leq n}X_i \, \leq \, \beta \} }.
\end{align}</math>
\end{align}</math>
नमूने का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है


:<math>\begin{align}
:<math>\begin{align}
Line 199: Line 191:
g_{(\alpha, \beta)}(x_1^n)= \left({1 \over \beta-\alpha}\right)^n \mathbf{1}_{ \{ \alpha \, \leq \, \min_{1 \leq i \leq n}X_i \} } \mathbf{1}_{ \{ \max_{1 \leq i \leq n}X_i \, \leq \, \beta \} }.
g_{(\alpha, \beta)}(x_1^n)= \left({1 \over \beta-\alpha}\right)^n \mathbf{1}_{ \{ \alpha \, \leq \, \min_{1 \leq i \leq n}X_i \} } \mathbf{1}_{ \{ \max_{1 \leq i \leq n}X_i \, \leq \, \beta \} }.
\end{align}</math>
\end{align}</math>
तब से <math>h(x_1^n)</math> पैरामीटर पर निर्भर नहीं है <math>(\alpha, \beta)</math> और <math>g_{(\alpha \, , \, \beta)}(x_1^n)</math> पर ही निर्भर करता है <math>x_1^n</math> समारोह के माध्यम से <math>T(X_1^n)= \left(\min_{1 \leq i \leq n}X_i,\max_{1 \leq i \leq n}X_i\right),</math>
तब से <math>h(x_1^n)</math> मापदंड पर निर्भर नहीं है <math>(\alpha, \beta)</math> और <math>g_{(\alpha \, , \, \beta)}(x_1^n)</math> पर ही निर्भर करता है <math>x_1^n</math> फलन के माध्यम से <math>T(X_1^n)= \left(\min_{1 \leq i \leq n}X_i,\max_{1 \leq i \leq n}X_i\right),</math> फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n) = \left(\min_{1 \leq i \leq n}X_i,\max_{1 \leq i \leq n}X_i\right)</math> के लिए पर्याप्त सांख्यिकी <math>(\alpha\, , \, \beta)</math> है .
फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n) = \left(\min_{1 \leq i \leq n}X_i,\max_{1 \leq i \leq n}X_i\right)</math> के लिए पर्याप्त आँकड़ा है <math>(\alpha\, , \, \beta)</math>.


===पॉइसन वितरण===
===पॉइसन वितरण===


यदि एक्स<sub>1</sub>, ...., एक्स<sub>''n''</sub> स्वतंत्र हैं और पैरामीटर λ के साथ पॉइसन वितरण है, तो योग T(X) = X<sub>1</sub>+...+एक्स<sub>''n''</sub> λ के लिए पर्याप्त आँकड़ा है।
यदि x<sub>1</sub>, ...., x<sub>''n''</sub> स्वतंत्र हैं और मापदंड λ के साथ पॉइसन वितरण है, तो योग T(X) = X<sub>1</sub>+...+x<sub>''n''</sub> λ के लिए पर्याप्त सांख्यिकी है।


इसे देखने के लिए, संयुक्त संभाव्यता वितरण पर विचार करें:
इसे देखने के लिए, संयुक्त संभाव्यता वितरण पर विचार करें:
Line 224: Line 215:
{1 \over x_1 ! x_2 !\cdots x_n ! }
{1 \over x_1 ! x_2 !\cdots x_n ! }
</math>
</math>
जो दर्शाता है कि गुणनखंडन मानदंड संतुष्ट है, जहां h(x) भाज्य के उत्पाद का व्युत्क्रम है। ध्यान दें कि पैरामीटर λ केवल इसके योग T(X) के माध्यम से डेटा के साथ इंटरैक्ट करता है।
जो दर्शाता है कि गुणनखंडन मानदंड संतुष्ट है, जहां h(x) भाज्य के उत्पाद का व्युत्क्रम है। ध्यान दें कि मापदंड λ केवल इसके योग T(X) के माध्यम से डेटा के साथ इंटरैक्ट करता है।


===सामान्य वितरण===
===सामान्य वितरण===


अगर <math>X_1,\ldots,X_n</math> अपेक्षित मूल्य के साथ स्वतंत्र और सामान्य वितरण हैं <math>\theta</math> (एक पैरामीटर) और ज्ञात परिमित विचरण <math>\sigma^2,</math> तब
यदि <math>X_1,\ldots,X_n</math> अपेक्षित मान के साथ स्वतंत्र और सामान्य वितरण <math>\theta</math> हैं ( मापदंड) और ज्ञात परिमित विवेरिएबल ण <math>\sigma^2,</math> है तब


:<math>T(X_1^n)=\overline{x}=\frac1n\sum_{i=1}^nX_i</math>
:<math>T(X_1^n)=\overline{x}=\frac1n\sum_{i=1}^nX_i</math>
के लिए पर्याप्त आँकड़ा है <math>\theta.</math>
<math>\theta.</math> के लिए पर्याप्त सांख्यिकी है इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन <math>X_1^n=(X_1,\dots,X_n)</math> पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।
इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फ़ंक्शन पर विचार करें <math>X_1^n=(X_1,\dots,X_n)</math>. क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, यानी।


:<math>\begin{align}
:<math>\begin{align}
Line 243: Line 233:
   &= (2\pi\sigma^2)^{-\frac{n}{2}} \exp \left( -{1\over2\sigma^2} \sum_{i=1}^n (x_i-\overline{x})^2 \right ) \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right )
   &= (2\pi\sigma^2)^{-\frac{n}{2}} \exp \left( -{1\over2\sigma^2} \sum_{i=1}^n (x_i-\overline{x})^2 \right ) \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right )


\end{align}</math>
\end{align}                                                                                                                                                                         </math>
नमूने का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है


:<math>\begin{align}
:<math>\begin{align}
Line 250: Line 240:
g_\theta(x_1^n) &=  \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right )
g_\theta(x_1^n) &=  \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right )
\end{align}</math>
\end{align}</math>
तब से <math>h(x_1^n)</math> पैरामीटर पर निर्भर नहीं है <math>\theta</math> और <math>g_{\theta}(x_1^n)</math> पर ही निर्भर करता है <math>x_1^n</math> समारोह के माध्यम से
तब से <math>h(x_1^n)</math> मापदंड पर निर्भर नहीं है इस प्रकार <math>\theta</math> और <math>g_{\theta}(x_1^n)</math> पर ही निर्भर करता है फलन <math>x_1^n</math> के माध्यम से


:<math>T(X_1^n)=\overline{x}=\frac1n\sum_{i=1}^nX_i,</math>
:<math>T(X_1^n)=\overline{x}=\frac1n\sum_{i=1}^nX_i,</math>
फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)</math> के लिए पर्याप्त आँकड़ा है <math>\theta</math>.
फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)</math> के लिए पर्याप्त सांख्यिकी <math>\theta</math> है .


अगर <math> \sigma^2 </math> अज्ञात है और तब से <math>s^2  = \frac{1}{n-1} \sum_{i=1}^n \left(x_i - \overline{x} \right)^2 </math>, उपरोक्त संभावना को इस प्रकार पुनः लिखा जा सकता है
यदि <math> \sigma^2 </math> अज्ञात है और तब से <math>s^2  = \frac{1}{n-1} \sum_{i=1}^n \left(x_i - \overline{x} \right)^2 </math>, उपरोक्त संभावना को इस प्रकार पुनः लिखा जा सकता है


:<math>\begin{align}
:<math>\begin{align}
f_{X_1^n}(x_1^n)= (2\pi\sigma^2)^{-n/2} \exp \left( -\frac{n-1}{2\sigma^2}s^2 \right) \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right ) .
f_{X_1^n}(x_1^n)= (2\pi\sigma^2)^{-n/2} \exp \left( -\frac{n-1}{2\sigma^2}s^2 \right) \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right ) .
\end{align}</math>
\end{align}</math>
फिशर-नेमैन गुणनखंडन प्रमेय अभी भी कायम है और इसका तात्पर्य है <math>(\overline{x},s^2)</math> के लिए एक संयुक्त पर्याप्त आँकड़ा है <math> ( \theta , \sigma^2) </math>.
फिशर-नेमैन गुणनखंडन प्रमेय अभी भी कायम है और इसका तात्पर्य है <math>(\overline{x},s^2)</math> के लिए संयुक्त पर्याप्त सांख्यिकी <math> ( \theta , \sigma^2) </math> है .


===घातांकीय वितरण===
===घातांकीय वितरण===


अगर <math>X_1,\dots,X_n</math> अपेक्षित मूल्य θ (एक अज्ञात वास्तविक-मूल्यवान सकारात्मक पैरामीटर) के साथ स्वतंत्र और घातीय वितरण हैं <math>T(X_1^n)=\sum_{i=1}^nX_i</math> θ के लिए पर्याप्त आँकड़ा है।
यदि <math>X_1,\dots,X_n</math> अपेक्षित मान θ ( अज्ञात वास्तविक-मूल्यवान सकारात्मक मापदंड) के साथ स्वतंत्र और घातीय वितरण हैं <math>T(X_1^n)=\sum_{i=1}^nX_i</math> θ के लिए पर्याप्त सांख्यिकी है।


इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फ़ंक्शन पर विचार करें <math>X_1^n=(X_1,\dots,X_n)</math>. क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, यानी।
इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें <math>X_1^n=(X_1,\dots,X_n)</math>. क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।


:<math>\begin{align}
:<math>\begin{align}
Line 273: Line 263:
   =              {1 \over \theta^n}\, e^{ {-1 \over \theta} \sum_{i=1}^nx_i }.
   =              {1 \over \theta^n}\, e^{ {-1 \over \theta} \sum_{i=1}^nx_i }.
\end{align}</math>
\end{align}</math>
नमूने का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है


:<math>\begin{align}
:<math>\begin{align}
Line 279: Line 269:
g_{\theta}(x_1^n)= {1 \over \theta^n}\, e^{ {-1 \over \theta} \sum_{i=1}^nx_i }.
g_{\theta}(x_1^n)= {1 \over \theta^n}\, e^{ {-1 \over \theta} \sum_{i=1}^nx_i }.
\end{align}</math>
\end{align}</math>
तब से <math>h(x_1^n)</math> पैरामीटर पर निर्भर नहीं है <math>\theta</math> और <math>g_{\theta}(x_1^n)</math> पर ही निर्भर करता है <math>x_1^n</math> समारोह के माध्यम से <math>T(X_1^n)=\sum_{i=1}^nX_i</math>
तब से <math>h(x_1^n)</math> मापदंड पर निर्भर नहीं है <math>\theta</math> और <math>g_{\theta}(x_1^n)</math> पर ही निर्भर करता है <math>x_1^n</math> फलन के माध्यम से <math>T(X_1^n)=\sum_{i=1}^nX_i</math> फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)=\sum_{i=1}^nX_i</math> के लिए पर्याप्त सांख्यिकी <math>\theta</math> है .
फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)=\sum_{i=1}^nX_i</math> के लिए पर्याप्त आँकड़ा है <math>\theta</math>.


===गामा वितरण===
===गामा वितरण===


अगर <math>X_1,\dots,X_n</math> स्वतंत्र हैं और गामा वितरण के रूप में वितरित हैं|<math>\Gamma(\alpha \, , \, \beta) </math>, कहाँ <math>\alpha</math> और <math>\beta</math> तो, [[गामा वितरण]] के अज्ञात पैरामीटर हैं <math>T(X_1^n) = \left( \prod_{i=1}^n{X_i} , \sum_{i=1}^n X_i \right)</math> के लिए एक द्वि-आयामी पर्याप्त आँकड़ा है <math>(\alpha, \beta)</math>.
यदि <math>X_1,\dots,X_n</math> स्वतंत्र हैं और गामा वितरण <math>\Gamma(\alpha \, , \, \beta) </math> के रूप में वितरित हैं , जहाँ <math>\alpha</math> और <math>\beta</math> तो, [[गामा वितरण]] के अज्ञात मापदंड हैं <math>T(X_1^n) = \left( \prod_{i=1}^n{X_i} , \sum_{i=1}^n X_i \right)</math> के लिए द्वि-आयामी पर्याप्त सांख्यिकी है <math>(\alpha, \beta)</math>.


इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फ़ंक्शन पर विचार करें <math>X_1^n=(X_1,\dots,X_n)</math>. क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, यानी।
इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें <math>X_1^n=(X_1,\dots,X_n)</math>. क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।


:<math>\begin{align}
:<math>\begin{align}
Line 292: Line 281:
   &= \prod_{i=1}^n \left({1 \over \Gamma(\alpha) \beta^\alpha}\right) x_i^{\alpha -1} e^{(-1/\beta)x_i} \\[5pt]
   &= \prod_{i=1}^n \left({1 \over \Gamma(\alpha) \beta^\alpha}\right) x_i^{\alpha -1} e^{(-1/\beta)x_i} \\[5pt]
   &= \left({1 \over \Gamma(\alpha) \beta^\alpha}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
   &= \left({1 \over \Gamma(\alpha) \beta^\alpha}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
\end{align}</math>
\end{align}                                                                                                                                                                                                   </math>
नमूने का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है


:<math>\begin{align}
:<math>\begin{align}
h(x_1^n)= 1,\,\,\,
h(x_1^n)= 1,\,\,\,
g_{(\alpha \, , \, \beta)}(x_1^n)= \left({1 \over \Gamma(\alpha) \beta^{\alpha}}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
g_{(\alpha \, , \, \beta)}(x_1^n)= \left({1 \over \Gamma(\alpha) \beta^{\alpha}}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
\end{align}</math>
\end{align}                                                                                                                                               </math>
तब से <math>h(x_1^n)</math> पैरामीटर पर निर्भर नहीं है <math>(\alpha\, , \, \beta)</math> और <math>g_{(\alpha \, , \, \beta)}(x_1^n)</math> पर ही निर्भर करता है <math>x_1^n</math> समारोह के माध्यम से <math>T(x_1^n)= \left( \prod_{i=1}^n x_i, \sum_{i=1}^n x_i \right),</math>
तब से <math>h(x_1^n)</math> मापदंड पर निर्भर नहीं है <math>(\alpha\, , \, \beta)</math> और <math>g_{(\alpha \, , \, \beta)}(x_1^n)</math> पर <math>x_1^n</math> ही निर्भर करता है फलन के माध्यम से <math>T(x_1^n)= \left( \prod_{i=1}^n x_i, \sum_{i=1}^n x_i \right),</math> फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)= \left( \prod_{i=1}^n X_i, \sum_{i=1}^n X_i \right)                                                                                                                   </math> के लिए पर्याप्त सांख्यिकी <math>(\alpha\, , \, \beta).</math> है
फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)= \left( \prod_{i=1}^n X_i, \sum_{i=1}^n X_i \right)</math> के लिए पर्याप्त आँकड़ा है <math>(\alpha\, , \, \beta).</math>




==राव-ब्लैकवेल प्रमेय==
==राव-ब्लैकवेल प्रमेय==


पर्याप्तता को राव-ब्लैकवेल प्रमेय में एक उपयोगी अनुप्रयोग मिलता है, जिसमें कहा गया है कि यदि ''g''(''X'') ''θ'' का किसी भी प्रकार का अनुमानक है, तो आमतौर पर ''g'' की [[सशर्त अपेक्षा]] '(''X'') को पर्याप्त आँकड़ा दिया गया है ''T''(''X'') ''θ'' का एक बेहतर (कम विचरण के अर्थ में) अनुमानक है, और कभी भी बदतर नहीं होता है। कभी-कभी कोई बहुत आसानी से एक बहुत ही अपरिष्कृत अनुमानक ''जी''(''एक्स'') का निर्माण कर सकता है, और फिर एक अनुमानक प्राप्त करने के लिए उस सशर्त अपेक्षित मूल्य का मूल्यांकन कर सकता है जो विभिन्न अर्थों में इष्टतम है।
पर्याप्तता को राव-ब्लैकवेल प्रमेय में उपयोगी अनुप्रयोग मिलता है, जिसमें कहा गया है कि यदि ''g''(''X'') ''θ'' का किसी भी प्रकार का अनुमानक है, तो सामान्यतः ''g'' की [[सशर्त अपेक्षा|नियमबद्ध अपेक्षा]] '(''X'') को पर्याप्त सांख्यिकी दिया गया है ''T''(''X'') ''θ'' का उत्तम (कम विवेरिएबल ण के अर्थ में) अनुमानक है, और कभी भी व्यर्थ नहीं होता है। कभी-कभी कोई बहुत सरलता से बहुत ही अपरिष्कृत अनुमानक ''g''(''x'') का निर्माण कर सकता है, और फिर अनुमानक प्राप्त करने के लिए उस नियमबद्ध अपेक्षित मान का मूल्यांकन कर सकता है जो विभिन्न अर्थों में इष्टतम है।


==घातांकीय परिवार==
==घातांकीय वर्ग                                                                                                                                                                                                                        ==
{{main|Exponential family}}
{{main|घातीय वर्ग}}
पिटमैन-कूपमैन-डार्मोइस प्रमेय के अनुसार, संभाव्यता वितरण के परिवारों के बीच जिनका डोमेन अनुमानित पैरामीटर के साथ भिन्न नहीं होता है, केवल [[घातीय परिवार]] में पर्याप्त आँकड़ा होता है जिसका आयाम नमूना आकार बढ़ने के साथ सीमित रहता है। सहज रूप से, यह बताता है कि वास्तविक रेखा पर वितरण के गैर-घातीय परिवारों को डेटा में जानकारी को पूरी तरह से पकड़ने के लिए गैर-पैरामीट्रिक आंकड़ों की आवश्यकता होती है।


कम संक्षेप में, मान लीजिए <math>X_n, n = 1, 2, 3, \dots</math> स्वतंत्र समान रूप से वितरित वास्तविक यादृच्छिक चर हैं जिनका वितरण संभाव्यता वितरण के कुछ परिवार में जाना जाता है, द्वारा पैरामीट्रिज्ड <math>\theta</math>, कुछ तकनीकी नियमितता शर्तों को पूरा करते हुए, वह परिवार एक घातीय परिवार है यदि और केवल यदि कोई है <math>\R^m</math>-मूल्यांकित पर्याप्त आँकड़ा <math>T(X_1, \dots, X_n)</math> जिसके अदिश घटकों की संख्या <math>m</math> नमूना आकार n बढ़ने पर वृद्धि नहीं होती है।<ref>{{Cite journal |last1=Tikochinsky |first1=Y. |last2=Tishby |first2=N. Z. |last3=Levine |first3=R. D. |date=1984-11-01 |title=अधिकतम-एन्ट्रापी अनुमान के लिए वैकल्पिक दृष्टिकोण|url=http://dx.doi.org/10.1103/physreva.30.2638 |journal=Physical Review A |volume=30 |issue=5 |pages=2638–2644 |doi=10.1103/physreva.30.2638 |bibcode=1984PhRvA..30.2638T |issn=0556-2791}}</ref>
पिटमैन-कूपमैन-डार्मोइस प्रमेय के अनुसार, संभाव्यता वितरण के वर्गों के बीच जिनका डोमेन अनुमानित मापदंड के साथ भिन्न नहीं होता है, केवल [[घातीय परिवार|घातीय वर्ग]] में पर्याप्त सांख्यिकी होता है जिसका आयाम प्रतिरूप आकार बढ़ने के साथ सीमित रहता है। सहज रूप से, यह बताता है कि वास्तविक रेखा पर वितरण के गैर-घातीय वर्गों को डेटा में जानकारी को पूरी तरह से पकड़ने के लिए गैर-पैरामीट्रिक सांख्यिकी की आवश्यकता होती है।
यह प्रमेय दर्शाता है कि एक परिमित-आयामी, वास्तविक-वेक्टर-मूल्यवान पर्याप्त आंकड़ों का अस्तित्व वास्तविक रेखा पर वितरण के परिवार के संभावित रूपों को तेजी से प्रतिबंधित करता है।


जब पैरामीटर या यादृच्छिक चर वास्तविक-मूल्यवान नहीं रह जाते हैं, तो स्थिति अधिक जटिल हो जाती है।<ref>{{Cite journal |last=Andersen |first=Erling Bernhard |date=September 1970 |title=पृथक नमूना स्थानों के लिए पर्याप्तता और घातांकीय परिवार|url=http://dx.doi.org/10.1080/01621459.1970.10481160 |journal=Journal of the American Statistical Association |volume=65 |issue=331 |pages=1248–1255 |doi=10.1080/01621459.1970.10481160 |issn=0162-1459}}</ref>
कम संक्षेप में, मान लीजिए <math>X_n, n = 1, 2, 3, \dots</math> स्वतंत्र समान रूप से वितरित वास्तविक यादृच्छिक वेरिएबल  हैं जिनका वितरण संभाव्यता वितरण के कुछ वर्ग में जाना जाता है, इसके द्वारा पैरामीट्रिज्ड <math>\theta</math>, कुछ तकनीकी नियमितता नियमो को पूरा करते हुए, वह वर्ग घातीय वर्ग है यदि और केवल यदि कोई है <math>\R^m</math>-मूल्यांकित पर्याप्त सांख्यिकी <math>T(X_1, \dots, X_n)</math> जिसके अदिश घटकों की संख्या <math>m</math> प्रतिरूप आकार n बढ़ने पर वृद्धि नहीं होती है।<ref>{{Cite journal |last1=Tikochinsky |first1=Y. |last2=Tishby |first2=N. Z. |last3=Levine |first3=R. D. |date=1984-11-01 |title=अधिकतम-एन्ट्रापी अनुमान के लिए वैकल्पिक दृष्टिकोण|url=http://dx.doi.org/10.1103/physreva.30.2638 |journal=Physical Review A |volume=30 |issue=5 |pages=2638–2644 |doi=10.1103/physreva.30.2638 |bibcode=1984PhRvA..30.2638T |issn=0556-2791}}</ref>


यह प्रमेय दर्शाता है कि परिमित-आयामी, वास्तविक-सदिश-मूल्यवान पर्याप्त सांख्यिकी का अस्तित्व वास्तविक रेखा पर वितरण के वर्ग के संभावित रूपों को तेजी से प्रतिबंधित करता है।


जब मापदंड या यादृच्छिक वेरिएबल  वास्तविक-मूल्यवान नहीं रह जाते हैं, तो स्थिति अधिक सम्मिश्र  हो जाती है।<ref>{{Cite journal |last=Andersen |first=Erling Bernhard |date=September 1970 |title=पृथक नमूना स्थानों के लिए पर्याप्तता और घातांकीय परिवार|url=http://dx.doi.org/10.1080/01621459.1970.10481160 |journal=Journal of the American Statistical Association |volume=65 |issue=331 |pages=1248–1255 |doi=10.1080/01621459.1970.10481160 |issn=0162-1459}}</ref>
==अन्य प्रकार की पर्याप्तता==
==अन्य प्रकार की पर्याप्तता==


===बायेसियन पर्याप्तता===
===बायेसियन पर्याप्तता===


इस शर्त का एक वैकल्पिक सूत्रीकरण कि एक आँकड़ा पर्याप्त हो, बायेसियन संदर्भ में सेट किया गया है, जिसमें पूर्ण डेटा-सेट का उपयोग करके और केवल एक आँकड़ा का उपयोग करके प्राप्त किए गए पश्च वितरण शामिल हैं। इस प्रकार आवश्यकता यह है कि, लगभग प्रत्येक x के लिए,
इस नियम का वैकल्पिक सूत्रीकरण कि सांख्यिकी पर्याप्त हो, बायेसियन संदर्भ में समुच्चय किया गया है, जिसमें पूर्ण डेटा-समुच्चय का उपयोग करके और केवल सांख्यिकी का उपयोग करके प्राप्त किए गए पश्च वितरण सम्मिलित हैं। इस प्रकार आवश्यकता यह है कि, लगभग प्रत्येक x के लिए,


:<math>\Pr(\theta\mid X=x) = \Pr(\theta\mid T(X)=t(x)). </math>
:<math>\Pr(\theta\mid X=x) = \Pr(\theta\mid T(X)=t(x)). </math>
अधिक सामान्यतः, पैरामीट्रिक मॉडल को माने बिना, हम कह सकते हैं कि आँकड़े टी पर्याप्त रूप से पूर्वानुमानित है
अधिक सामान्यतः, पैरामीट्रिक मॉडल को माने बिना, हम कह सकते हैं कि सांख्यिकी T पर्याप्त रूप से पूर्वानुमानित है


:<math>\Pr(X'=x'\mid X=x) = \Pr(X'=x'\mid T(X)=t(x)).</math>
:<math>\Pr(X'=x'\mid X=x) = \Pr(X'=x'\mid T(X)=t(x)).</math>
Line 335: Line 323:
  |isbn=0-471-92416-4
  |isbn=0-471-92416-4
  |chapter=Section 5.1.4
  |chapter=Section 5.1.4
}}</ref> हालाँकि वे अनंत-आयामी मामले में सीधे समकक्ष नहीं हैं।<ref>{{cite journal
}}</ref> चूँकि वे अनंत-आयामी स्थिति में सीधे समकक्ष नहीं हैं।<ref>{{cite journal
  |last1=Blackwell |first1=D. |author-link1=David Blackwell
  |last1=Blackwell |first1=D. |author-link1=David Blackwell
  |last2=Ramamoorthi |first2=R. V.
  |last2=Ramamoorthi |first2=R. V.
Line 342: Line 330:
  |volume=10 |year=1982 |issue=3 |pages=1025–1026
  |volume=10 |year=1982 |issue=3 |pages=1025–1026
  |doi=10.1214/aos/1176345895 |mr=663456 | zbl = 0485.62004
  |doi=10.1214/aos/1176345895 |mr=663456 | zbl = 0485.62004
|doi-access=free }}</ref> बायेसियन संदर्भ में पर्याप्तता के लिए सैद्धांतिक परिणामों की एक श्रृंखला उपलब्ध है।<ref>{{cite journal
|doi-access=free }}</ref> बायेसियन संदर्भ में पर्याप्तता के लिए सैद्धांतिक परिणामों की श्रृंखला उपलब्ध है।<ref>{{cite journal
  |last1=Nogales |first1=A.G.
  |last1=Nogales |first1=A.G.
  |last2=Oyola |first2=J.A.
  |last2=Oyola |first2=J.A.
Line 353: Line 341:
|url=https://dialnet.unirioja.es/servlet/oaiart?codigo=118597
|url=https://dialnet.unirioja.es/servlet/oaiart?codigo=118597
  }}</ref>
  }}</ref>
===रैखिक पर्याप्तता===
===रैखिक पर्याप्तता===


रैखिक पर्याप्तता नामक एक अवधारणा बायेसियन संदर्भ में तैयार की जा सकती है,<ref>{{cite journal |first1=M. |last1=Goldstein |first2=A. |last2=O'Hagan |year=1996 |title=बेयस रैखिक पर्याप्तता और विशेषज्ञ पश्चवर्ती मूल्यांकन की प्रणालियाँ|journal=[[Journal of the Royal Statistical Society]] |series=Series B |volume=58 |issue=2 |pages=301–316 |jstor=2345978 }}</ref> और अधिक सामान्यतः.<ref>{{cite journal |last=Godambe |first=V. P. |year=1966 |title=परिमित जनसंख्या से नमूना लेने का एक नया दृष्टिकोण। II वितरण-मुक्त पर्याप्तता|journal=[[Journal of the Royal Statistical Society]] |series=Series B |volume=28 |issue=2 |pages=320–328 |jstor=2984375 }}</ref> पहले X के आधार पर वेक्टर Y के सर्वश्रेष्ठ रैखिक भविष्यवक्ता को परिभाषित करें <math>\hat E[Y\mid X]</math>. तब एक रैखिक आँकड़ा T(x) पर्याप्त रैखिक है<ref>{{cite journal |last=Witting |first=T. |year=1987 |title=विश्वसनीयता सिद्धांत में रैखिक मार्कोव संपत्ति|journal=ASTIN Bulletin |volume=17 |issue=1 |pages=71–84 |doi= 10.2143/ast.17.1.2014984|doi-access=free }}</ref> अगर
रैखिक पर्याप्तता नामक अवधारणा बायेसियन संदर्भ में तैयार की जा सकती है,<ref>{{cite journal |first1=M. |last1=Goldstein |first2=A. |last2=O'Hagan |year=1996 |title=बेयस रैखिक पर्याप्तता और विशेषज्ञ पश्चवर्ती मूल्यांकन की प्रणालियाँ|journal=[[Journal of the Royal Statistical Society]] |series=Series B |volume=58 |issue=2 |pages=301–316 |jstor=2345978 }}</ref> और अधिक सामान्यतः.<ref>{{cite journal |last=Godambe |first=V. P. |year=1966 |title=परिमित जनसंख्या से नमूना लेने का एक नया दृष्टिकोण। II वितरण-मुक्त पर्याप्तता|journal=[[Journal of the Royal Statistical Society]] |series=Series B |volume=28 |issue=2 |pages=320–328 |jstor=2984375 }}</ref> पहले X के आधार पर सदिश Y के सर्वश्रेष्ठ रैखिक पूर्वानुमान <math>\hat E[Y\mid X]</math> को परिभाषित करें . तब रैखिक सांख्यिकी T(x) पर्याप्त रैखिक है <ref>{{cite journal |last=Witting |first=T. |year=1987 |title=विश्वसनीयता सिद्धांत में रैखिक मार्कोव संपत्ति|journal=ASTIN Bulletin |volume=17 |issue=1 |pages=71–84 |doi= 10.2143/ast.17.1.2014984|doi-access=free }}</ref> यदि


:<math>\hat E[\theta\mid X]= \hat E[\theta\mid T(X)] . </math>
:<math>\hat E[\theta\mid X]= \hat E[\theta\mid T(X)] . </math>
 
==यह भी देखें                                                                                   ==
 
*सांख्यिकी की संपूर्णता (सांख्यिकी)।
==यह भी देखें==
*एक आँकड़े की संपूर्णता (आँकड़े)।
*पूर्ण पर्याप्त और सहायक सांख्यिकी की स्वतंत्रता पर बसु का प्रमेय
*पूर्ण पर्याप्त और सहायक सांख्यिकी की स्वतंत्रता पर बसु का प्रमेय
*लेहमैन-शेफ़े प्रमेय: एक पूर्ण पर्याप्त अनुमानक अपनी अपेक्षा का सबसे अच्छा अनुमानक है
*लेहमैन-शेफ़े प्रमेय: पूर्ण पर्याप्त अनुमानक अपनी अपेक्षा का सबसे अच्छा अनुमानक है
*राव-ब्लैकवेल प्रमेय
*राव-ब्लैकवेल प्रमेय
*चेनत्सोव का प्रमेय
*चेनत्सोव का प्रमेय
*[[पर्याप्त आयाम में कमी]]
*[[पर्याप्त आयाम में कमी]]
*[[सहायक आँकड़ा]]
*[[सहायक आँकड़ा|सहायक सांख्यिकी]]


==टिप्पणियाँ==
==टिप्पणियाँ==
{{reflist|30em}}
{{reflist|30em}}
==संदर्भ==
==संदर्भ==
* {{Springer|title=Sufficient statistic|id=S/s091070|first=A.S.|last=Kholevo}}
* {{Springer|title=Sufficient statistic|id=S/s091070|first=A.S.|last=Kholevo}}
Line 390: Line 372:
*Dodge, Y. (2003) ''The Oxford Dictionary of Statistical Terms'', OUP. {{isbn|0-19-920613-9}}
*Dodge, Y. (2003) ''The Oxford Dictionary of Statistical Terms'', OUP. {{isbn|0-19-920613-9}}


{{Statistics|inference|collapsed}}
{{DEFAULTSORT:Sufficient Statistic}}
 
{{DEFAULTSORT:Sufficient Statistic}}[[Category: सांख्यिकीय सिद्धांत]] [[Category: सांख्यिकीय सिद्धांत]] [[Category: प्रमाण युक्त लेख]] [[Category: गुणन]]
 
 


[[Category: Machine Translated Page]]
[[Category:Articles with hatnote templates targeting a nonexistent page|Sufficient Statistic]]
[[Category:Created On 07/07/2023]]
[[Category:CS1 English-language sources (en)]]
[[Category:Created On 07/07/2023|Sufficient Statistic]]
[[Category:Lua-based templates|Sufficient Statistic]]
[[Category:Machine Translated Page|Sufficient Statistic]]
[[Category:Pages with script errors|Sufficient Statistic]]
[[Category:Short description with empty Wikidata description|Sufficient Statistic]]
[[Category:Templates Vigyan Ready|Sufficient Statistic]]
[[Category:Templates that add a tracking category|Sufficient Statistic]]
[[Category:Templates that generate short descriptions|Sufficient Statistic]]
[[Category:Templates using TemplateData|Sufficient Statistic]]
[[Category:गुणन|Sufficient Statistic]]
[[Category:प्रमाण युक्त लेख|Sufficient Statistic]]
[[Category:सांख्यिकीय सिद्धांत|Sufficient Statistic]]

Latest revision as of 13:40, 3 August 2023

सांख्यिकी में, सांख्यिकी सांख्यिकीय मॉडल और उससे जुड़े अज्ञात मापदंड के संबंध में पर्याप्त होता है यदि कोई अन्य सांख्यिकी जिसकी गणना उसी प्रतिरूप (सांख्यिकी) से नहीं की जा सकती है, मापदंड के मान के बारे में कोई अतिरिक्त जानकारी प्रदान करता है।[1] विशेष रूप से, सांख्यिकी संभाव्यता वितरण के पैरामीट्रिक वर्ग के लिए पर्याप्त है यदि जिस प्रतिरूप से इसकी गणना की जाती है वह सांख्यिकी के अतिरिक्त कोई अतिरिक्त जानकारी नहीं देता है, कि उन संभाव्यता वितरणों में से कौन सा प्रतिरूप वितरण है।

संबंधित अवधारणा रैखिक पर्याप्तता की है, जो पर्याप्तता से अशक्त है किन्तु इसे कुछ स्थितियों में प्रयुक्त किया जा सकता है जहां पर्याप्त सांख्यिकी नहीं हैं, चूँकि यह रैखिक अनुमानकों तक ही सीमित है।[2] कोलमोगोरोव संरचना कार्य व्यक्तिगत परिमित डेटा से संबंधित है; संबंधित धारणा एल्गोरिथम पर्याप्त सांख्यिकी है।

यह अवधारणा 1920 में रोनाल्ड फिशर की देन है। स्Tफन स्टिगलर ने 1973 में उल्लेख किया था कि वितरणात्मक रूप की धारणा पर सशक्त निर्भरता के कारण वर्णनात्मक सांख्यिकी में पर्याप्तता की अवधारणा पक्ष से बाहर हो गई है (देखें xपोनेंशियल वर्ग या पिटमैन-कूपमैन- डार्मोइस प्रमेय नीचे), किन्तु सैद्धांतिक कार्य में बहुत महत्वपूर्ण रहा था।[3]

पृष्ठभूमि

सामान्यतः, समुच्चय दिया गया है अज्ञात मापदंड पर वातानुकूलित स्वतंत्र समान रूप से वितरित डेटा का , पर्याप्त सांख्यिकी फलन है जिसके मान में मापदंड के किसी भी अनुमान की गणना करने के लिए आवश्यक सभी जानकारी सम्मिलित है (उदाहरण के लिए अधिकतम संभावना अनुमान)। गुणनखंडन प्रमेय (फिशर-नेमैन गुणनखंडन प्रमेय) के कारण, पर्याप्त सांख्यिकी के लिए , संभाव्यता घनत्व को इस प्रकार लिखा जा सकता है . इस गुणनखंड से, यह सरलता से देखा जा सकता है कि अधिकतम संभावना का अनुमान है तथा के साथ इंटरैक्ट करेंगे केवल अन्दर से . सामान्यतः, पर्याप्त सांख्यिकी डेटा का सरल कार्य है, उदाहरण सभी डेटा बिंदुओं का योग उपयुक्त होता है.

अधिक सामान्यतः, अज्ञात मापदंड अज्ञात मात्राओं के यूक्लिडियन सदिश का प्रतिनिधित्व कर सकता है या मॉडल के बारे में सब कुछ का प्रतिनिधित्व कर सकता है जो अज्ञात है या पूरी तरह से निर्दिष्ट नहीं है। ऐसे स्थिति में, पर्याप्त सांख्यिकी कार्यों का समूह हो सकता है, जिसे संयुक्त रूप से पर्याप्त सांख्यिकी कहा जाता है। सामान्यतः, जितने मापदंड होते हैं उतने ही फलन होते हैं। उदाहरण के लिए, अज्ञात माध्य और विवेरिएबल ण वाले गाऊसी वितरण के लिए, संयुक्त रूप से पर्याप्त सांख्यिकी, जिससे दोनों मापदंडों की अधिकतम संभावना का अनुमान लगाया जा सकता है, इसमें दो फलन सम्मिलित हैं, सभी डेटा बिंदुओं का योग और सभी वर्ग डेटा बिंदुओं का योग (या समकक्ष, प्रतिरूप माध्य और प्रतिरूप विवेरिएबल ण) है।

दूसरे शब्दों में, 'डेटा का संयुक्त संभाव्यता वितरण मापदंड के लिए पर्याप्त सांख्यिकी के मान को देखते हुए मापदंड से नियमबद्ध रूप से स्वतंत्र है।' सांख्यिकी और अंतर्निहित मापदंड दोनों सदिश हो सकते हैं।

गणितीय परिभाषा

सांख्यिकी t = T(X) 'अंतर्निहित मापदंड θ के लिए पर्याप्त' है, यदि डेटा X का नियमबद्ध संभाव्यता वितरण, सांख्यिकी t = T(X) दिया गया है, मापदंड θ पर निर्भर नहीं करता है।[4] वैकल्पिक रूप से, कोई यह कह सकता है कि सांख्यिकी T(X) θ के लिए पर्याप्त है यदि θ के साथ इसकी पारस्परिक जानकारी X और θ के बीच पारस्परिक जानकारी के समान है।[5] दूसरे शब्दों में, डेटा प्रोसेसिंग असमानता समानता बन जाती है:

उदाहरण

उदाहरण सामान्यतः, प्रतिरूप माध्य ज्ञात विवेरिएबल ण वाले सामान्य वितरण के माध्य (μ) के लिए पर्याप्त है। प्रतिरूप माध्य ज्ञात हो जाने पर, प्रतिरूप से μ के बारे में कोई और जानकारी प्राप्त नहीं की जा सकती है। दूसरी ओर, इच्छानुसार वितरण के लिए माध्य माध्य के लिए पर्याप्त नहीं है: तथापि प्रतिरूप का माध्य ज्ञात होता है, प्रतिरूप जानने से ही जनसंख्या माध्य के बारे में अधिक जानकारी मिल जाती है। उदाहरण के लिए, यदि माध्यिका से कम प्रेक्षण केवल थोड़े कम हैं, किन्तु माध्यिका से अधिक होने वाले प्रेक्षण इससे बड़ी मात्रा में अधिक हैं, तो इसका जनसंख्या माध्य के बारे में किसी के अनुमान पर प्रभाव पड़ता है।

फिशर-नेमैन गुणनखंडन प्रमेय

रोनाल्ड फिशर का गुणनखंडन प्रमेय या गुणनखंडन मानदंड पर्याप्त सांख्यिकी का सुविधाजनक 'लक्षणीकरण' प्रदान करता है। यदि संभाव्यता घनत्व फलन ƒθ(x) है, जिससे T, θ के लिए पर्याप्त है यदि और केवल यदि गैर-ऋणात्मक फलन g और h को ऐसे पाया जा सकता है कि

अर्थात घनत्व ƒ को उत्पाद में इस तरह से विभाजित किया जा सकता है कि कारक, H, θ पर निर्भर नहीं होता है और दूसरा कारक, जो θ पर निर्भर करता है, केवल T(x) के माध्यम से x पर निर्भर करता है। इसका सामान्य प्रमाण हैल्मोस और सैवेज ने दिया था [6] और प्रमेय को कभी-कभी हेल्मोस-सैवेज गुणनखंडन प्रमेय के रूप में जाना जाता है।[7] नीचे दिए गए प्रमाण विशेष स्थितियों को संभालते हैं, किन्तु उसी पंक्तियां पर वैकल्पिक सामान्य प्रमाण भी दिया जा सकता है।[8] यह देखना आसान है कि यदि F(t) वन-से-वन फलन है और T पर्याप्त है सांख्यिकी, तो F(T) पर्याप्त सांख्यिकी है। विशेष रूप से हम a को गुणा कर सकते हैं गैर शून्य स्थिरांक द्वारा पर्याप्त सांख्यिकी और अन्य पर्याप्त सांख्यिकी प्राप्त करते है।

संभावना सिद्धांत व्याख्या

प्रमेय का निहितार्थ यह है कि संभावना-आधारित अनुमान का उपयोग करते समय, पर्याप्त सांख्यिकी T (x) के लिए समान मान उत्पन्न करने वाले डेटा के दो समुच्चय सदैव θ के बारे में समान अनुमान उत्पन्न करते है। गुणनखंडन मानदंड के अनुसार, θ पर संभावना की निर्भरता केवल T(X) के संयोजन में है। चूँकि यह दोनों स्थितियों में समान है, θ पर निर्भरता भी समान होगी, जिससे समान निष्कर्ष निकलते है।

प्रमाण

हॉग और क्रेग के कारण.[9] मान लीजिए , ι < θ < δ के लिए संभाव्यता घनत्व फलन f(x, θ) वाले वितरण से यादृच्छिक प्रतिरूप निरूपित करें। माना Y1= I1(x1, x2, ..., xn) सांख्यिकी बनें जिसका पीडीएफ g1 है (y1; θ). हम जो सिद्ध करना चाहते हैं वह यह है कि Y1= I1(x1, x2, ..., xn) θ के लिए पर्याप्त सांख्यिकी है यदि और केवल यदि, किसी फलन H के लिए है

सबसे पहले, मान लीजिए

हम परिवर्तन करेंगे yi= Ii(x1, x2, ..., xn), i = 1, ..., n के लिए, जिसमें व्युत्क्रम फलन xi= wi(y1, y2, ..., yn), i = 1, ..., n है, और जैकोबियन आव्यूह और निर्धारक के लिए . इस प्रकार,

बाएँ हाथ का सदस्य संयुक्त पीडीएफ g(y)1, y2, ..., yn; θ) का Y1 = u1(x1, ..., xn), ..., yn = un(x1, ..., xn) है. दाहिने हाथ के सदस्य में, का पीडीएफ है, जिससे का भागफल और ; है अर्थात्, यह नियमबद्ध पीडीएफ का है और दिया गया है

किन्तु , और इस तरह , पर निर्भर न रहने के लिए दिया गया था . तब से परिवर्तन में प्रस्तुत नहीं किया गया था और तदनुसार जैकोबियन में नहीं है , यह इस प्रकार है कि पर निर्भर नहीं है ओर वो के लिए पर्याप्त सांख्यिकी हैं .

इसका विपरीत निम्नलिखित लेकर सिद्ध किया जाता है:

जहाँ पर निर्भर नहीं है क्योंकि पर ही निर्भर हैं , जो पर स्वतंत्र हैं जब द्वारा वातानुकूलित किया जाता है , परिकल्पना द्वारा पर्याप्त सांख्यिकी अब दोनों सदस्यों को गैर-लुप्त होने वाले जैकोबियन के पूर्ण मान से विभाजित करें , और प्रतिस्थापित करें कार्यों द्वारा में . यह प्रदान करता है

जहाँ जैकोबियन के साथ है उनके मान के अनुसार प्रतिस्थापित किया गया है बाएँ हाथ का सदस्य आवश्यक रूप से संयुक्त पीडीएफ का है. तब से , और इस तरह , पर निर्भर नहीं है , तब

ऐसा फलन है जो निर्भर नहीं करता है .

और प्रमाण

सरल और अधिक उदाहरणात्मक प्रमाण इस प्रकार है, चूँकि यह केवल भिन्न स्थिति में ही प्रयुक्त होता है।

हम संयुक्त संभाव्यता घनत्व को दर्शाने के लिए शॉर्टहैंड नोटेशन का उपयोग करते हैं इस प्रकार द्वारा . तब से का कार्य है , अपने पास , जब तक कि और अन्यथा शून्य है इसलिए:

पर्याप्त सांख्यिकी की परिभाषा के अनुसार अंतिम समानता सत्य है। इस प्रकार साथ और है

इसके विपरीत, यदि , अपने पास

पहली समानता संभाव्यता घनत्व फलन द्वारा अनेक वेरिएबल के साथ जुड़े संभाव्यता फलन द्वारा, दूसरी उपरोक्त टिप्पणी द्वारा, तीसरी परिकल्पना द्वारा, और चौथी क्योंकि सारांश समाप्त नहीं हुआ है .

मान लीजिए की नियमबद्ध संभाव्यता घनत्व को निरूपित करें दिया गया है तब हम इसके लिए स्पष्ट अभिव्यक्ति प्राप्त कर सकते हैं:

पहली समानता नियमबद्ध संभाव्यता घनत्व की परिभाषा से, दूसरी उपरोक्त टिप्पणी से, तीसरी समानता ऊपर सिद्ध द्वारा, और चौथी सरलीकरण द्वारा यह अभिव्यक्ति निर्भर नहीं करती और इस तरह पर्याप्त सांख्यिकी है.[10]

न्यूनतम पर्याप्तता

पर्याप्त सांख्यिकी न्यूनतम पर्याप्त है यदि इसे किसी अन्य पर्याप्त सांख्यिकी के कार्य के रूप में दर्शाया जा सकता है। दूसरे शब्दों में, S(X) न्यूनतम पर्याप्त है यदि और केवल यदि [11]

  1. S(X) पर्याप्त है, और
  2. यदि T(X) पर्याप्त है, तो फलन f उपस्थित है जैसे कि S(X) = f(T(X)) है।

सामान्यतः, न्यूनतम पर्याप्त सांख्यिकी सबसे कुशलता से मापदंड θ के बारे में सभी संभावित जानकारी प्राप्त करता है।

न्यूनतम पर्याप्तता का उपयोगी लक्षण वर्णन यह है कि जब घनत्व fθ अस्तित्व में है, S(X) 'न्यूनतम पर्याप्त' है यदि और केवल यदि

θ से स्वतंत्र है: s(x) = s(Y)

यह ऊपर बताए गए फिशर-नेमैन गुणनखंडन प्रमेय|फिशर के गुणनखंडन प्रमेय के परिणाम के रूप में अनुसरण करता है।

ऐसा स्थिति जिसमें कोई न्यूनतम पर्याप्त सांख्यिकी नहीं है, बहादुर द्वारा 1954 में दिखाया गया था।[12] चूँकि, हल्की परिस्थितियों में, न्यूनतम पर्याप्त सांख्यिकी सदैव उपस्थित रहता है। विशेष रूप से, यूक्लिडियन अंतरिक्ष में, ये स्थितियाँ सदैव प्रयुक्त रहती हैं यदि यादृच्छिक वेरिएबल (के साथ जुड़े) ) सभी असतत हैं या सभी निरंतर हैं।

यदि कोई न्यूनतम पर्याप्त सांख्यिकी उपस्थित है, और यह सामान्यतः स्थिति है, तो प्रत्येक पूर्णता (सांख्यिकी) पर्याप्त सांख्यिकी आवश्यक रूप से न्यूनतम पर्याप्त है [13] (ध्यान दें कि यह कथन पैथोलॉजिकल स्थिति को बाहर नहीं करता है जिसमें पूर्ण पर्याप्त उपस्थित है जबकि कोई न्यूनतम पर्याप्त सांख्यिकी नहीं है)। चूँकि ऐसे स्थितियों को खोजना कठिन है जिनमें न्यूनतम पर्याप्त सांख्यिकी उपस्थित नहीं है, ऐसे स्थितियों को खोजना इतना कठिन नहीं है जिनमें कोई पूर्ण सांख्यिकी उपस्थित नहीं है।

संभाव्यता अनुपातों का संग्रह के लिए , यदि मापदंड स्थान असतत है तो न्यूनतम पर्याप्त सांख्यिकी है .

उदाहरण

बर्नौली वितरण

यदि x1, ...., xn स्वतंत्र बर्नौली परीक्षण हैं बर्नौली-वितरित यादृच्छिक वेरिएबल अपेक्षित मान p के साथ, फिर योग T(x) = x1+...+xn p के लिए पर्याप्त सांख्यिकी है (यहाँ 'सफलता' xi= 1 से मेल खाती है और x के लिए 'विफलता'; अतः Ti= 0 सफलताओं की कुल संख्या है)

इसे संयुक्त संभाव्यता वितरण पर विचार करके देखा जाता है:

क्योंकि अवलोकन स्वतंत्र हैं, इसे इस प्रकार लिखा जा सकता है

और, p और 1 − p की शक्तियाँ एकत्रित करके, देता है

जो गुणनखंडन मानदंड को पूरा करता है, जिसमें h(x)=1 केवल स्थिरांक है।

महत्वपूर्ण विशेषता पर ध्यान दें: अज्ञात मापदंड p केवल सांख्यिकी T(x) = Σx के माध्यम से डेटा x के साथ इंटरैक्ट करता हैi.

ठोस अनुप्रयोग के रूप में, यह निष्पक्ष सिक्के उचित परिणाम को पक्षपाती सिक्के से भिन्न करने की प्रक्रिया देता है।

यूनिफ़ॉर्म वितरण

यदि x1, ...., xn अंतराल [0,θ] पर स्वतंत्र और समान वितरण (निरंतर) हैं, तो T(X) = max(X)1, ..., xn) θ के लिए पर्याप्त है - प्रतिरूप अधिकतम जनसंख्या अधिकतम के लिए पर्याप्त सांख्यिकी है।

इसे देखने के लिए, X·(X)1,...,xn). के संयुक्त संभाव्यता घनत्व फलन पर विचार करें क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है

जहाँ 1{...} सूचक कार्य है. इस प्रकार घनत्व फिशर-नेमैन गुणनखंड प्रमेय द्वारा आवश्यक रूप लेता है, जहां h(x)='1'{min{xi}≥0}, और शेष अभिव्यक्ति केवल θ और T(x)=max{xi} का फलन है.

वास्तव में, θ के लिए न्यूनतम-विवेरिएबल ण निष्पक्ष अनुमानक (एमवीयूई) है

यह प्रतिरूप अधिकतम है, जिसे अनुमानक के पूर्वाग्रह को सही करने के लिए स्केल किया गया है, और लेहमैन-शेफ़े प्रमेय द्वारा एमवीयूई है। अनस्केल्ड प्रतिरूप अधिकतम T(X) θ के लिए अधिकतम संभावना अनुमानक है।

समान वितरण (दो मापदंडों के साथ)

यदि अंतराल पर स्वतंत्र और समान वितरण (निरंतर) हैं (जहाँ और अज्ञात मापदंड हैं), फिर के लिए द्वि-आयामी पर्याप्त सांख्यिकी है .

इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है और पर ही निर्भर करता है फलन के माध्यम से फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है .

पॉइसन वितरण

यदि x1, ...., xn स्वतंत्र हैं और मापदंड λ के साथ पॉइसन वितरण है, तो योग T(X) = X1+...+xn λ के लिए पर्याप्त सांख्यिकी है।

इसे देखने के लिए, संयुक्त संभाव्यता वितरण पर विचार करें:

क्योंकि अवलोकन स्वतंत्र हैं, इसे इस प्रकार लिखा जा सकता है

जिसे इस प्रकार लिखा जा सकता है

जो दर्शाता है कि गुणनखंडन मानदंड संतुष्ट है, जहां h(x) भाज्य के उत्पाद का व्युत्क्रम है। ध्यान दें कि मापदंड λ केवल इसके योग T(X) के माध्यम से डेटा के साथ इंटरैक्ट करता है।

सामान्य वितरण

यदि अपेक्षित मान के साथ स्वतंत्र और सामान्य वितरण हैं ( मापदंड) और ज्ञात परिमित विवेरिएबल ण है तब

के लिए पर्याप्त सांख्यिकी है इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है इस प्रकार और पर ही निर्भर करता है फलन के माध्यम से

फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है .

यदि अज्ञात है और तब से , उपरोक्त संभावना को इस प्रकार पुनः लिखा जा सकता है

फिशर-नेमैन गुणनखंडन प्रमेय अभी भी कायम है और इसका तात्पर्य है के लिए संयुक्त पर्याप्त सांख्यिकी है .

घातांकीय वितरण

यदि अपेक्षित मान θ ( अज्ञात वास्तविक-मूल्यवान सकारात्मक मापदंड) के साथ स्वतंत्र और घातीय वितरण हैं θ के लिए पर्याप्त सांख्यिकी है।

इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है और पर ही निर्भर करता है फलन के माध्यम से फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है .

गामा वितरण

यदि स्वतंत्र हैं और गामा वितरण के रूप में वितरित हैं , जहाँ और तो, गामा वितरण के अज्ञात मापदंड हैं के लिए द्वि-आयामी पर्याप्त सांख्यिकी है .

इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है और पर ही निर्भर करता है फलन के माध्यम से फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है


राव-ब्लैकवेल प्रमेय

पर्याप्तता को राव-ब्लैकवेल प्रमेय में उपयोगी अनुप्रयोग मिलता है, जिसमें कहा गया है कि यदि g(X) θ का किसी भी प्रकार का अनुमानक है, तो सामान्यतः g की नियमबद्ध अपेक्षा '(X) को पर्याप्त सांख्यिकी दिया गया है T(X) θ का उत्तम (कम विवेरिएबल ण के अर्थ में) अनुमानक है, और कभी भी व्यर्थ नहीं होता है। कभी-कभी कोई बहुत सरलता से बहुत ही अपरिष्कृत अनुमानक g(x) का निर्माण कर सकता है, और फिर अनुमानक प्राप्त करने के लिए उस नियमबद्ध अपेक्षित मान का मूल्यांकन कर सकता है जो विभिन्न अर्थों में इष्टतम है।

घातांकीय वर्ग

पिटमैन-कूपमैन-डार्मोइस प्रमेय के अनुसार, संभाव्यता वितरण के वर्गों के बीच जिनका डोमेन अनुमानित मापदंड के साथ भिन्न नहीं होता है, केवल घातीय वर्ग में पर्याप्त सांख्यिकी होता है जिसका आयाम प्रतिरूप आकार बढ़ने के साथ सीमित रहता है। सहज रूप से, यह बताता है कि वास्तविक रेखा पर वितरण के गैर-घातीय वर्गों को डेटा में जानकारी को पूरी तरह से पकड़ने के लिए गैर-पैरामीट्रिक सांख्यिकी की आवश्यकता होती है।

कम संक्षेप में, मान लीजिए स्वतंत्र समान रूप से वितरित वास्तविक यादृच्छिक वेरिएबल हैं जिनका वितरण संभाव्यता वितरण के कुछ वर्ग में जाना जाता है, इसके द्वारा पैरामीट्रिज्ड , कुछ तकनीकी नियमितता नियमो को पूरा करते हुए, वह वर्ग घातीय वर्ग है यदि और केवल यदि कोई है -मूल्यांकित पर्याप्त सांख्यिकी जिसके अदिश घटकों की संख्या प्रतिरूप आकार n बढ़ने पर वृद्धि नहीं होती है।[14]

यह प्रमेय दर्शाता है कि परिमित-आयामी, वास्तविक-सदिश-मूल्यवान पर्याप्त सांख्यिकी का अस्तित्व वास्तविक रेखा पर वितरण के वर्ग के संभावित रूपों को तेजी से प्रतिबंधित करता है।

जब मापदंड या यादृच्छिक वेरिएबल वास्तविक-मूल्यवान नहीं रह जाते हैं, तो स्थिति अधिक सम्मिश्र हो जाती है।[15]

अन्य प्रकार की पर्याप्तता

बायेसियन पर्याप्तता

इस नियम का वैकल्पिक सूत्रीकरण कि सांख्यिकी पर्याप्त हो, बायेसियन संदर्भ में समुच्चय किया गया है, जिसमें पूर्ण डेटा-समुच्चय का उपयोग करके और केवल सांख्यिकी का उपयोग करके प्राप्त किए गए पश्च वितरण सम्मिलित हैं। इस प्रकार आवश्यकता यह है कि, लगभग प्रत्येक x के लिए,

अधिक सामान्यतः, पैरामीट्रिक मॉडल को माने बिना, हम कह सकते हैं कि सांख्यिकी T पर्याप्त रूप से पूर्वानुमानित है

यह पता चला है कि यह बायेसियन पर्याप्तता उपरोक्त सूत्रीकरण का परिणाम है,[16] चूँकि वे अनंत-आयामी स्थिति में सीधे समकक्ष नहीं हैं।[17] बायेसियन संदर्भ में पर्याप्तता के लिए सैद्धांतिक परिणामों की श्रृंखला उपलब्ध है।[18]

रैखिक पर्याप्तता

रैखिक पर्याप्तता नामक अवधारणा बायेसियन संदर्भ में तैयार की जा सकती है,[19] और अधिक सामान्यतः.[20] पहले X के आधार पर सदिश Y के सर्वश्रेष्ठ रैखिक पूर्वानुमान को परिभाषित करें . तब रैखिक सांख्यिकी T(x) पर्याप्त रैखिक है [21] यदि

यह भी देखें

  • सांख्यिकी की संपूर्णता (सांख्यिकी)।
  • पूर्ण पर्याप्त और सहायक सांख्यिकी की स्वतंत्रता पर बसु का प्रमेय
  • लेहमैन-शेफ़े प्रमेय: पूर्ण पर्याप्त अनुमानक अपनी अपेक्षा का सबसे अच्छा अनुमानक है
  • राव-ब्लैकवेल प्रमेय
  • चेनत्सोव का प्रमेय
  • पर्याप्त आयाम में कमी
  • सहायक सांख्यिकी

टिप्पणियाँ

  1. Fisher, R.A. (1922). "On the mathematical foundations of theoretical statistics". Philosophical Transactions of the Royal Society A. 222 (594–604): 309–368. Bibcode:1922RSPTA.222..309F. doi:10.1098/rsta.1922.0009. JFM 48.1280.02. JSTOR 91208.
  2. Dodge, Y. (2003) — entry for linear sufficiency
  3. Stigler, Stephen (December 1973). "Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency". Biometrika. 60 (3): 439–445. doi:10.1093/biomet/60.3.439. JSTOR 2334992. MR 0326872.
  4. Casella, George; Berger, Roger L. (2002). Statistical Inference, 2nd ed. Duxbury Press.
  5. Cover, Thomas M. (2006). सूचना सिद्धांत के तत्व. Joy A. Thomas (2nd ed.). Hoboken, N.J.: Wiley-Interscience. p. 36. ISBN 0-471-24195-4. OCLC 59879802.
  6. Halmos, P. R.; Savage, L. J. (1949). "पर्याप्त सांख्यिकी के सिद्धांत के लिए रेडॉन-निकोडिम प्रमेय का अनुप्रयोग". The Annals of Mathematical Statistics (in English). 20 (2): 225–241. doi:10.1214/aoms/1177730032. ISSN 0003-4851.
  7. "गुणनखंडन प्रमेय - गणित का विश्वकोश". encyclopediaofmath.org. Retrieved 2022-09-07.
  8. Taraldsen, G. (2022). "पर्याप्तता के लिए गुणनखंडन प्रमेय". Preprint (in English). doi:10.13140/RG.2.2.15068.87687.
  9. Hogg, Robert V.; Craig, Allen T. (1995). गणितीय सांख्यिकी का परिचय. Prentice Hall. ISBN 978-0-02-355722-4.
  10. "The Fisher–Neyman Factorization Theorem".. Webpage at Connexions (cnx.org)
  11. Dodge (2003) — entry for minimal sufficient statistics
  12. Lehmann and Casella (1998), Theory of Point Estimation, 2nd Edition, Springer, p 37
  13. Lehmann and Casella (1998), Theory of Point Estimation, 2nd Edition, Springer, page 42
  14. Tikochinsky, Y.; Tishby, N. Z.; Levine, R. D. (1984-11-01). "अधिकतम-एन्ट्रापी अनुमान के लिए वैकल्पिक दृष्टिकोण". Physical Review A. 30 (5): 2638–2644. Bibcode:1984PhRvA..30.2638T. doi:10.1103/physreva.30.2638. ISSN 0556-2791.
  15. Andersen, Erling Bernhard (September 1970). "पृथक नमूना स्थानों के लिए पर्याप्तता और घातांकीय परिवार". Journal of the American Statistical Association. 65 (331): 1248–1255. doi:10.1080/01621459.1970.10481160. ISSN 0162-1459.
  16. Bernardo, J.M.; Smith, A.F.M. (1994). "Section 5.1.4". Bayesian Theory. Wiley. ISBN 0-471-92416-4.
  17. Blackwell, D.; Ramamoorthi, R. V. (1982). "A Bayes but not classically sufficient statistic". Annals of Statistics. 10 (3): 1025–1026. doi:10.1214/aos/1176345895. MR 0663456. Zbl 0485.62004.
  18. Nogales, A.G.; Oyola, J.A.; Perez, P. (2000). "On conditional independence and the relationship between sufficiency and invariance under the Bayesian point of view". Statistics & Probability Letters. 46 (1): 75–84. doi:10.1016/S0167-7152(99)00089-9. MR 1731351. Zbl 0964.62003.
  19. Goldstein, M.; O'Hagan, A. (1996). "बेयस रैखिक पर्याप्तता और विशेषज्ञ पश्चवर्ती मूल्यांकन की प्रणालियाँ". Journal of the Royal Statistical Society. Series B. 58 (2): 301–316. JSTOR 2345978.
  20. Godambe, V. P. (1966). "परिमित जनसंख्या से नमूना लेने का एक नया दृष्टिकोण। II वितरण-मुक्त पर्याप्तता". Journal of the Royal Statistical Society. Series B. 28 (2): 320–328. JSTOR 2984375.
  21. Witting, T. (1987). "विश्वसनीयता सिद्धांत में रैखिक मार्कोव संपत्ति". ASTIN Bulletin. 17 (1): 71–84. doi:10.2143/ast.17.1.2014984.

संदर्भ