फिशर संसूचना: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 38: Line 38:
# f(X; θ) का [[समर्थन (गणित)]] θ पर निर्भर नहीं करता है।
# f(X; θ) का [[समर्थन (गणित)]] θ पर निर्भर नहीं करता है।


यदि θ सदिश राशि है तो θ के प्रत्येक घटक के लिए नियमितता की शर्तें होनी चाहिए। घनत्व का उदाहरण खोजना आसान है जो नियमितता की शर्तों को पूरा नहीं करता है: समान (0, θ) चर का घनत्व 1 और 3 की शर्तों को पूरा करने में विफल रहता है। इस मामले में, भले ही फिशर की जानकारी से गणना की जा सकती है परिभाषा, इसमें वे गुण नहीं होंगे जो इसे सामान्यतः माना जाता है।
यदि θ सदिश राशि है तो θ के प्रत्येक घटक के लिए नियमितता की शर्तें होनी चाहिए। घनत्व का उदाहरण खोजना आसान है जो नियमितता की शर्तों को पूरा नहीं करता है: समान (0, θ) चर का घनत्व 1 और 3 की शर्तों को पूरा करने में विफल रहता है। इस स्थिति में, भले ही फिशर की जानकारी से गणना की जा सकती है परिभाषा, इसमें वे गुण नहीं होंगे जो इसे सामान्यतः माना जाता है।


=== [[संभावना]] के संदर्भ में ===
=== [[संभावना]] के संदर्भ में ===
चूँकि दिए गए X के θ की संभावना हमेशा प्रायिकता f(X; θ) के समानुपाती होती है, उनके लघुगणक आवश्यक रूप से स्थिरांक से भिन्न होते हैं जो θ से स्वतंत्र होता है, और θ के संबंध में इन लघुगणकों के डेरिवेटिव आवश्यक रूप से बराबर होते हैं। इस प्रकार लॉग-लाइबिलिटी एल (θ; एक्स) के अतिरिक्त  स्थानापन्न कर सकता है {{math|log ''f''(''X''; ''θ'')}} फिशर सूचना की परिभाषा में।
चूँकि दिए गए X के θ की संभावना हमेशा प्रायिकता f(X; θ) के समानुपाती होती है, उनके लघुगणक आवश्यक रूप से स्थिरांक से भिन्न होते हैं जो θ से स्वतंत्र होता है, और θ के संबंध में इन लघुगणकों के डेरिवेटिव आवश्यक रूप से बराबर होते हैं। इस प्रकार लॉग-लाइबिलिटी एल (θ; एक्स) के अतिरिक्त  स्थानापन्न कर सकता है {{math|log ''f''(''X''; ''θ'')}} फिशर सूचना की परिभाषा में।


=== किसी भी आकार के नमूने ===
=== किसी भी आकार के प्रतिरूप ===
मान X एकल वितरण से निकाले गए एकल नमूने का प्रतिनिधित्व कर सकता है या वितरण के संग्रह से निकाले गए नमूनों के संग्रह का प्रतिनिधित्व कर सकता है। यदि n नमूने हैं और संबंधित n वितरण [[सांख्यिकीय रूप से स्वतंत्र]] हैं, तो फ़िशर जानकारी आवश्यक रूप से एकल-नमूना फ़िशर सूचना मानों का योग होगी, इसके वितरण से प्रत्येक एकल नमूने के लिए एक। विशेष रूप से, यदि n बंटन i.i.d. तो फ़िशर जानकारी आवश्यक रूप से सामान्य वितरण से एकल नमूने की फ़िशर जानकारी का n गुना होगी।
मान X एकल वितरण से निकाले गए एकल प्रतिरूप  का प्रतिनिधित्व कर सकता है या वितरण के संग्रह से निकाले गए नमूनों के संग्रह का प्रतिनिधित्व कर सकता है। यदि n प्रतिरूप  हैं और संबंधित n वितरण [[सांख्यिकीय रूप से स्वतंत्र]] हैं, तो फ़िशर जानकारी आवश्यक रूप से एकल-नमूना फ़िशर सूचना मानों का योग होगी, इसके वितरण से प्रत्येक एकल प्रतिरूप  के लिए एक। विशेष रूप से, यदि n बंटन i.i.d. तो फ़िशर जानकारी आवश्यक रूप से सामान्य वितरण से एकल प्रतिरूप  की फ़िशर जानकारी का n गुना होगी।


===क्रैमर-राव बाउंड === की अनौपचारिक व्युत्पत्ति
=== क्रैमर-राव बाउंड की अनौपचारिक व्युत्पत्ति ===
द क्रैमर-राव बाउंड<ref>Cramer (1946)</ref><ref>Rao (1945)</ref> बताता है कि फिशर जानकारी का व्युत्क्रम θ के किसी भी निष्पक्ष अनुमानक के विचरण पर निचली सीमा है। एच.एल. वैन ट्रीज़ (1968) और बी. रॉय फ्रीडेन (2004) क्रैमर-राव बाउंड प्राप्त करने की निम्नलिखित विधि प्रदान करते हैं, जिसके परिणामस्वरूप फिशर जानकारी के उपयोग का वर्णन होता है।
द क्रैमर-राव बाउंड<ref>Cramer (1946)</ref><ref>Rao (1945)</ref> बताता है कि फिशर जानकारी का व्युत्क्रम θ के किसी भी निष्पक्ष अनुमानक के विचरण पर निचली सीमा है। एच.एल. वैन ट्रीज़ (1968) और बी. रॉय फ्रीडेन (2004) क्रैमर-राव बाउंड प्राप्त करने की निम्नलिखित विधि प्रदान करते हैं, जिसके परिणामस्वरूप फिशर जानकारी के उपयोग का वर्णन होता है।


Line 87: Line 87:
</math>
</math>
दूसरे शब्दों में, जिस सटीकता का हम अनुमान लगा सकते हैं, वह मौलिक रूप से संभावित कार्य की फिशर जानकारी द्वारा सीमित है।
दूसरे शब्दों में, जिस सटीकता का हम अनुमान लगा सकते हैं, वह मौलिक रूप से संभावित कार्य की फिशर जानकारी द्वारा सीमित है।


वैकल्पिक रूप से, यादृच्छिक चर के लिए कॉची-श्वार्ज़ असमानता | कॉची-श्वार्ज़ असमानता से सीधे ही निष्कर्ष प्राप्त किया जा सकता है, <math>|\operatorname{Cov}(AB)|^2 \le \operatorname{Var}(A)\operatorname{Var}(B)</math>, यादृच्छिक चर पर लागू होता है <math>\hat\theta(X)</math> और <math>\partial_\theta\log f(X;\theta)</math>, और यह देखते हुए कि हमारे पास निष्पक्ष अनुमानक हैं<math display="block">\operatorname{Cov}[\hat\theta(X)\partial_\theta \log f(X;\theta)] =
वैकल्पिक रूप से, यादृच्छिक चर के लिए कॉची-श्वार्ज़ असमानता | कॉची-श्वार्ज़ असमानता से सीधे ही निष्कर्ष प्राप्त किया जा सकता है, <math>|\operatorname{Cov}(AB)|^2 \le \operatorname{Var}(A)\operatorname{Var}(B)</math>, यादृच्छिक चर पर लागू होता है <math>\hat\theta(X)</math> और <math>\partial_\theta\log f(X;\theta)</math>, और यह देखते हुए कि हमारे पास निष्पक्ष अनुमानक हैं<math display="block">\operatorname{Cov}[\hat\theta(X)\partial_\theta \log f(X;\theta)] =
Line 106: Line 104:
क्योंकि फिशर की जानकारी योगात्मक है, फिशर की जानकारी n स्वतंत्र बर्नौली परीक्षणों में निहित है
क्योंकि फिशर की जानकारी योगात्मक है, फिशर की जानकारी n स्वतंत्र बर्नौली परीक्षणों में निहित है
:<math>\mathcal{I}(\theta) = \frac{n}{\theta(1 - \theta)}.</math>
:<math>\mathcal{I}(\theta) = \frac{n}{\theta(1 - \theta)}.</math>
यह एन बर्नौली परीक्षणों में सफलताओं की औसत संख्या के विचरण का पारस्परिक है, इसलिए इस मामले में, क्रैमर-राव बाउंड समानता है।
यह एन बर्नौली परीक्षणों में सफलताओं की औसत संख्या के विचरण का पारस्परिक है, इसलिए इस स्थिति में, क्रैमर-राव बाउंड समानता है।


== आव्यूह फॉर्म ==
== आव्यूह फॉर्म ==
जब एन पैरामीटर हैं, तो θ है {{nowrap|''N'' × 1}} [[कॉलम वेक्टर]] <math>\theta = \begin{bmatrix}\theta_1 & \theta_2 & \dots & \theta_N\end{bmatrix}^\textsf{T},</math> तब फिशर जानकारी रूप लेती है {{nowrap|''N'' × ''N''}} [[मैट्रिक्स (गणित)|आव्यूह (गणित)]]। इस आव्यूह को फिशर इंफॉर्मेशन आव्यूह (FIM) कहा जाता है और इसमें विशिष्ट तत्व होता है
जब एन पैरामीटर हैं, तो θ है {{nowrap|''N'' × 1}} [[कॉलम वेक्टर|कॉलम]] सदिश  <math>\theta = \begin{bmatrix}\theta_1 & \theta_2 & \dots & \theta_N\end{bmatrix}^\textsf{T},</math> तब फिशर जानकारी रूप लेती है {{nowrap|''N'' × ''N''}} [[मैट्रिक्स (गणित)|आव्यूह (गणित)]]। इस आव्यूह को फिशर इंफॉर्मेशन आव्यूह (FIM) कहा जाता है और इसमें विशिष्ट तत्व होता है


:<math>
:<math>
Line 147: Line 145:
[[ यंत्र अधिगम ]] में, यदि सांख्यिकीय मॉडल तैयार किया जाता है जिससे कि  यह यादृच्छिक घटना से छिपी हुई संरचना को निकाल सके, तो यह स्वाभाविक रूप से एकवचन बन जाता है।<ref>{{cite journal | last1 = Watanabe | first1 = S | year = 2013 | title = एक व्यापक रूप से लागू बायेसियन सूचना मानदंड| journal = [[Journal of Machine Learning Research]] | volume = 14 | pages = 867–897 }}</ref>
[[ यंत्र अधिगम ]] में, यदि सांख्यिकीय मॉडल तैयार किया जाता है जिससे कि  यह यादृच्छिक घटना से छिपी हुई संरचना को निकाल सके, तो यह स्वाभाविक रूप से एकवचन बन जाता है।<ref>{{cite journal | last1 = Watanabe | first1 = S | year = 2013 | title = एक व्यापक रूप से लागू बायेसियन सूचना मानदंड| journal = [[Journal of Machine Learning Research]] | volume = 14 | pages = 867–897 }}</ref>
=== [[बहुभिन्नरूपी सामान्य वितरण]] ===
=== [[बहुभिन्नरूपी सामान्य वितरण]] ===
एन-वैरिएट बहुभिन्नरूपी सामान्य वितरण के लिए एफआईएम, <math>\,X \sim N\left(\mu(\theta),\, \Sigma(\theta)\right)</math> विशेष रूप होता है। पैरामीटर के के-आयामी वेक्टर होने दें <math>\theta = \begin{bmatrix} \theta_1 & \dots & \theta_K \end{bmatrix}^\textsf{T}</math> और यादृच्छिक सामान्य चर के वेक्टर हो <math>X = \begin{bmatrix} X_1 & \dots & X_N \end{bmatrix}^\textsf{T}</math>. मान लें कि इन यादृच्छिक चरों के माध्य मान हैं <math>\,\mu(\theta) = \begin{bmatrix} \mu_1(\theta) & \dots & \mu_N(\theta) \end{bmatrix}^\textsf{T}</math>, और जाने <math>\,\Sigma(\theta)</math> सहप्रसरण आव्यूह हो। फिर, के लिए <math>1 \le m,\, n \le K</math>, (एम, एन) एफआईएम की प्रविष्टि है:<ref>{{cite book |title=स्टोचैस्टिक अनुकूलन के मद्देनजर गॉसियन वितरण की सूचना ज्यामिति|first1=Luigi |last1=Malagò |first2=Giovanni |last2=Pistone |journal=[[Proceedings of the 2015 ACM Conference on Foundations of Genetic Algorithms XIII]] |year=2015 |pages=150–162 |doi=10.1145/2725494.2725510 |isbn=9781450334341 |s2cid=693896 }}</ref>
एन-वैरिएट बहुभिन्नरूपी सामान्य वितरण के लिए एफआईएम, <math>\,X \sim N\left(\mu(\theta),\, \Sigma(\theta)\right)</math> विशेष रूप होता है। पैरामीटर के के-आयामी सदिश  होने दें <math>\theta = \begin{bmatrix} \theta_1 & \dots & \theta_K \end{bmatrix}^\textsf{T}</math> और यादृच्छिक सामान्य चर के सदिश  हो <math>X = \begin{bmatrix} X_1 & \dots & X_N \end{bmatrix}^\textsf{T}</math>. मान लें कि इन यादृच्छिक चरों के माध्य मान हैं <math>\,\mu(\theta) = \begin{bmatrix} \mu_1(\theta) & \dots & \mu_N(\theta) \end{bmatrix}^\textsf{T}</math>, और जाने <math>\,\Sigma(\theta)</math> सहप्रसरण आव्यूह हो। फिर, के लिए <math>1 \le m,\, n \le K</math>, (एम, एन) एफआईएम की प्रविष्टि है:<ref>{{cite book |title=स्टोचैस्टिक अनुकूलन के मद्देनजर गॉसियन वितरण की सूचना ज्यामिति|first1=Luigi |last1=Malagò |first2=Giovanni |last2=Pistone |journal=[[Proceedings of the 2015 ACM Conference on Foundations of Genetic Algorithms XIII]] |year=2015 |pages=150–162 |doi=10.1145/2725494.2725510 |isbn=9781450334341 |s2cid=693896 }}</ref>
:<math>
:<math>
   \mathcal{I}_{m,n} =
   \mathcal{I}_{m,n} =
Line 191: Line 189:
   \frac{\partial\mu}{\partial\theta_n}.\  
   \frac{\partial\mu}{\partial\theta_n}.\  
</math>
</math>
इस मामले में फिशर सूचना आव्यूह को [[कम से कम वर्गों]] के आकलन सिद्धांत के [[सामान्य समीकरण]]ों के गुणांक आव्यूह के साथ पहचाना जा सकता है।
इस स्थिति में फिशर सूचना आव्यूह को [[कम से कम वर्गों]] के आकलन सिद्धांत के [[सामान्य समीकरण]]ों के गुणांक आव्यूह के साथ पहचाना जा सकता है।


एक और विशेष मामला तब होता है जब माध्य और सहप्रसरण दो अलग-अलग वेक्टर मापदंडों पर निर्भर करते हैं, कहते हैं, β और θ। यह विशेष रूप से स्थानिक डेटा के विश्लेषण में लोकप्रिय है, जो प्रायः  सहसंबद्ध अवशेषों के साथ रैखिक मॉडल का उपयोग करता है। इस मामले में,<ref>{{cite journal |title=स्थानिक प्रतिगमन में अवशिष्ट सहप्रसरण के लिए मॉडलों का अधिकतम संभावना अनुमान|first1=K. V. |last1=Mardia |first2=R. J. |last2=Marshall |journal=[[Biometrika]] |year=1984 |volume=71 |issue=1 |pages=135–46 |doi=10.1093/biomet/71.1.135 }}</ref>
एक और विशेष मामला तब होता है जब माध्य और सहप्रसरण दो अलग-अलग सदिश  मापदंडों पर निर्भर करते हैं, कहते हैं, β और θ। यह विशेष रूप से स्थानिक डेटा के विश्लेषण में लोकप्रिय है, जो प्रायः  सहसंबद्ध अवशेषों के साथ रैखिक मॉडल का उपयोग करता है। इस स्थिति में,<ref>{{cite journal |title=स्थानिक प्रतिगमन में अवशिष्ट सहप्रसरण के लिए मॉडलों का अधिकतम संभावना अनुमान|first1=K. V. |last1=Mardia |first2=R. J. |last2=Marshall |journal=[[Biometrika]] |year=1984 |volume=71 |issue=1 |pages=135–46 |doi=10.1093/biomet/71.1.135 }}</ref>
: <math>\mathcal{I}(\beta, \theta) = \operatorname{diag}\left(\mathcal{I}(\beta), \mathcal{I}(\theta)\right)</math>
: <math>\mathcal{I}(\beta, \theta) = \operatorname{diag}\left(\mathcal{I}(\beta), \mathcal{I}(\theta)\right)</math>
कहाँ
कहाँ
Line 206: Line 204:
कहाँ <math>\mathcal{I}_{Y\mid X}(\theta) = \operatorname{E}_{X} \left[ \mathcal{I}_{Y\mid X = x}(\theta) \right] </math> और <math> \mathcal{I}_{Y\mid X = x}(\theta) </math> Y के सापेक्ष फिशर जानकारी है <math>\theta</math> विशिष्ट मान X = x दिए जाने पर Y के सशर्त घनत्व के संबंध में गणना की जाती है।
कहाँ <math>\mathcal{I}_{Y\mid X}(\theta) = \operatorname{E}_{X} \left[ \mathcal{I}_{Y\mid X = x}(\theta) \right] </math> और <math> \mathcal{I}_{Y\mid X = x}(\theta) </math> Y के सापेक्ष फिशर जानकारी है <math>\theta</math> विशिष्ट मान X = x दिए जाने पर Y के सशर्त घनत्व के संबंध में गणना की जाती है।


एक विशेष मामले के रूप में, यदि दो यादृच्छिक चर [[सांख्यिकीय स्वतंत्रता]] हैं, तो दो यादृच्छिक चर द्वारा प्राप्त जानकारी प्रत्येक यादृच्छिक चर से अलग-अलग जानकारी का योग है:
एक विशेष स्थिति के रूप में, यदि दो यादृच्छिक चर [[सांख्यिकीय स्वतंत्रता]] हैं, तो दो यादृच्छिक चर द्वारा प्राप्त जानकारी प्रत्येक यादृच्छिक चर से अलग-अलग जानकारी का योग है:
:<math>\mathcal{I}_{X,Y}(\theta) = \mathcal{I}_X(\theta) + \mathcal{I}_Y(\theta).</math>
:<math>\mathcal{I}_{X,Y}(\theta) = \mathcal{I}_X(\theta) + \mathcal{I}_Y(\theta).</math>
नतीजतन, n [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] अवलोकनों के यादृच्छिक नमूने में जानकारी आकार 1 के नमूने में जानकारी का n गुना है।
परिणामस्वरूप , n [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] अवलोकनों के यादृच्छिक प्रतिरूप  में जानकारी आकार 1 के प्रतिरूप  में जानकारी का n गुना है।


=== [[एफ-विचलन]] ===
=== [[एफ-विचलन]] ===
Line 228: Line 226:
:<math>{\mathcal I}_\eta(\eta) = {\mathcal I}_\theta(\theta(\eta)) \left( \frac{d\theta}{d\eta} \right)^2</math>
:<math>{\mathcal I}_\eta(\eta) = {\mathcal I}_\theta(\theta(\eta)) \left( \frac{d\theta}{d\eta} \right)^2</math>
कहाँ <math>{\mathcal I}_\eta</math> और <math>{\mathcal I}_\theta</math> क्रमशः η और θ के फिशर सूचना उपाय हैं।<ref>Lehmann & Casella, eq. (2.5.11).</ref>
कहाँ <math>{\mathcal I}_\eta</math> और <math>{\mathcal I}_\theta</math> क्रमशः η और θ के फिशर सूचना उपाय हैं।<ref>Lehmann & Casella, eq. (2.5.11).</ref>
वेक्टर मामले में, मान लीजिए <math>{\boldsymbol \theta}</math> और <math>{\boldsymbol \eta}</math> k-वेक्टर हैं जो अनुमान समस्या को पैरामीट्रिज करते हैं, और मान लीजिए कि <math>{\boldsymbol \theta}</math> का सतत अवकलनीय फलन है <math>{\boldsymbol \eta}</math>, तब,<ref>Lehmann & Casella, eq. (2.6.16)</ref>
सदिश  स्थिति में, मान लीजिए <math>{\boldsymbol \theta}</math> और <math>{\boldsymbol \eta}</math> k-सदिश  हैं जो अनुमान समस्या को पैरामीट्रिज करते हैं, और मान लीजिए कि <math>{\boldsymbol \theta}</math> का सतत अवकलनीय फलन है <math>{\boldsymbol \eta}</math>, तब,<ref>Lehmann & Casella, eq. (2.6.16)</ref>
:<math>{\mathcal I}_{\boldsymbol \eta}({\boldsymbol \eta}) = {\boldsymbol J}^\textsf{T} {\mathcal I}_{\boldsymbol \theta} ({\boldsymbol \theta}({\boldsymbol \eta})) {\boldsymbol J}
:<math>{\mathcal I}_{\boldsymbol \eta}({\boldsymbol \eta}) = {\boldsymbol J}^\textsf{T} {\mathcal I}_{\boldsymbol \theta} ({\boldsymbol \theta}({\boldsymbol \eta})) {\boldsymbol J}
</math>
</math>
Line 249: Line 247:
इष्टतम डिजाइन में फिशर जानकारी का व्यापक रूप से उपयोग किया जाता है। अनुमानक-भिन्नता और फिशर जानकारी की पारस्परिकता के कारण, भिन्नता को कम करना सूचना को अधिकतम करने से मेल खाता है।
इष्टतम डिजाइन में फिशर जानकारी का व्यापक रूप से उपयोग किया जाता है। अनुमानक-भिन्नता और फिशर जानकारी की पारस्परिकता के कारण, भिन्नता को कम करना सूचना को अधिकतम करने से मेल खाता है।


जब [[रैखिक मॉडल]] (या अरैखिक प्रतिगमन) सांख्यिकीय मॉडल में कई पैरामीटर होते हैं, तो पैरामीटर अनुमानक का अपेक्षित मान कॉलम वेक्टर होता है और इसका सहप्रसरण आव्यूह आव्यूह (गणित) होता है। विचरण आव्यूह के व्युत्क्रम को सूचना आव्यूह कहा जाता है। चूंकि पैरामीटर वेक्टर के अनुमानक का भिन्नता आव्यूह है, भिन्नता को कम करने की समस्या जटिल है। सांख्यिकीय [[सिद्ध]]ांत का उपयोग करते हुए, सांख्यिकीविद् वास्तविक-मूल्यवान सारांश आँकड़ों का उपयोग करके सूचना-आव्यूह को संकुचित करते हैं; वास्तविक-मूल्यवान कार्य होने के कारण, इन सूचना मानदंडों को अधिकतम किया जा सकता है।
जब [[रैखिक मॉडल]] (या अरैखिक प्रतिगमन) सांख्यिकीय मॉडल में कई पैरामीटर होते हैं, तो पैरामीटर अनुमानक का अपेक्षित मान कॉलम सदिश  होता है और इसका सहप्रसरण आव्यूह आव्यूह (गणित) होता है। विचरण आव्यूह के व्युत्क्रम को सूचना आव्यूह कहा जाता है। चूंकि पैरामीटर सदिश  के अनुमानक का भिन्नता आव्यूह है, भिन्नता को कम करने की समस्या जटिल है। सांख्यिकीय [[सिद्ध]]ांत का उपयोग करते हुए, सांख्यिकीविद् वास्तविक-मूल्यवान सारांश आँकड़ों का उपयोग करके सूचना-आव्यूह को संकुचित करते हैं; वास्तविक-मूल्यवान कार्य होने के कारण, इन सूचना मानदंडों को अधिकतम किया जा सकता है।


परंपरागत रूप से, सांख्यिकीविदों ने सहप्रसरण आव्यूह (एक निष्पक्ष अनुमानक के) के कुछ सारांश आंकड़ों पर विचार करके अनुमानकों और डिजाइनों का मूल्यांकन किया है, सामान्यतः सकारात्मक वास्तविक मूल्यों (जैसे निर्धारक या [[मैट्रिक्स ट्रेस|आव्यूह ट्रेस]]) के साथ। सकारात्मक वास्तविक संख्याओं के साथ काम करने से कई फायदे मिलते हैं: यदि एकल पैरामीटर के अनुमानक में सकारात्मक भिन्नता है, तो भिन्नता और फिशर जानकारी दोनों सकारात्मक वास्तविक संख्याएं हैं; इसलिए वे गैर-ऋणात्मक वास्तविक संख्याओं के उत्तल शंकु के सदस्य हैं (जिनके शून्येतर सदस्य इसी शंकु में व्युत्क्रम हैं)।
परंपरागत रूप से, सांख्यिकीविदों ने सहप्रसरण आव्यूह (एक निष्पक्ष अनुमानक के) के कुछ सारांश आंकड़ों पर विचार करके अनुमानकों और डिजाइनों का मूल्यांकन किया है, सामान्यतः सकारात्मक वास्तविक मूल्यों (जैसे निर्धारक या [[मैट्रिक्स ट्रेस|आव्यूह ट्रेस]]) के साथ। सकारात्मक वास्तविक संख्याओं के साथ काम करने से कई फायदे मिलते हैं: यदि एकल पैरामीटर के अनुमानक में सकारात्मक भिन्नता है, तो भिन्नता और फिशर जानकारी दोनों सकारात्मक वास्तविक संख्याएं हैं; इसलिए वे गैर-ऋणात्मक वास्तविक संख्याओं के उत्तल शंकु के सदस्य हैं (जिनके शून्येतर सदस्य इसी शंकु में व्युत्क्रम हैं)।
Line 259: Line 257:
बायेसियन सांख्यिकी में, फिशर की जानकारी का उपयोग जेफ़रीज़ पूर्व की गणना करने के लिए किया जाता है, जो कि निरंतर वितरण मापदंडों के लिए मानक, गैर-सूचनात्मक पूर्व है।<ref>{{cite book |title=बायेसियन थ्योरी|first1=Jose M. |last1=Bernardo |first2=Adrian F. M. |last2=Smith |location=New York |publisher=John Wiley & Sons |year=1994 |isbn=978-0-471-92416-6 }}</ref>
बायेसियन सांख्यिकी में, फिशर की जानकारी का उपयोग जेफ़रीज़ पूर्व की गणना करने के लिए किया जाता है, जो कि निरंतर वितरण मापदंडों के लिए मानक, गैर-सूचनात्मक पूर्व है।<ref>{{cite book |title=बायेसियन थ्योरी|first1=Jose M. |last1=Bernardo |first2=Adrian F. M. |last2=Smith |location=New York |publisher=John Wiley & Sons |year=1994 |isbn=978-0-471-92416-6 }}</ref>
=== कम्प्यूटेशनल न्यूरोसाइंस ===
=== कम्प्यूटेशनल न्यूरोसाइंस ===
फिशर की जानकारी का उपयोग न्यूरल कोड की सटीकता पर सीमाएं खोजने के लिए किया गया है। उस मामले में, एक्स सामान्यतः कम आयामी चर θ (जैसे उत्तेजना पैरामीटर) का प्रतिनिधित्व करने वाले कई न्यूरॉन्स की संयुक्त प्रतिक्रिया होती है। विशेष रूप से तंत्रिका प्रतिक्रियाओं के शोर में सहसंबंधों की भूमिका का अध्ययन किया गया है।<ref>{{cite journal |last1=Abbott |first1=Larry F. |first2=Peter |last2=Dayan |title=जनसंख्या कोड की सटीकता पर सहसंबद्ध परिवर्तनशीलता का प्रभाव|journal=Neural Computation |volume=11 |issue=1 |year=1999 |pages=91–101 |doi=10.1162/089976699300016827 |pmid=9950724 |s2cid=2958438 }}</ref>
फिशर की जानकारी का उपयोग न्यूरल कोड की सटीकता पर सीमाएं खोजने के लिए किया गया है। उस स्थिति में, एक्स सामान्यतः कम आयामी चर θ (जैसे उत्तेजना पैरामीटर) का प्रतिनिधित्व करने वाले कई न्यूरॉन्स की संयुक्त प्रतिक्रिया होती है। विशेष रूप से तंत्रिका प्रतिक्रियाओं के शोर में सहसंबंधों की भूमिका का अध्ययन किया गया है।<ref>{{cite journal |last1=Abbott |first1=Larry F. |first2=Peter |last2=Dayan |title=जनसंख्या कोड की सटीकता पर सहसंबद्ध परिवर्तनशीलता का प्रभाव|journal=Neural Computation |volume=11 |issue=1 |year=1999 |pages=91–101 |doi=10.1162/089976699300016827 |pmid=9950724 |s2cid=2958438 }}</ref>
===भौतिक नियमों की व्युत्पत्ति===
===भौतिक नियमों की व्युत्पत्ति===
भौतिक कानूनों के आधार के रूप में बी. रॉय फ्रीडेन द्वारा प्रस्तुत विवादास्पद सिद्धांत में फिशर की जानकारी केंद्रीय भूमिका निभाती है, ऐसा दावा जो विवादित रहा है।<ref>{{cite book|first=R. F.|last=Streater|title=भौतिकी में और उससे परे खोए हुए कारण|publisher=Springer|year=2007|isbn=978-3-540-36581-5|page=69}}</ref>
भौतिक कानूनों के आधार के रूप में बी. रॉय फ्रीडेन द्वारा प्रस्तुत विवादास्पद सिद्धांत में फिशर की जानकारी केंद्रीय भूमिका निभाती है, ऐसा दावा जो विवादित रहा है।<ref>{{cite book|first=R. F.|last=Streater|title=भौतिकी में और उससे परे खोए हुए कारण|publisher=Springer|year=2007|isbn=978-3-540-36581-5|page=69}}</ref>

Revision as of 08:49, 20 June 2023

गणितीय आँकड़ों में, फ़िशर जानकारी (कभी-कभी केवल सूचना कहलाती है[1]) जानकारी की मात्रा को मापने का प्रकार है जो प्रेक्षण योग्य यादृच्छिक चर X वितरण के अज्ञात पैरामीटर θ के मॉडल X के विषय में होता है। औपचारिक रूप से, यह स्कोर की भिन्नता है, या देखी गई जानकारी का अपेक्षित मूल्य होता है।

सांख्यिकीविद् रोनाल्ड फिशर (फ्रांसिस यसिड्रो एडगेवर्थ द्वारा कुछ प्रारंभिक परिणामों के पश्चात) द्वारा अधिकतम-संभावना अनुमान के स्पर्शोन्मुख सिद्धांत में फिशर जानकारी की भूमिका पर जोर दिया गया था। फिशर जानकारी आव्यूह का उपयोग अधिकतम-संभावना अनुमानों से जुड़े सहप्रसरण आव्यूह की गणना करने के लिए किया जाता है। इसका उपयोग परीक्षण आँकड़ों के निर्माण में जैसे वाल्ड परीक्षण किया जा सकता है।

बायेसियन सांख्यिकी में, फिशर की जानकारी जेफ़रीज़ के नियम के अनुसार गैर-सूचनात्मक पूर्व वितरणों की व्युत्पत्ति में भूमिका निभाती है।[2] यह पश्च वितरण के बड़े-प्रारूप सहप्रसरण के रूप में भी प्रकट होता है, नियम यह है कि पूर्व पर्याप्त रूप से सुचारू हो (परिणाम जिसे बर्नस्टीन-वॉन मिज़ प्रमेय के रूप में जाना जाता है, जिसे घातीय परिवारों के लिए लाप्लास द्वारा प्रत्याशित किया गया था)।[3] लाप्लास के सन्निकटन के साथ पोस्टीरियर का अनुमान लगाते समय उसी परिणाम का उपयोग किया जाता है, जहां फिशर की जानकारी फिटेड गॉसियन के सहप्रसरण के रूप में दिखाई देती है।[4]

वैज्ञानिक प्रकृति (भौतिक, जैविक, आदि) की सांख्यिकीय प्रणालियाँ जिनके संभावित कार्य शिफ्ट-इनवेरिएंट का पालन करते हैं, उन्हें अधिकतम फिशर जानकारी का पालन करने के लिए दिखाया गया है।[5] अधिकतम का स्तर प्रणाली बाधाओं की प्रकृति पर निर्भर करता है।

परिभाषा

फ़िशर जानकारी, जानकारी की मात्रा को मापने की विधि है जो अवलोकन योग्य यादृच्छिक चर है में अज्ञात पैरामीटर है जिस पर की संभावना है निर्भर करता है। मान लीजिये के लिए प्रायिकता घनत्व फलन (या प्रायिकता द्रव्यमान फलन) के मान पर प्रतिबंधित होता है। यह संभावना का वर्णन करता है कि हम दिए गए परिणाम का निरीक्षण करते हैं , का ज्ञात मान दिया गया है। यदि में परिवर्तनों के संबंध में तीव्रता से चरम पर का उचित मान प्रदर्शित करना सरल है डेटा से, या समकक्ष, कि डेटा पैरामीटर के विषय में अत्यधिक जानकारी प्रदान करता है। यदि समतल और विस्तारित है, तो यह कई प्रतिरूप लेगा के वास्तविक उचित मान का अनुमान लगाने के लिए वह प्रतिचयन की जा रही संपूर्ण जनसंख्या का उपयोग करके प्राप्त किया जाएगा। यह किसी प्रकार के विचरण के संबंध में अध्ययन करने का सुझाव देता है।

औपचारिक रूप से, के संबंध में आंशिक व्युत्पन्न प्रायिकता फलन के प्राकृतिक लघुगणक को स्कोर कहा जाता है। कुछ नियमितता प्रावधानों के अंतर्गत, यदि उचित पैरामीटर है (अर्थात वास्तव में