पारस्परिक सूचना: Difference between revisions
m (Sugatha moved page आपसी जानकारी to पारस्परिक सूचना without leaving a redirect) |
|||
| Line 12: | Line 12: | ||
== परिभाषा == | == परिभाषा == | ||
मान लीजिए <math>(X,Y)</math> अंतरिक्ष में मानों के साथ यादृच्छिक चर की एक जोड़ी बनें <math>\mathcal{X}\times\mathcal{Y}</math>. यदि उनका संयुक्त वितरण है <math>P_{(X,Y)}</math> और सीमांत वितरण हैं <math>P_X</math> और <math>P_Y</math>, पारस्परिक सूचना को इस प्रकार परिभाषित किया गया है | |||
{{Equation box 1 | {{Equation box 1 | ||
| Line 22: | Line 22: | ||
|background colour = #F5FFFA | |background colour = #F5FFFA | ||
}} | }} | ||
जहाँ <math>D_{\mathrm{KL}}</math> समग्र्बैक-लीब्लर विचलन है। | |||
ध्यान दें, समग्र्बैक-लीबलर विचलन की संपत्ति के अनुसार, वह <math>I(X;Y)</math> ठीक उसी स्थिति में शून्य के बराबर होता है जब संयुक्त वितरण सीमांत के उत्पाद के साथ मेल खाता है, यानी जब <math>X</math> और <math>Y</math> स्वतंत्र हैं (और इसलिए अवलोकन कर रहे हैं <math>Y</math> आपको इसके बारे में कुछ नहीं बताता <math>X</math>). <math>I(X;Y)</math> गैर-ऋणात्मक है, यह एन्कोडिंग के लिए कीमत का एक माप है <math>(X,Y)</math> स्वतंत्र यादृच्छिक चरों की एक जोड़ी के रूप में जबकि वास्तव में वे नहीं हैं। | ध्यान दें, समग्र्बैक-लीबलर विचलन की संपत्ति के अनुसार, वह <math>I(X;Y)</math> ठीक उसी स्थिति में शून्य के बराबर होता है जब संयुक्त वितरण सीमांत के उत्पाद के साथ मेल खाता है, यानी जब <math>X</math> और <math>Y</math> स्वतंत्र हैं (और इसलिए अवलोकन कर रहे हैं <math>Y</math> आपको इसके बारे में कुछ नहीं बताता <math>X</math>). <math>I(X;Y)</math> गैर-ऋणात्मक है, यह एन्कोडिंग के लिए कीमत का एक माप है <math>(X,Y)</math> स्वतंत्र यादृच्छिक चरों की एक जोड़ी के रूप में जबकि वास्तव में वे नहीं हैं। | ||
| Line 45: | Line 45: | ||
}} | }} | ||
जहाँ <math>P_{(X,Y)}</math> का संयुक्त वितरण है <math>X</math> और <math>Y</math>, और <math>P_X</math> और <math>P_Y</math> के सीमांत संभाव्यता द्रव्यमान फलन हैं <math>X</math> और <math>Y</math> क्रमश: | |||
=== सतत वितरण के लिए पीडीएफ (PDFs) के संदर्भ में === | === सतत वितरण के लिए पीडीएफ (PDFs) के संदर्भ में === | ||
| Line 66: | Line 66: | ||
}} | }} | ||
जहाँ <math>P_{(X,Y)}</math> अब का संयुक्त संभाव्यता घनत्व फलन है <math>X</math> और <math>Y</math>, और <math>P_X</math> और <math>P_Y</math> के सीमांत संभाव्यता घनत्व फलन हैं <math>X</math> और <math>Y</math> क्रमश: | |||
== प्रेरणा == | == प्रेरणा == | ||
सहज रूप से, पारस्परिक सूचना उस सूचना को मापती है <math>X</math> और <math>Y</math> शेयर: यह मापता है कि इनमें से किसी एक चर को जानने से दूसरे के बारे में अनिश्चितता कितनी कम हो जाती है। उदाहरण के लिए, यदि <math>X</math> और <math>Y</math> स्वतंत्र हैं, तो जानना <math>X</math> के बारे में कोई सूचना नहीं देता <math>Y</math> और इसके विपरीत, इसलिए उनकी पारस्परिक सूचना शून्य है। दूसरे गंभीर पर, यदि <math>X</math> का एक नियतात्मक कार्य है <math>Y</math> और <math>Y</math> का एक नियतात्मक कार्य है <math>X</math> फिर सारी सूचना दी गई <math>X</math> के साथ साझा किया जाता है <math>Y</math>: जानना <math>X</math> का मूल्य निर्धारित करता है <math>Y</math> और इसके | सहज रूप से, पारस्परिक सूचना उस सूचना को मापती है <math>X</math> और <math>Y</math> शेयर: यह मापता है कि इनमें से किसी एक चर को जानने से दूसरे के बारे में अनिश्चितता कितनी कम हो जाती है। उदाहरण के लिए, यदि <math>X</math> और <math>Y</math> स्वतंत्र हैं, तो जानना <math>X</math> के बारे में कोई सूचना नहीं देता <math>Y</math> और इसके विपरीत, इसलिए उनकी पारस्परिक सूचना शून्य है। दूसरे गंभीर पर, यदि <math>X</math> का एक नियतात्मक कार्य है <math>Y</math> और <math>Y</math> का एक नियतात्मक कार्य है <math>X</math> फिर सारी सूचना दी गई <math>X</math> के साथ साझा किया जाता है <math>Y</math>: जानना <math>X</math> का मूल्य निर्धारित करता है <math>Y</math> और इसके विपरीत है। परिणामस्वरूप, इस मामले में पारस्परिक सूचना वैसी ही है जैसी अनिश्चितता निहित है <math>Y</math> (या <math>X</math>) अकेले, अर्थात् की [[सूचना एन्ट्रापी]] <math>Y</math> (या <math>X</math>). इसके अतिरिक्त, यह पारस्परिक सूचना एन्ट्रापी के समान है <math>X</math> और की एन्ट्रापी के रूप में <math>Y</math>. (इसका एक बहुत ही विशेष विषय है जब <math>X</math> और <math>Y</math> समान यादृच्छिक चर हैं।) | ||
पारस्परिक सूचना संयुक्त वितरण में व्यक्त अंतर्निहित निर्भरता का एक माप है <math>X</math> और <math>Y</math> के सीमांत वितरण के सापेक्ष <math>X</math> और <math>Y</math> स्वतंत्रता की धारणा के तहत. इसलिए पारस्परिक सूचना निम्नलिखित अर्थों में निर्भरता को मापती है: <math>\operatorname{I}(X;Y) = 0</math> [[अगर और केवल अगर|यदि और केवल यदि]] <math>X</math> और <math>Y</math> स्वतंत्र यादृच्छिक चर हैं। इसे एक दिशा में देखना आसान है: यदि <math>X</math> और <math>Y</math> फिर स्वतंत्र हैं <math>p_{(X,Y)}(x,y)=p_X(x) \cdot p_Y(y)</math>, और इसलिए: | पारस्परिक सूचना संयुक्त वितरण में व्यक्त अंतर्निहित निर्भरता का एक माप है <math>X</math> और <math>Y</math> के सीमांत वितरण के सापेक्ष <math>X</math> और <math>Y</math> स्वतंत्रता की धारणा के तहत. इसलिए पारस्परिक सूचना निम्नलिखित अर्थों में निर्भरता को मापती है: <math>\operatorname{I}(X;Y) = 0</math> [[अगर और केवल अगर|यदि और केवल यदि]] <math>X</math> और <math>Y</math> स्वतंत्र यादृच्छिक चर हैं। इसे एक दिशा में देखना आसान है: यदि <math>X</math> और <math>Y</math> फिर स्वतंत्र हैं <math>p_{(X,Y)}(x,y)=p_X(x) \cdot p_Y(y)</math>, और इसलिए: | ||
:<math> \log{ \left( \frac{p_{(X,Y)}(x,y)}{p_X(x)\,p_Y(y)} \right) } = \log 1 = 0 .</math> | :<math> \log{ \left( \frac{p_{(X,Y)}(x,y)}{p_X(x)\,p_Y(y)} \right) } = \log 1 = 0 .</math> | ||
इसके | इसके अतिरिक्त, पारस्परिक सूचना गैर-ऋणात्मक है (अर्थात <math>\operatorname{I}(X;Y) \ge 0</math> नीचे देखें) और सममित समुच्चय (यानी) <math>\operatorname{I}(X;Y) = \operatorname{I}(Y;X)</math> नीचे देखें)। | ||
== गुण == | == गुण == | ||
| Line 101: | Line 101: | ||
&{} \equiv \Eta(X, Y) - \Eta(X\mid Y) - \Eta(Y\mid X) | &{} \equiv \Eta(X, Y) - \Eta(X\mid Y) - \Eta(Y\mid X) | ||
\end{align}</math> | \end{align}</math> | ||
जहाँ <math>\Eta(X)</math> और <math>\Eta(Y)</math> सीमांत सूचना एन्ट्रापी हैं, <math>\Eta(X\mid Y)</math> और <math>\Eta(Y\mid X)</math> सशर्त एन्ट्रापी हैं, और <math>\Eta(X,Y)</math> की संयुक्त एन्ट्रापी है <math>X</math> और <math>Y</math>. | |||
दो समुच्चयों के मिलन, अंतर और प्रतिच्छेदन की सादृश्यता पर ध्यान दें: इस संबंध में, ऊपर दिए गए सभी सूत्र लेख की प्रारंभ में बताए गए वेन आरेख से स्पष्ट हैं। | दो समुच्चयों के मिलन, अंतर और प्रतिच्छेदन की सादृश्यता पर ध्यान दें: इस संबंध में, ऊपर दिए गए सभी सूत्र लेख की प्रारंभ में बताए गए वेन आरेख से स्पष्ट हैं। | ||
| Line 139: | Line 139: | ||
}} | }} | ||
इसके | इसके अतिरिक्त, चलो <math> p_{(X,Y)}(x,y) =p_{X\mid Y=y}(x)* p_Y(y)</math> सशर्त द्रव्यमान या घनत्व समुच्चय हो। फिर, हमारी पहचान है | ||
{{Equation box 1 | {{Equation box 1 | ||
| Line 167: | Line 167: | ||
=== पारस्परिक सूचना का बायेसियन अनुमान === | === पारस्परिक सूचना का बायेसियन अनुमान === | ||
यदि संयुक्त वितरण से नमूने उपलब्ध हैं, तो उस वितरण की पारस्परिक सूचना का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग किया जा सकता है। ऐसा करने वाला पहला काम था, जिसमें यह भी दिखाया गया कि पारस्परिक सूचना के | यदि संयुक्त वितरण से नमूने उपलब्ध हैं, तो उस वितरण की पारस्परिक सूचना का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग किया जा सकता है। ऐसा करने वाला पहला काम था, जिसमें यह भी दिखाया गया कि पारस्परिक सूचना के अतिरिक्त कई अन्य सूचना-सैद्धांतिक गुणों का बायेसियन अनुमान कैसे लगाया जाए।<ref>{{cite journal | last1 = Wolpert | first1 = D.H. | last2 = Wolf | first2 = D.R. | year = 1995 | title = नमूनों के एक सीमित सेट से संभाव्यता वितरण के कार्यों का अनुमान लगाना| journal = Physical Review E | volume = 52 | issue = 6 | pages = 6841–6854 | doi = 10.1103/PhysRevE.52.6841 | pmid = 9964199 | citeseerx = 10.1.1.55.7122 | bibcode = 1995PhRvE..52.6841W | s2cid = 9795679 }}</ref> बाद के शोधकर्ताओं ने पुनः प्राप्त किया है <ref>{{cite journal | last1 = Hutter | first1 = M. | year = 2001 | title = पारस्परिक सूचना का वितरण| journal = Advances in Neural Information Processing Systems }}</ref> और विस्तारित है। <ref>{{cite journal | last1 = Archer | first1 = E. | last2 = Park | first2 = I.M. | last3 = Pillow | first3 = J. | year = 2013 | title = असतत डेटा से पारस्परिक जानकारी के लिए बायेसियन और अर्ध-बायेसियन अनुमानक| journal = Entropy| volume = 15 | issue = 12 | pages = 1738–1755 | doi = 10.3390/e15051738 | citeseerx = 10.1.1.294.4690 | bibcode = 2013Entrp..15.1738A | doi-access = free }}</ref> | ||
यह विश्लेषण. देखना <ref>{{cite journal | last1 = Wolpert | first1 = D.H | last2 = DeDeo | first2 = S. | year = 2013 | title = अज्ञात आकार के स्थानों पर परिभाषित वितरण के कार्यों का अनुमान लगाना| journal = Entropy | volume = 15 | issue = 12 | pages = 4668–4699 | doi = 10.3390/e15114668 | arxiv = 1311.4548 | bibcode = 2013Entrp..15.4668W | s2cid = 2737117 | doi-access = free }}</ref> एक हालिया पेपर के लिए, जो विशेष रूप से पारस्परिक अनुमान के अनुरूप तैयार किया गया है। | यह विश्लेषण. देखना <ref>{{cite journal | last1 = Wolpert | first1 = D.H | last2 = DeDeo | first2 = S. | year = 2013 | title = अज्ञात आकार के स्थानों पर परिभाषित वितरण के कार्यों का अनुमान लगाना| journal = Entropy | volume = 15 | issue = 12 | pages = 4668–4699 | doi = 10.3390/e15114668 | arxiv = 1311.4548 | bibcode = 2013Entrp..15.4668W | s2cid = 2737117 | doi-access = free }}</ref> एक हालिया पेपर के लिए, जो विशेष रूप से पारस्परिक अनुमान के अनुरूप तैयार किया गया है। | ||
सूचना प्रति से. इसके | सूचना प्रति से. इसके अतिरिक्त, हाल ही में निरंतर और बहुभिन्नरूपी आउटपुट के लिए एक अनुमान पद्धति लेखांकन, <math>Y</math>, में प्रस्तावित किया गया था।<ref>{{citation| journal = [[PLOS Computational Biology]]|volume = 15|issue = 7|pages = e1007132|doi = 10.1371/journal.pcbi.1007132|pmid = 31299056|pmc = 6655862|title=Information-theoretic analysis of multivariate single-cell signaling responses|author1= Tomasz Jetka|author2= Karol Nienaltowski|author3= Tomasz Winarski| author4=Slawomir Blonski| author5= Michal Komorowski|year=2019|bibcode = 2019PLSCB..15E7132J|arxiv = 1808.05581}}</ref> | ||
===स्वतंत्रता धारणाएँ=== | ===स्वतंत्रता धारणाएँ=== | ||
| Line 288: | Line 288: | ||
=== [[निर्देशित जानकारी|निर्देशित सूचना]] === | === [[निर्देशित जानकारी|निर्देशित सूचना]] === | ||
निर्देशित सूचना, <math>\operatorname{I}\left(X^n \to Y^n\right)</math>, प्रक्रिया से प्रवाहित होने वाली सूचना की मात्रा को मापता है <math>X^n</math> को <math>Y^n</math>, | निर्देशित सूचना, <math>\operatorname{I}\left(X^n \to Y^n\right)</math>, प्रक्रिया से प्रवाहित होने वाली सूचना की मात्रा को मापता है <math>X^n</math> को <math>Y^n</math>, जहाँ <math>X^n</math> सदिश को दर्शाता है <math>X_1, X_2, ..., X_n</math> और <math>Y^n</math> अर्थ है <math>Y_1, Y_2, ..., Y_n</math>. निर्देशित सूचना शब्द [[जेम्स मैसी]] द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है | ||
:<math> | :<math> | ||
\operatorname{I}\left(X^n \to Y^n\right) | \operatorname{I}\left(X^n \to Y^n\right) | ||
| Line 361: | Line 361: | ||
= \sum_{y \in Y} \sum_{x \in X} p(x, y) \log \frac{p(x, y)}{p(x)\,p(y)}, | = \sum_{y \in Y} \sum_{x \in X} p(x, y) \log \frac{p(x, y)}{p(x)\,p(y)}, | ||
</math> | </math> | ||
प्रत्येक घटना या वस्तु द्वारा निर्दिष्ट <math>(x, y)</math> संगत संभाव्यता द्वारा भारित किया जाता है <math>p(x, y)</math>. यह मानता है कि घटित होने की संभावना के | प्रत्येक घटना या वस्तु द्वारा निर्दिष्ट <math>(x, y)</math> संगत संभाव्यता द्वारा भारित किया जाता है <math>p(x, y)</math>. यह मानता है कि घटित होने की संभावना के अतिरिक्त सभी वस्तुएँ या घटनाएँ समतुल्य हैं। हालाँकि, कुछ अनुप्रयोगों में ऐसा हो सकता है कि कुछ वस्तुएँ या घटनाएँ दूसरों की तुलना में अधिक महत्वपूर्ण हों, या एसोसिएशन के कुछ पैटर्न दूसरों की तुलना में शब्दार्थ की दृष्टि से अधिक महत्वपूर्ण हों। | ||
उदाहरण के लिए, नियतात्मक मानचित्रण <math>\{(1,1),(2,2),(3,3)\}</math> नियतात्मक मानचित्रण की तुलना में इसे अधिक मजबूत माना जा सकता है <math>\{(1,3),(2,1),(3,2)\}</math>, हालाँकि इन संबंधों से समान पारस्परिक सूचना प्राप्त होगी। ऐसा इसलिए है क्योंकि पारस्परिक सूचना परिवर्तनीय मानों में किसी अंतर्निहित क्रम के प्रति बिल्समग्र भी संवेदनशील नहीं है ({{harvnb|क्रोनबैक|1954}}, {{harvnb|कूम्ब्स|डावेस|टावर्सकी|1970}}, {{harvnb|लॉकहेड|1970}}), और इसलिए संबंधित चरों के बीच संबंधपरक मानचित्रण के स्वरूप के प्रति बिल्समग्र भी संवेदनशील नहीं है। यदि यह वांछित है कि पूर्व संबंध - सभी परिवर्तनीय मूल्यों पर सहमति दिखाते हुए - बाद के संबंध से अधिक मजबूत आंका जाए, तो निम्नलिखित ''भारित पारस्परिक सूचना'' का उपयोग करना संभव है {{harv|Guiasu|1977}}. | उदाहरण के लिए, नियतात्मक मानचित्रण <math>\{(1,1),(2,2),(3,3)\}</math> नियतात्मक मानचित्रण की तुलना में इसे अधिक मजबूत माना जा सकता है <math>\{(1,3),(2,1),(3,2)\}</math>, हालाँकि इन संबंधों से समान पारस्परिक सूचना प्राप्त होगी। ऐसा इसलिए है क्योंकि पारस्परिक सूचना परिवर्तनीय मानों में किसी अंतर्निहित क्रम के प्रति बिल्समग्र भी संवेदनशील नहीं है ({{harvnb|क्रोनबैक|1954}}, {{harvnb|कूम्ब्स|डावेस|टावर्सकी|1970}}, {{harvnb|लॉकहेड|1970}}), और इसलिए संबंधित चरों के बीच संबंधपरक मानचित्रण के स्वरूप के प्रति बिल्समग्र भी संवेदनशील नहीं है। यदि यह वांछित है कि पूर्व संबंध - सभी परिवर्तनीय मूल्यों पर सहमति दिखाते हुए - बाद के संबंध से अधिक मजबूत आंका जाए, तो निम्नलिखित ''भारित पारस्परिक सूचना'' का उपयोग करना संभव है {{harv|Guiasu|1977}}. | ||
| Line 419: | Line 419: | ||
कब <math>X</math> और <math>Y</math> राज्यों की एक पृथक संख्या में होने तक सीमित हैं, अवलोकन डेटा को पंक्ति चर के साथ एक आकस्मिक तालिका में संक्षेपित किया गया है <math>X</math> (या <math>i</math>) और स्तंभ चर <math>Y</math> (या <math>j</math>). पारस्परिक सूचना पंक्ति और स्तंभ चर के बीच संबंध (सांख्यिकी) या [[सहसंबंध और निर्भरता]] के उपायों में से एक है। | कब <math>X</math> और <math>Y</math> राज्यों की एक पृथक संख्या में होने तक सीमित हैं, अवलोकन डेटा को पंक्ति चर के साथ एक आकस्मिक तालिका में संक्षेपित किया गया है <math>X</math> (या <math>i</math>) और स्तंभ चर <math>Y</math> (या <math>j</math>). पारस्परिक सूचना पंक्ति और स्तंभ चर के बीच संबंध (सांख्यिकी) या [[सहसंबंध और निर्भरता]] के उपायों में से एक है। | ||
एसोसिएशन के अन्य उपायों में पियर्सन के ची-स्क्वायर टेस्ट आँकड़े, जी-परीक्षण आँकड़े आदि सम्मिलित हैं। वास्तव में, एक ही लॉग बेस के साथ, पारस्परिक सूचना जी-टेस्ट लॉग-संभावना आँकड़े के बराबर होगी जिसे विभाजित किया गया है <math>2N</math>, | एसोसिएशन के अन्य उपायों में पियर्सन के ची-स्क्वायर टेस्ट आँकड़े, जी-परीक्षण आँकड़े आदि सम्मिलित हैं। वास्तव में, एक ही लॉग बेस के साथ, पारस्परिक सूचना जी-टेस्ट लॉग-संभावना आँकड़े के बराबर होगी जिसे विभाजित किया गया है <math>2N</math>, जहाँ <math>N</math> नमूना आकार है. | ||
== अनुप्रयोग == | == अनुप्रयोग == | ||
| Line 433: | Line 433: | ||
|background colour = #F5FFFA | |background colour = #F5FFFA | ||
}} | }} | ||
: | : जहाँ <math>f_{XY}</math> बिग्राम xy कॉर्पस में प्रकट होने की संख्या है, <math>f_{X}</math> कॉर्पस में यूनीग्राम x प्रकट होने की संख्या है, बी बिग्राम की समग्र संख्या है, और यू यूनीग्राम की समग्र संख्या है।<ref name=magerman/> | ||
: | : | ||
: | : | ||
Revision as of 14:35, 17 July 2023
| Information theory |
|---|
संभाव्यता सिद्धांत और सूचना सिद्धांत में, दो यादृच्छिक चर की पारस्परिक सूचना (एमआई) दो चर के बीच पारस्परिक निर्भरता का एक माप है। अधिक विशेष रूप से, यह दूसरे यादृच्छिक चर का अवलोकन करके एक यादृच्छिक चर के बारे में प्राप्त की गई "सूचना की मात्रा" (शैनन (बिट्स), नेट्स या हार्टलेज़ जैसी इकाइयों में) की मात्रा निर्धारित करता है। पारस्परिक सूचना की अवधारणा एक यादृच्छिक चर की एन्ट्रापी से घनिष्ठ रूप से जुड़ी हुई है, सूचना सिद्धांत में एक मौलिक धारणा जो एक यादृच्छिक चर में रखी गई अपेक्षित "सूचना की मात्रा" की मात्रा निर्धारित करती है।
वास्तविक-मूल्य वाले यादृच्छिक चर और सहसंबंध गुणांक जैसी रैखिक निर्भरता तक सीमित नहीं, एमआई अधिक सामान्य है और यह निर्धारित करता है कि जोड़ी का संयुक्त वितरण कितना भिन्न है के सीमांत वितरण के उत्पाद से है और . एमआई बिंदुवार पारस्परिक सूचना (पीएमआई) का अपेक्षित मूल्य है।
मात्रा को क्लाउड शैनन ने अपने ऐतिहासिक पेपर "ए मैथमैटिकल थ्योरी ऑफ कम्युनिकेशन" में परिभाषित और विश्लेषण किया था, हालांकि उन्होंने इसे "पारस्परिक सूचना" नहीं कहा था। यह शब्द बाद में रॉबर्ट फ़ानो द्वारा अंकित किया गया था।[2] पारस्परिक सूचना को सूचना लाभ के रूप में भी जाना जाता है।
परिभाषा
मान लीजिए अंतरिक्ष में मानों के साथ यादृच्छिक चर की एक जोड़ी बनें . यदि उनका संयुक्त वितरण है और सीमांत वितरण हैं और , पारस्परिक सूचना को इस प्रकार परिभाषित किया गया है
जहाँ समग्र्बैक-लीब्लर विचलन है।
ध्यान दें, समग्र्बैक-लीबलर विचलन की संपत्ति के अनुसार, वह ठीक उसी स्थिति में शून्य के बराबर होता है जब संयुक्त वितरण सीमांत के उत्पाद के साथ मेल खाता है, यानी जब और स्वतंत्र हैं (और इसलिए अवलोकन कर रहे हैं आपको इसके बारे में कुछ नहीं बताता ). गैर-ऋणात्मक है, यह एन्कोडिंग के लिए कीमत का एक माप है स्वतंत्र यादृच्छिक चरों की एक जोड़ी के रूप में जबकि वास्तव में वे नहीं हैं।
यदि प्राकृतिक लघुगणक का उपयोग किया जाता है, तो पारस्परिक सूचना की इकाई नेट (इकाई) है। यदि लघुगणक 2 का उपयोग किया जाता है, तो पारस्परिक सूचना की इकाई शैनन (इकाई) है, जिसे बिट के रूप में भी जाना जाता है। यदि लघुगणक 10 का उपयोग किया जाता है, तो पारस्परिक सूचना की इकाई हार्टले (इकाई) है, जिसे प्रतिबंध या डीआईटी के रूप में भी जाना जाता है।
पृथक-पृथक वितरण के लिए पीएमएफ (PMFs) के संदर्भ में
दो संयुक्त रूप से असतत यादृच्छिक चर की पारस्परिक सूचना और दोगुनी राशि के रूप में गणना की जाती है:[3]: 20
|
(Eq.1) |
जहाँ का संयुक्त वितरण है और , और और के सीमांत संभाव्यता द्रव्यमान फलन हैं और क्रमश:
सतत वितरण के लिए पीडीएफ (PDFs) के संदर्भ में
संयुक्त रूप से निरंतर यादृच्छिक चर के मामले में, दोहरे योग को दोहरे अभिन्न अंग द्वारा प्रतिस्थापित किया जाता है:[3]: 251
|
(Eq.2) |
जहाँ अब का संयुक्त संभाव्यता घनत्व फलन है और , और और के सीमांत संभाव्यता घनत्व फलन हैं और क्रमश:
प्रेरणा
सहज रूप से, पारस्परिक सूचना उस सूचना को मापती है और शेयर: यह मापता है कि इनमें से किसी एक चर को जानने से दूसरे के बारे में अनिश्चितता कितनी कम हो जाती है। उदाहरण के लिए, यदि और स्वतंत्र हैं, तो जानना के बारे में कोई सूचना नहीं देता और इसके विपरीत, इसलिए उनकी पारस्परिक सूचना शून्य है। दूसरे गंभीर पर, यदि का एक नियतात्मक कार्य है और का एक नियतात्मक कार्य है फिर सारी सूचना दी गई के साथ साझा किया जाता है : जानना का मूल्य निर्धारित करता है और इसके विपरीत है। परिणामस्वरूप, इस मामले में पारस्परिक सूचना वैसी ही है जैसी अनिश्चितता निहित है (या ) अकेले, अर्थात् की सूचना एन्ट्रापी (या ). इसके अतिरिक्त, यह पारस्परिक सूचना एन्ट्रापी के समान है और की एन्ट्रापी के रूप में . (इसका एक बहुत ही विशेष विषय है जब और समान यादृच्छिक चर हैं।)
पारस्परिक सूचना संयुक्त वितरण में व्यक्त अंतर्निहित निर्भरता का एक माप है और के सीमांत वितरण के सापेक्ष और स्वतंत्रता की धारणा के तहत. इसलिए पारस्परिक सूचना निम्नलिखित अर्थों में निर्भरता को मापती है: यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं। इसे एक दिशा में देखना आसान है: यदि और फिर स्वतंत्र हैं , और इसलिए:
इसके अतिरिक्त, पारस्परिक सूचना गैर-ऋणात्मक है (अर्थात नीचे देखें) और सममित समुच्चय (यानी) नीचे देखें)।
गुण
गैर-ऋणात्मकता
पारस्परिक सूचना की परिभाषा पर जेन्सेन की असमानता का उपयोग करके हम यह दिखा सकते हैं गैर-ऋणात्मक है, अर्थात[3]: 28
समरूपता
एन्ट्रापी के साथ संबंध को ध्यान में रखते हुए प्रमाण दिया गया है, जैसा कि नीचे दिखाया गया है।
स्वतंत्रता के तहत सुपरमॉड्यूलरिटी
यदि से स्वतंत्र है , तब
- .[4]
सशर्त और संयुक्त एन्ट्रापी से संबंध
पारस्परिक सूचना को समान रूप से इस प्रकार व्यक्त किया जा सकता है:
जहाँ और सीमांत सूचना एन्ट्रापी हैं, और सशर्त एन्ट्रापी हैं, और की संयुक्त एन्ट्रापी है और .
दो समुच्चयों के मिलन, अंतर और प्रतिच्छेदन की सादृश्यता पर ध्यान दें: इस संबंध में, ऊपर दिए गए सभी सूत्र लेख की प्रारंभ में बताए गए वेन आरेख से स्पष्ट हैं।
एक संचार चैनल के संदर्भ में जिसमें आउटपुट इनपुट का एक रव संस्करण है , इन संबंधों को चित्र में संक्षेपित किया गया है:
क्योंकि गैर-ऋणात्मक है, फलस्वरूप, . यहां हम इसका विस्तृत विवरण देते हैं संयुक्त रूप से असतत यादृच्छिक चर के मामले के लिए:
ऊपर दी गई अन्य पहचानों के प्रमाण समान हैं। सामान्य मामले का प्रमाण (सिर्फ पृथक नहीं) समान है, जिसमें योगों की जगह अभिन्न अंग सम्मिलित हैं।
सहज रूप से, यदि एन्ट्रापी तब इसे एक यादृच्छिक चर के बारे में अनिश्चितता का माप माना जाता है क्या का एक उपाय है के बारे में नहीं कहता . इसे लेकर काफी अनिश्चितता बनी हुई है बाद ज्ञात है, और इस प्रकार इन समानताओं में से दूसरे के दाहिने पक्ष को अनिश्चितता की मात्रा के रूप में पढ़ा जा सकता है , में अनिश्चितता की मात्रा को घटाकर जो बाद में रहता है ज्ञात है, जो अनिश्चितता की मात्रा के बराबर है जो जानने से दूर हो जाता है . यह सूचना की मात्रा (अर्थात अनिश्चितता में कमी) के रूप में पारस्परिक सूचना के सहज अर्थ की पुष्टि करता है जो किसी भी चर को जानने से दूसरे के बारे में पता चलता है।
ध्यान दें कि पृथक मामले में और इसलिए . इस प्रकार , और कोई भी मूलभूत सिद्धांत बना सकता है कि एक चर में अपने बारे में कम से कम उतनी सूचना होती है जितनी कोई अन्य चर प्रदान कर सकता है।
समग्र्बैक-लीब्लर विचलन से संबंध
संयुक्त रूप से असतत या संयुक्त रूप से निरंतर जोड़े के लिए , पारस्परिक सूचना सीमांत वितरण के उत्पाद से समग्र्बैक-लीब्लर विचलन है, , संयुक्त वितरण का , वह है,
इसके अतिरिक्त, चलो सशर्त द्रव्यमान या घनत्व समुच्चय हो। फिर, हमारी पहचान है
संयुक्त रूप से असतत यादृच्छिक चर का प्रमाण इस प्रकार है:
इसी प्रकार संयुक्त रूप से निरंतर यादृच्छिक चरों के लिए भी यह पहचान स्थापित की जा सकती है।
ध्यान दें कि यहां समग्रबैक-लीबलर विचलन में यादृच्छिक चर के मूल्यों पर एकीकरण सम्मिलित है केवल, और अभिव्यक्ति अभी भी एक यादृच्छिक चर को दर्शाता है क्योंकि यादृच्छिक है. इस प्रकार पारस्परिक सूचना को अविभाज्य वितरण के समग्र्बैक-लीब्लर विचलन के अपेक्षित मूल्य के रूप में भी समझा जा सकता है का सशर्त वितरण से का दिया गया : वितरण जितने अधिक भिन्न होंगे और औसतन, समग्र्बैक-लीब्लर विचलन जितना अधिक होगा।
पारस्परिक सूचना का बायेसियन अनुमान
यदि संयुक्त वितरण से नमूने उपलब्ध हैं, तो उस वितरण की पारस्परिक सूचना का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग किया जा सकता है। ऐसा करने वाला पहला काम था, जिसमें यह भी दिखाया गया कि पारस्परिक सूचना के अतिरिक्त कई अन्य सूचना-सैद्धांतिक गुणों का बायेसियन अनुमान कैसे लगाया जाए।[5] बाद के शोधकर्ताओं ने पुनः प्राप्त किया है [6] और विस्तारित है। [7]
यह विश्लेषण. देखना [8] एक हालिया पेपर के लिए, जो विशेष रूप से पारस्परिक अनुमान के अनुरूप तैयार किया गया है।
सूचना प्रति से. इसके अतिरिक्त, हाल ही में निरंतर और बहुभिन्नरूपी आउटपुट के लिए एक अनुमान पद्धति लेखांकन, , में प्रस्तावित किया गया था।[9]
स्वतंत्रता धारणाएँ
पारस्परिक सूचना का समग्र्बैक-लीबलर विचलन सूत्रीकरण इस बात पर आधारित है कि कोई व्यक्ति तुलना करने में रुचि रखता है पूरी तरह से गुणनखंडित बाहरी उत्पाद के लिए . कई समस्याओं में, जैसे कि गैर-ऋणात्मक आव्यूह गुणनखंडन, व्यक्ति कम गंभीर गुणनखंडन में रुचि रखता है; विशेष रूप से, कोई तुलना करना चाहता है किसी अज्ञात चर में निम्न-रैंक आव्यूह सन्निकटन के लिए ; अर्थात्, किसी के पास कितनी डिग्री हो सकती है
वैकल्पिक रूप से, किसी को यह जानने में रुचि हो सकती है कि कितनी अधिक सूचना है इसके गुणनखंडन को आगे बढ़ाता है। ऐसे में जितनी सूचना उतनी अधिक वितरण आव्यूह गुणनखंडित को समग्र्बैक-लीब्लर डाइवर्जेंस द्वारा दिया जाता है
पारस्परिक सूचना की पारंपरिक परिभाषा गंभीर मामले में पुनर्प्राप्त की जाती है जो कि प्रक्रिया है के लिए केवल एक ही मान है .
विविधताएं
विभिन्न आवश्यकताओं के अनुरूप पारस्परिक सूचना में कई परिवर्तन प्रस्तावित किए गए हैं। इनमें सामान्यीकृत वेरिएंट और दो से अधिक वेरिएबल के सामान्यीकरण सम्मिलित हैं।
मापीय
कई अनुप्रयोगों के लिए एक मापीय (गणित) की आवश्यकता होती है, अर्थात, बिंदुओं के जोड़े के बीच की दूरी मापना। मात्रा
एक मापीय के गुणों को संतुष्ट करता है (त्रिकोण असमानता, गैर-ऋणात्मकता, अविवेकी और समरूपता की पहचान)। इस दूरी मापीय को सूचना की भिन्नता के रूप में भी जाना जाता है।
यदि असतत यादृच्छिक चर हैं तो सभी एन्ट्रापी पद गैर-ऋणात्मक हैं, इसलिए और कोई सामान्यीकृत दूरी परिभाषित कर सकता है
मापीय एक सार्वभौमिक मापीय है, इसमें यदि कोई अन्य दूरी मापी जाती है और पास में, फिर उन्हें भी करीब से परखेंगे.[10]
परिभाषाओं को जोड़ने से यह पता चलता है
इसे राजस्की दूरी के नाम से जाना जाता है।[11] सूचना की एक समुच्चय-सैद्धांतिक व्याख्या में (सशर्त एन्ट्रापी के लिए चित्र देखें), यह प्रभावी रूप से जैककार्ड सूचकांक है और .
आखिरकार,
एक मापीय भी है.
सशर्त पारस्परिक सूचना
कभी-कभी दो यादृच्छिक चरों की पारस्परिक सूचना को किसी तीसरे पर व्यक्त करना उपयोगी होता है।
संयुक्त रूप से असतत यादृच्छिक चर के लिए यह रूप लेता है
जिसे इस प्रकार सरल बनाया जा सकता है
संयुक्त रूप से निरंतर यादृच्छिक चर के लिए यह रूप लेता है
जिसे इस प्रकार सरल बनाया जा सकता है
तीसरे यादृच्छिक चर पर कंडीशनिंग या तो पारस्परिक सूचना को बढ़ा या घटा सकती है, लेकिन यह सदैव सच है
असतत, संयुक्त रूप से वितरित यादृच्छिक चर के लिए . इस परिणाम का उपयोग सूचना सिद्धांत में अन्य असमानताओं को साबित करने के लिए मूलभूत निर्माण खंड के रूप में किया गया है।
इंटरैक्शन सूचना
दो से अधिक यादृच्छिक चरों के लिए पारस्परिक सूचना के कई सामान्यीकरण प्रस्तावित किए गए हैं, जैसे समग्र सहसंबंध (या बहु-सूचना) और दोहरा समग्र सहसंबंध है। बहुभिन्नरूपी उच्च-स्तरीय पारस्परिक सूचना की अभिव्यक्ति और अध्ययन दो प्रतीत होता है स्वतंत्र कार्यों में हासिल किया गया था: मैकगिल (1954)[12] जिन्होंने इन कार्यों को इंटरेक्शन सूचना कहा, और हू कुओ टिंग (1962)।[13] एक वेरिएबल के लिए इंटरैक्शन सूचना इस प्रकार परिभाषित की गई है:
और के लिए
कुछ लेखक पूर्ववर्ती समीकरण के दाहिनी ओर शब्दों के क्रम को उलट देते हैं, जिससे यादृच्छिक चर की संख्या विषम होने पर चिह्न बदल जाता है। (और इस मामले में, एकल-चर अभिव्यक्ति एन्ट्रापी का ऋणात्मक बन जाती है।) ध्यान दें
बहुभिन्नरूपी सांख्यिकीय स्वतंत्रता
बहुभिन्नरूपी पारस्परिक सूचना फलनों जोड़ीदार स्वतंत्रता मामले को सामान्यीकृत करते हैं जो बताता है यदि और केवल यदि , स्वेच्छन्दता से असंख्य चर के लिए। n चर परस्पर स्वतंत्र हैं यदि और केवल यदि पारस्परिक सूचना कार्य लुप्त हो जाते हैं साथ (प्रमेय 2[14]). इस अर्थ में, एक परिष्कृत सांख्यिकीय स्वतंत्रता मानदंड के रूप में उपयोग किया जा सकता है।
अनुप्रयोग
3 चरों के लिए, ब्रेनर एट अल है। तंत्रिका कोडिंग के लिए बहुभिन्नरूपी पारस्परिक सूचना लागू की गई और इसे ऋणात्मकता तालमेल कहा गया [15] और वॉटकिंसन एट अल है। इसे आनुवंशिक अभिव्यक्ति पर लागू किया।[16] स्वेच्छन्दता से k चर के लिए, तापिया एट अल है। जीन अभिव्यक्ति के लिए बहुभिन्नरूपी पारस्परिक सूचना लागू की गई।[17][14]यह शून्य, धनात्मक या ऋणात्मक हो सकता है।[13] धनात्मकता जोड़ीदार सहसंबंधों को सामान्यीकृत करने वाले संबंधों से मेल खाती है, शून्यता स्वतंत्रता की परिष्कृत धारणा से मेल खाती है, और ऋणात्मकता उच्च आयामी उभरते संबंधों और क्लस्टर किए गए डेटापॉइंट्स का पता लगाती है [17]).
एक उच्च-आयामी सामान्यीकरण योजना जो संयुक्त वितरण और अन्य लक्ष्य चर के बीच पारस्परिक सूचना को अधिकतम करती है, फीचर चयन में उपयोगी पाई जाती है।[18]
पारस्परिक सूचना का उपयोग सिग्नल प्रोसेसिंग के क्षेत्र में दो सिग्नलों के बीच समानता माप के रूप में भी किया जाता है। उदाहरण के लिए, एफएमआई मापीय[19] एक छवि फ़्यूज़न प्रदर्शन माप है जो फ़्यूज़ की गई छवि में स्रोत छवियों के बारे में सूचना की मात्रा को मापने के लिए पारस्परिक सूचना का उपयोग करता है। इस मापीय के लिए मैटलैब कोड यहां पाया जा सकता है।[20] एन चर के डेटासमुच्चय में सभी बहुभिन्नरूपी पारस्परिक सूचना, सशर्त पारस्परिक सूचना, संयुक्त एन्ट्रॉपी, समग्र सहसंबंध, सूचना दूरी की गणना के लिए एक पायथन पैकेज उपलब्ध है।[21]
निर्देशित सूचना
निर्देशित सूचना, , प्रक्रिया से प्रवाहित होने वाली सूचना की मात्रा को मापता है को , जहाँ सदिश को दर्शाता है और अर्थ है . निर्देशित सूचना शब्द जेम्स मैसी द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है
- .
ध्यान दें कि यदि , निर्देशित सूचना पारस्परिक सूचना बन जाती है। निर्देशित सूचना के उन समस्याओं में कई अनुप्रयोग होते हैं जहां कार्य-कारण महत्वपूर्ण भूमिका निभाता है, जैसे फीडबैक के साथ चैनल क्षमता।[22][23]
सामान्यीकृत वेरिएंट
पारस्परिक सूचना के सामान्यीकृत संस्करण बाधा के गुणांक द्वारा प्रदान किए जाते हैं,[24] अनिश्चितता गुणांक[25] या प्रवीणता:[26]
दोनों गुणांकों का मान [0, 1] के बीच है, लेकिन जरूरी नहीं कि वे बराबर हों। कुछ मामलों में एक सममित माप वांछित हो सकता है, जैसे कि निम्नलिखित अतिरेक (सूचना सिद्धांत)[citation needed] उपाय:
जब चर स्वतंत्र होते हैं तो न्यूनतम शून्य और अधिकतम मान प्राप्त होता है
जब एक चर दूसरे के ज्ञान से पूरी तरह से अनावश्यक हो जाता है। अतिरेक (सूचना सिद्धांत) भी देखें।
एक अन्य सममित माप सममित अनिश्चितता है (विटेन & फ़्रैंक 2005), द्वारा दिए गए
जो दो अनिश्चितता गुणांकों के अनुकूल माध्य का प्रतिनिधित्व करता है .[25]
यदि हम पारस्परिक सूचना को समग्र सहसंबंध या दोहरे समग्र सहसंबंध के एक विशेष मामले के रूप में मानते हैं, तो सामान्यीकृत संस्करण क्रमशः हैं,
- और
इस सामान्यीकृत संस्करण को सूचना गुणवत्ता अनुपात (आईक्यूआर) के रूप में भी जाना जाता है जो समग्र अनिश्चितता के तुलना किसी अन्य चर के आधार पर एक चर की सूचना की मात्रा निर्धारित करता है:[27]
एक सामान्यीकरण है[28] जो सहप्रसरण के अनुरूप पारस्परिक सूचना की पहली सोच से उत्पन्न होता है (इस प्रकार एन्ट्रॉपी (सूचना सिद्धांत) विचरण के अनुरूप है)। फिर सामान्यीकृत पारस्परिक सूचना की गणना पियर्सन उत्पाद-क्षण सहसंबंध गुणांक के समान की जाती है,
भारित वेरिएंट
पारस्परिक सूचना के पारंपरिक सूत्रीकरण में,
प्रत्येक घटना या वस्तु द्वारा निर्दिष्ट संगत संभाव्यता द्वारा भारित किया जाता है . यह मानता है कि घटित होने की संभावना के अतिरिक्त सभी वस्तुएँ या घटनाएँ समतुल्य हैं। हालाँकि, कुछ अनुप्रयोगों में ऐसा हो सकता है कि कुछ वस्तुएँ या घटनाएँ दूसरों की तुलना में अधिक महत्वपूर्ण हों, या एसोसिएशन के कुछ पैटर्न दूसरों की तुलना में शब्दार्थ की दृष्टि से अधिक महत्वपूर्ण हों।
उदाहरण के लिए, नियतात्मक मानचित्रण नियतात्मक मानचित्रण की तुलना में इसे अधिक मजबूत माना जा सकता है , हालाँकि इन संबंधों से समान पारस्परिक सूचना प्राप्त होगी। ऐसा इसलिए है क्योंकि पारस्परिक सूचना परिवर्तनीय मानों में किसी अंतर्निहित क्रम के प्रति बिल्समग्र भी संवेदनशील नहीं है (क्रोनबैक 1954, कूम्ब्स, डावेस & टावर्सकी 1970, लॉकहेड 1970), और इसलिए संबंधित चरों के बीच संबंधपरक मानचित्रण के स्वरूप के प्रति बिल्समग्र भी संवेदनशील नहीं है। यदि यह वांछित है कि पूर्व संबंध - सभी परिवर्तनीय मूल्यों पर सहमति दिखाते हुए - बाद के संबंध से अधिक मजबूत आंका जाए, तो निम्नलिखित भारित पारस्परिक सूचना का उपयोग करना संभव है (Guiasu 1977).
जो एक वजन रखता है प्रत्येक चर मान की सह-घटना की संभावना पर, . यह अनुमति देता है कि कुछ संभावनाएं दूसरों की तुलना में अधिक या कम महत्व ले सकती हैं, जिससे प्रासंगिक समग्र या प्राग्नानज़ कारकों की मात्रा का ठहराव संभव हो जाता है। उपरोक्त उदाहरण में, बड़े सापेक्ष भार का उपयोग किया जा रहा है , , और संबंध के लिए अधिक सूचनापूर्णता का आकलन करने का प्रभाव होगा संबंध के लिए की तुलना में , जो पैटर्न पहचान आदि के कुछ मामलों में वांछनीय हो सकता है। यह भारित पारस्परिक सूचना भारित केएल-डाइवर्जेंस का एक रूप है, जो कुछ इनपुट के लिए ऋणात्मक मान लेने के लिए जाना जाता है,[29] और ऐसे उदाहरण हैं जहां भारित पारस्परिक सूचना भी ऋणात्मक मान लेती है।[30]
समायोजित पारस्परिक सूचना
संभाव्यता वितरण को एक समुच्चय के विभाजन के रूप में देखा जा सकता है। तब कोई पूछ सकता है: यदि किसी समुच्चय को यादृच्छिक रूप से विभाजित किया गया था, तो संभावनाओं का वितरण क्या होगा? पारस्परिक सूचना का अपेक्षित मूल्य क्या होगा? समायोजित पारस्परिक सूचना या एएमआई एमआई के अपेक्षित मूल्य को घटा देती है, ताकि जब दो पृथक-पृथक वितरण यादृच्छिक हों तो एएमआई शून्य हो, और जब दो वितरण समान हों तो एएमआई शून्य हो। एएमआई को एक समुच्चय के दो पृथक-पृथक विभाजनों के समायोजित रैंड इंडेक्स के अनुरूप परिभाषित किया गया है।
पूर्ण पारस्परिक सूचना
कोलमोगोरोव जटिलता के विचारों का उपयोग करते हुए, कोई भी किसी भी संभाव्यता वितरण से स्वतंत्र दो अनुक्रमों की पारस्परिक सूचना पर विचार कर सकता है:
यह स्थापित करने के लिए कि यह मात्रा एक लघुगणकीय कारक तक सममित है () कोलमोगोरोव जटिलता के लिए श्रृंखला नियम की आवश्यकता होती है (Li & Vitányi 1997). डेटा संपीड़न के माध्यम से इस मात्रा के अनुमान का उपयोग अनुक्रमों के किसी भी डोमेन ज्ञान के बिना अनुक्रमों की पदानुक्रमित क्लस्टरिंग करने के लिए मापीय (गणित) को परिभाषित करने के लिए किया जा सकता है। (Cilibrasi & Vitányi 2005).
रैखिक सहसंबंध
सहसंबंध गुणांकों के विपरीत, जैसे कि उत्पाद क्षण सहसंबंध गुणांक, पारस्परिक सूचना में सभी निर्भरता-रैखिक और गैर-रेखीय-के बारे में सूचना होती है, न कि सहसंबंध गुणांक उपायों के रूप में केवल रैखिक निर्भरता के बारे में। हालाँकि, संकीर्ण मामले में संयुक्त वितरण के लिए और एक द्विचर सामान्य वितरण है (विशेष रूप से इसका अर्थ यह है कि दोनों सीमांत वितरण सामान्य रूप से वितरित होते हैं), इनके बीच एक सटीक संबंध है और सहसंबंध गुणांक (Gel'fand & Yaglom 1957).
उपरोक्त समीकरण को द्विचर गाऊसी के लिए इस प्रकार प्राप्त किया जा सकता है:
इसलिए,
असतत डेटा के लिए
कब और राज्यों की एक पृथक संख्या में होने तक सीमित हैं, अवलोकन डेटा को पंक्ति चर के साथ एक आकस्मिक तालिका में संक्षेपित किया गया है (या ) और स्तंभ चर (या ). पारस्परिक सूचना पंक्ति और स्तंभ चर के बीच संबंध (सांख्यिकी) या सहसंबंध और निर्भरता के उपायों में से एक है।
एसोसिएशन के अन्य उपायों में पियर्सन के ची-स्क्वायर टेस्ट आँकड़े, जी-परीक्षण आँकड़े आदि सम्मिलित हैं। वास्तव में, एक ही लॉग बेस के साथ, पारस्परिक सूचना जी-टेस्ट लॉग-संभावना आँकड़े के बराबर होगी जिसे विभाजित किया गया है , जहाँ नमूना आकार है.
अनुप्रयोग
कई अनुप्रयोगों में, कोई पारस्परिक सूचना को अधिकतम करना चाहता है (इस प्रकार निर्भरता बढ़ती है), जो अक्सर सशर्त एन्ट्रापी को कम करने के बराबर होती है। उदाहरणों में सम्मिलित:
- सर्च इंजन प्रौद्योगिकी में, वाक्यांशों और संदर्भों के बीच पारस्परिक सूचना का उपयोग सिमेंटिक क्लस्टर्स (अवधारणाओं) की सर्च के लिए k-अर्थ क्लस्टरिंग के लिए एक सुविधा के रूप में किया जाता है।[31] उदाहरण के लिए, एक बिग्राम की पारस्परिक सूचना की गणना इस प्रकार की जा सकती है:
- जहाँ बिग्राम xy कॉर्पस में प्रकट होने की संख्या है, कॉर्पस में यूनीग्राम x प्रकट होने की संख्या है, बी बिग्राम की समग्र संख्या है, और यू यूनीग्राम की समग्र संख्या है।[31]
- दूरसंचार में, चैनल क्षमता पारस्परिक सूचना के बराबर होती है, जो सभी इनपुट वितरणों पर अधिकतम होती है।
- अधिकतम पारस्परिक जानकारी (एमएमआई) मानदंड के आधार पर छिपे हुए मार्कोव मॉडल के लिए भेदभावपूर्ण प्रशिक्षण प्रक्रियाएं प्रस्तावित की गई हैं।
- एकाधिक अनुक्रम संरेखण से आरएनए माध्यमिक संरचना की भविष्यवाणी है।
- कार्यात्मक रूप से लिंक जीनों की जोड़ीवार उपस्थिति और गायब होने से फाइलोजेनेटिक प्रोफाइलिंग भविष्यवाणी है।
- मशीन लर्निंग में फीचर चयन और फीचर परिवर्तनों के लिए पारस्परिक जानकारी का उपयोग एक मानदंड के रूप में किया गया है। इसका उपयोग चर की प्रासंगिकता और अतिरेक दोनों को चिह्नित करने के लिए किया जा सकता है, जैसे न्यूनतम अतिरेक सुविधा चयन है।
- किसी डेटासेट के दो पृथक-पृथक क्लस्टरिंग की समानता निर्धारित करने में पारस्परिक जानकारी का उपयोग किया जाता है। इस प्रकार, यह पारंपरिक रैंड इंडेक्स पर कुछ लाभ प्रदान करता है।
- शब्दों की पारस्परिक जानकारी का उपयोग अक्सर कॉर्पस भाषाविज्ञान में संयोजनों की गणना के लिए एक महत्वपूर्ण कार्य के रूप में किया जाता है। इसमें अतिरिक्त जटिलता यह है कि कोई भी शब्द-उदाहरण दो पृथक-पृथक शब्दों का उदाहरण नहीं है; बल्कि, ऐसे उदाहरणों को गिना जाता है जहां 2 शब्द आसन्न या निकट निकटता में आते हैं; इससे गणना थोड़ी जटिल हो जाती है, क्योंकि इसमें एक शब्द के घटित होने की अपेक्षित संभावना होती है दूसरे के शब्द, ऊपर जाते हैं
- छवि पंजीकरण के लिए मेडिकल इमेजिंग में पारस्परिक जानकारी का उपयोग किया जाता है। एक संदर्भ छवि (उदाहरण के लिए, एक मस्तिष्क स्कैन), और एक दूसरी छवि जिसे संदर्भ छवि के समान समन्वय प्रणाली में डालने की आवश्यकता होती है, यह छवि तब तक विकृत होती है जब तक कि इसके और संदर्भ छवि के बीच पारस्परिक जानकारी अधिकतम न हो जाए।
- समय श्रृंखला विश्लेषण में चरण तुल्यकालन का पता लगाना है।
- न्यूरल-नेट और अन्य मशीन लर्निंग के लिए इन्फोमैक्स विधि में, इन्फोमैक्स-आधारित स्वतंत्र घटक विश्लेषण एल्गोरिदम सहित है।
- विलंब एम्बेडिंग प्रमेय में औसत पारस्परिक सूचना का उपयोग एम्बेडिंग विलंब पैरामीटर निर्धारित करने के लिए किया जाता है।
- अभिव्यक्ति माइक्रोएरे डेटा में जीन के बीच पारस्परिक जानकारी का उपयोग जीन नेटवर्क के पुनर्निर्माण के लिए ARACNE एल्गोरिथ्म द्वारा किया जाता है।
- सांख्यिकीय यांत्रिकी में, लॉस्च्मिड्ट के विरोधाभास को पारस्परिक जानकारी के संदर्भ में व्यक्त किया जा सकता है।[32][33] लोस्चमिड्ट ने कहा कि ऐसे भौतिक नियम को निर्धारित करना असंभव है जिसमें समय उलट समरूपता का अभाव है (उदाहरण ऊष्मागतिकी का दूसरा नियम दूसरा नियम) केवल उन भौतिक कानूनों से जिनमें यह समरूपता है। उन्होंने बताया कि बोल्ट्जमान के एच-प्रमेय ने यह धारणा बनाई कि गैस में कणों की गति स्थायी रूप से असंबंधित थी, जिसने एच-प्रमेय में निहित समय समरूपता को हटा दिया। यह दिखाया जा सकता है कि यदि किसी प्रणाली को चरण स्थान में संभाव्यता घनत्व द्वारा वर्णित किया गया है, तो लिउविले के प्रमेय (हैमिल्टनियन) | लिउविले के प्रमेय का तात्पर्य है कि वितरण की संयुक्त सूचना (संयुक्त एन्ट्रापी का ऋणात्मक) समय में स्थिर रहती है। संयुक्त सूचना पारस्परिक सूचना के साथ-साथ प्रत्येक कण समन्वय के लिए सभी सीमांत सूचना (सीमांत एन्ट्रॉपियों का ऋणात्मक) के योग के बराबर है। बोल्ट्ज़मैन की धारणा एन्ट्रापी की गणना में पारस्परिक सूचना को अनदेखा करने के बराबर है, जो थर्मोडायनामिक एन्ट्रॉपी (बोल्ट्ज़मैन स्थिरांक द्वारा विभाजित) उत्पन्न करती है।
- बदलते परिवेश से जुड़ी स्टोकेस्टिक प्रक्रिया में, पारस्परिक सूचना का उपयोग आंतरिक और प्रभावी पर्यावरणीय निर्भरता को सुलझाने के लिए किया जा सकता है।[34][35] यह विशेष रूप से तब उपयोगी होता है जब एक भौतिक प्रणाली की गतिशीलता का वर्णन करने वाले मापदंडों में परिवर्तन होता है, उदाहरण के लिए, तापमान में परिवर्तन।
- पारस्परिक सूचना का उपयोग बायेसियन नेटवर्क/डायनेमिक गतिशील बायेसियन नेटवर्क संरचना को जानने के लिए किया जाता है, जिसके बारे में सोचा जाता है कि यह यादृच्छिक चर के बीच कारण संबंध को समझाता है, जैसा कि ग्लोबलएमआईटी टूलकिट द्वारा उदाहरण दिया गया है:[36] पारस्परिक सूचना परीक्षण मानदंड के साथ विश्व स्तर पर इष्टतम गतिशील बायेसियन नेटवर्क सीखना।
- पारस्परिक सूचना का उपयोग गिब्स नमूनाकरण एल्गोरिदम में अद्यतन प्रक्रिया के दौरान प्रसारित सूचना को मापने के लिए किया जाता है।[37]
- डिसीजन ट्री लर्निंग में लोकप्रिय लागत समुच्चय।
- आकाशगंगा चिड़ियाघर में आकाशगंगा संपत्तियों पर बड़े पैमाने के वातावरण के प्रभाव का परीक्षण करने के लिए पारस्परिक सूचना का उपयोग ब्रह्मांड विज्ञान में किया जाता है।
- पारस्परिक सूचना का उपयोग सौर भौतिकी में सौर अंतर रोटेशन प्रोफ़ाइल, सनस्पॉट के लिए एक यात्रा-समय विचलन मानचित्र और शांत-सूर्य माप से एक समय-दूरी आरेख प्राप्त करने के लिए किया गया था।[38]
- बिना किसी लेबल वाले डेटा के तंत्रिका नेटवर्क क्लासिफायर और छवि सेगमेंटर्स को स्वचालित रूप से प्रशिक्षित करने के लिए अपरिवर्तनीय सूचना क्लस्टरिंग में उपयोग किया जाता है।[39]
यह भी देखें
- डेटा अंतर
- बिंदुवार परस्पर सूचना
- क्वांटम पारस्परिक सूचना
- विशिष्ट सूचना
टिप्पणियाँ
- ↑ Cover, Thomas M.; Thomas, Joy A. (2005). सूचना सिद्धांत के तत्व (PDF). John Wiley & Sons, Ltd. pp. 13–55. ISBN 9780471748823.
- ↑ Kreer, J. G. (1957). "शब्दावली का एक प्रश्न". IRE Transactions on Information Theory. 3 (3): 208. doi:10.1109/TIT.1957.1057418.
- ↑ 3.0 3.1 3.2 Cover, T.M.; Thomas, J.A. (1991). सूचना सिद्धांत के तत्व (Wiley ed.). ISBN 978-0-471-24195-9.
- ↑ Janssen, Joseph; Guan, Vincent; Robeva, Elina (2023). "Ultra-marginal Feature Importance: Learning from Data with Causal Guarantees". International Conference on Artificial Intelligence and Statistics: 10782–10814. arXiv:2204.09938.
- ↑ Wolpert, D.H.; Wolf, D.R. (1995). "नमूनों के एक सीमित सेट से संभाव्यता वितरण के कार्यों का अनुमान लगाना". Physical Review E. 52 (6): 6841–6854. Bibcode:1995PhRvE..52.6841W. CiteSeerX 10.1.1.55.7122. doi:10.1103/PhysRevE.52.6841. PMID 9964199. S2CID 9795679.
- ↑ Hutter, M. (2001). "पारस्परिक सूचना का वितरण". Advances in Neural Information Processing Systems.
- ↑ Archer, E.; Park, I.M.; Pillow, J. (2013). "असतत डेटा से पारस्परिक जानकारी के लिए बायेसियन और अर्ध-बायेसियन अनुमानक". Entropy. 15 (12): 1738–1755. Bibcode:2013Entrp..15.1738A. CiteSeerX 10.1.1.294.4690. doi:10.3390/e15051738.
- ↑ Wolpert, D.H; DeDeo, S. (2013). "अज्ञात आकार के स्थानों पर परिभाषित वितरण के कार्यों का अनुमान लगाना". Entropy. 15 (12): 4668–4699. arXiv:1311.4548. Bibcode:2013Entrp..15.4668W. doi:10.3390/e15114668. S2CID 2737117.
- ↑ Tomasz Jetka; Karol Nienaltowski; Tomasz Winarski; Slawomir Blonski; Michal Komorowski (2019), "Information-theoretic analysis of multivariate single-cell signaling responses", PLOS Computational Biology, 15 (7): e1007132, arXiv:1808.05581, Bibcode:2019PLSCB..15E7132J, doi:10.1371/journal.pcbi.1007132, PMC 6655862, PMID 31299056
- ↑ Kraskov, Alexander; Stögbauer, Harald; Andrzejak, Ralph G.; Grassberger, Peter (2003). "पारस्परिक सूचना पर आधारित पदानुक्रमित क्लस्टरिंग". arXiv:q-bio/0311039. Bibcode:2003q.bio....11039K.
{{cite journal}}: Cite journal requires|journal=(help) - ↑ Rajski, C. (1961). "असतत संभाव्यता वितरण का एक मीट्रिक स्थान". Information and Control. 4 (4): 371–377. doi:10.1016/S0019-9958(61)80055-7.
- ↑ McGill, W. (1954). "बहुभिन्नरूपी सूचना प्रसारण". Psychometrika. 19 (1): 97–116. doi:10.1007/BF02289159. S2CID 126431489.
- ↑ 13.0 13.1 Hu, K.T. (1962). "सूचना की मात्रा पर". Theory Probab. Appl. 7 (4): 439–447. doi:10.1137/1107041.
- ↑ 14.0 14.1 Baudot, P.; Tapia, M.; Bennequin, D.; Goaillard, J.M. (2019). "टोपोलॉजिकल सूचना डेटा विश्लेषण". Entropy. 21 (9). 869. arXiv:1907.04242. Bibcode:2019Entrp..21..869B. doi:10.3390/e21090869. PMC 7515398. S2CID 195848308.
- ↑ Brenner, N.; Strong, S.; Koberle, R.; Bialek, W. (2000). "तंत्रिका संहिता में तालमेल". Neural Comput. 12 (7): 1531–1552. doi:10.1162/089976600300015259. PMID 10935917. S2CID 600528.
- ↑ Watkinson, J.; Liang, K.; Wang, X.; Zheng, T.; Anastassiou, D. (2009). "तीन-तरफ़ा पारस्परिक जानकारी का उपयोग करके अभिव्यक्ति डेटा से नियामक जीन इंटरैक्शन का अनुमान". Chall. Syst. Biol. Ann. N. Y. Acad. Sci. 1158 (1): 302–313. Bibcode:2009NYASA1158..302W. doi:10.1111/j.1749-6632.2008.03757.x. PMID 19348651. S2CID 8846229.
- ↑ 17.0 17.1 Tapia, M.; Baudot, P.; Formizano-Treziny, C.; Dufour, M.; Goaillard, J.M. (2018). "न्यूरोट्रांसमीटर पहचान और इलेक्ट्रोफिजियोलॉजिकल फेनोटाइप आनुवंशिक रूप से मिडब्रेन डोपामिनर्जिक न्यूरॉन्स में जुड़े हुए हैं". Sci. Rep. 8 (1): 13637. Bibcode:2018NatSR...813637T. doi:10.1038/s41598-018-31765-z. PMC 6134142. PMID 30206240.
- ↑ Christopher D. Manning; Prabhakar Raghavan; Hinrich Schütze (2008). An Introduction to Information Retrieval. Cambridge University Press. ISBN 978-0-521-86571-5.
- ↑ Haghighat, M. B. A.; Aghagolzadeh, A.; Seyedarabi, H. (2011). "छवि सुविधाओं की पारस्परिक जानकारी पर आधारित एक गैर-संदर्भ छवि फ़्यूज़न मीट्रिक". Computers & Electrical Engineering. 37 (5): 744–756. doi:10.1016/j.compeleceng.2011.07.012. S2CID 7738541.
- ↑ "गैर-संदर्भ छवि फ़्यूज़न के लिए फ़ीचर पारस्परिक सूचना (एफएमआई) मीट्रिक - फ़ाइल एक्सचेंज - मैटलैब सेंट्रल". www.mathworks.com. Retrieved 4 April 2018.
- ↑ "InfoTopo: Topological Information Data Analysis. Deep statistical unsupervised and supervised learning - File Exchange - Github". github.com/pierrebaudot/infotopopy/. Retrieved 26 September 2020.
- ↑ Massey, James (1990). "कारणता, प्रतिक्रिया और निर्देशित जानकारी". Proc. 1990 Intl. Symp. on Info. Th. and its Applications, Waikiki, Hawaii, Nov. 27-30, 1990. CiteSeerX 10.1.1.36.5688.
- ↑ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). "समय-अपरिवर्तनीय नियतात्मक प्रतिक्रिया के साथ परिमित राज्य चैनल". IEEE Transactions on Information Theory. 55 (2): 644–662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
- ↑ Coombs, Dawes & Tversky 1970.
- ↑ 25.0 25.1 Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). "Section 14.7.3. Conditional Entropy and Mutual Information". Numerical Recipes: The Art of Scientific Computing (3rd ed.). New York: Cambridge University Press. ISBN 978-0-521-88068-8.
- ↑ White, Jim; Steingold, Sam; Fournelle, Connie. Performance Metrics for Group-Detection Algorithms (PDF). Interface 2004.
- ↑ Wijaya, Dedy Rahman; Sarno, Riyanarto; Zulaika, Enny (2017). "Information Quality Ratio as a novel metric for mother wavelet selection". Chemometrics and Intelligent Laboratory Systems. 160: 59–71. doi:10.1016/j.chemolab.2016.11.012.
- ↑ Strehl, Alexander; Ghosh, Joydeep (2003). "Cluster Ensembles – A Knowledge Reuse Framework for Combining Multiple Partitions" (PDF). The Journal of Machine Learning Research. 3: 583–617. doi:10.1162/153244303321897735.
- ↑ Kvålseth, T. O. (1991). "The relative useful information measure: some comments". Information Sciences. 56 (1): 35–38. doi:10.1016/0020-0255(91)90022-m.
- ↑ Pocock, A. (2012). Feature Selection Via Joint Likelihood (PDF) (Thesis).
- ↑ 31.0 31.1 Parsing a Natural Language Using Mutual Information Statistics by David M. Magerman and Mitchell P. Marcus
- ↑ Hugh Everett Theory of the Universal Wavefunction, Thesis, Princeton University, (1956, 1973), pp 1–140 (page 30)
- ↑ Everett, Hugh (1957). "क्वांटम यांत्रिकी का सापेक्ष अवस्था निरूपण". Reviews of Modern Physics. 29 (3): 454–462. Bibcode:1957RvMP...29..454E. doi:10.1103/revmodphys.29.454. Archived from the original on 2011-10-27. Retrieved 2012-07-16.
- ↑ Nicoletti, Giorgio; Busiello, Daniel Maria (2021-11-22). "आपसी जानकारी बदलते परिवेश से बातचीत को अलग करती है". Physical Review Letters. 127 (22): 228301. arXiv:2107.08985. Bibcode:2021PhRvL.127v8301N. doi:10.1103/PhysRevLett.127.228301. PMID 34889638. S2CID 236087228.
- ↑ Nicoletti, Giorgio; Busiello, Daniel Maria (2022-07-29). "Mutual information in changing environments: Nonlinear interactions, out-of-equilibrium systems, and continuously varying diffusivities". Physical Review E. 106 (1): 014153. doi:10.1103/PhysRevE.106.014153.
- ↑ GlobalMIT at Google Code
- ↑ Lee, Se Yoon (2021). "Gibbs sampler and coordinate ascent variational inference: A set-theoretical review". Communications in Statistics - Theory and Methods. 51 (6): 1549–1568. arXiv:2008.01006. doi:10.1080/03610926.2021.1921214. S2CID 220935477.
- ↑ Keys, Dustin; Kholikov, Shukur; Pevtsov, Alexei A. (February 2015). "समय दूरी हेलिओसिज़्मोलॉजी में पारस्परिक सूचना विधियों का अनुप्रयोग". Solar Physics. 290 (3): 659–671. arXiv:1501.05597. Bibcode:2015SoPh..290..659K. doi:10.1007/s11207-015-0650-y. S2CID 118472242.
- ↑ Invariant Information Clustering for Unsupervised Image Classification and Segmentation by Xu Ji, Joao Henriques and Andrea Vedaldi
संदर्भ
- Baudot, P.; Tapia, M.; Bennequin, D.; Goaillard, J.M. (2019). "Topological Information Data Analysis". Entropy. 21 (9). 869. arXiv:1907.04242. Bibcode:2019Entrp..21..869B. doi:10.3390/e21090869. PMC 7515398. S2CID 195848308.
- Cilibrasi, R.; Vitányi, Paul (2005). "Clustering by compression" (PDF). IEEE Transactions on Information Theory. 51 (4): 1523–1545. arXiv:cs/0312044. doi:10.1109/TIT.2005.844059. S2CID 911.
- Cronbach, L. J. (1954). "On the non-rational application of information measures in psychology". In Quastler, Henry (ed.). Information Theory in Psychology: Problems and Methods. Glencoe, Illinois: Free Press. pp. 14–30.
- Coombs, C. H.; Dawes, R. M.; Tversky, A. (1970). Mathematical Psychology: An Elementary Introduction. Englewood Cliffs, New Jersey: Prentice-Hall.
- Church, Kenneth Ward; Hanks, Patrick (1989). "Word association norms, mutual information, and lexicography". Proceedings of the 27th Annual Meeting of the Association for Computational Linguistics. 16 (1): 76–83. doi:10.3115/981623.981633.
- Gel'fand, I.M.; Yaglom, A.M. (1957). "Calculation of amount of information about a random function contained in another such function". American Mathematical Society Translations. Series 2. 12: 199–246. doi:10.1090/trans2/012/09. ISBN 9780821817124. English translation of original in Uspekhi Matematicheskikh Nauk 12 (1): 3-52.
- Guiasu, Silviu (1977). Information Theory with Applications. McGraw-Hill, New York. ISBN 978-0-07-025109-0.
- Li, Ming; Vitányi, Paul (February 1997). An introduction to Kolmogorov complexity and its applications. New York: Springer-Verlag. ISBN 978-0-387-94868-3.
- Lockhead, G. R. (1970). "Identification and the form of multidimensional discrimination space". Journal of Experimental Psychology. 85 (1): 1–10. doi:10.1037/h0029508. PMID 5458322.
- David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1 (available free online)
- Haghighat, M. B. A.; Aghagolzadeh, A.; Seyedarabi, H. (2011). "A non-reference image fusion metric based on mutual information of image features". Computers & Electrical Engineering. 37 (5): 744–756. doi:10.1016/j.compeleceng.2011.07.012. S2CID 7738541.
- Athanasios Papoulis. Probability, Random Variables, and Stochastic Processes, second edition. New York: McGraw-Hill, 1984. (See Chapter 15.)
- Witten, Ian H. & Frank, Eibe (2005). Data Mining: Practical Machine Learning Tools and Techniques. Morgan Kaufmann, Amsterdam. ISBN 978-0-12-374856-0.
- Peng, H.C.; Long, F. & Ding, C. (2005). "Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy". IEEE Transactions on Pattern Analysis and Machine Intelligence. 27 (8): 1226–1238. CiteSeerX 10.1.1.63.5765. doi:10.1109/tpami.2005.159. PMID 16119262. S2CID 206764015.
- Andre S. Ribeiro; Stuart A. Kauffman; Jason Lloyd-Price; Bjorn Samuelsson & Joshua Socolar (2008). "Mutual Information in Random Boolean models of regulatory networks". Physical Review E. 77 (1): 011901. arXiv:0707.3642. Bibcode:2008PhRvE..77a1901R. doi:10.1103/physreve.77.011901. PMID 18351870. S2CID 15232112.
- Wells, W.M. III; Viola, P.; Atsumi, H.; Nakajima, S.; Kikinis, R. (1996). "Multi-modal volume registration by maximization of mutual information" (PDF). Medical Image Analysis. 1 (1): 35–51. doi:10.1016/S1361-8415(01)80004-9. PMID 9873920. Archived from the original (PDF) on 2008-09-06. Retrieved 2010-08-05.
- Pandey, Biswajit; Sarkar, Suman (2017). "How much a galaxy knows about its large-scale environment?: An information theoretic perspective". Monthly Notices of the Royal Astronomical Society Letters. 467 (1): L6. arXiv:1611.00283. Bibcode:2017MNRAS.467L...6P. doi:10.1093/mnrasl/slw250. S2CID 119095496.
- Janssen, Joseph; Guan, Vincent; Robeva, Elina (2023). "Ultra-marginal Feature Importance: Learning from Data with Causal Guarantees". International Conference on Artificial Intelligence and Statistics: 10782–10814.