पारस्परिक सूचना: Difference between revisions

From Vigyanwiki
m (Sugatha moved page आपसी जानकारी to पारस्परिक सूचना without leaving a redirect)
Line 12: Line 12:


== परिभाषा ==
== परिभाषा ==
होने देना <math>(X,Y)</math> अंतरिक्ष में मानों के साथ यादृच्छिक चर की एक जोड़ी बनें <math>\mathcal{X}\times\mathcal{Y}</math>. यदि उनका संयुक्त वितरण है <math>P_{(X,Y)}</math> और सीमांत वितरण हैं <math>P_X</math> और <math>P_Y</math>, पारस्परिक सूचना को इस प्रकार परिभाषित किया गया है
मान लीजिए <math>(X,Y)</math> अंतरिक्ष में मानों के साथ यादृच्छिक चर की एक जोड़ी बनें <math>\mathcal{X}\times\mathcal{Y}</math>. यदि उनका संयुक्त वितरण है <math>P_{(X,Y)}</math> और सीमांत वितरण हैं <math>P_X</math> और <math>P_Y</math>, पारस्परिक सूचना को इस प्रकार परिभाषित किया गया है


{{Equation box 1
{{Equation box 1
Line 22: Line 22:
|background colour = #F5FFFA
|background colour = #F5FFFA
}}
}}
कहाँ <math>D_{\mathrm{KL}}</math> समग्र्बैक-लीब्लर विचलन है।
जहाँ <math>D_{\mathrm{KL}}</math> समग्र्बैक-लीब्लर विचलन है।


ध्यान दें, समग्र्बैक-लीबलर विचलन की संपत्ति के अनुसार, वह <math>I(X;Y)</math> ठीक उसी स्थिति में शून्य के बराबर होता है जब संयुक्त वितरण सीमांत के उत्पाद के साथ मेल खाता है, यानी जब <math>X</math> और <math>Y</math> स्वतंत्र हैं (और इसलिए अवलोकन कर रहे हैं <math>Y</math> आपको इसके बारे में कुछ नहीं बताता <math>X</math>). <math>I(X;Y)</math> गैर-ऋणात्मक है, यह एन्कोडिंग के लिए कीमत का एक माप है <math>(X,Y)</math> स्वतंत्र यादृच्छिक चरों की एक जोड़ी के रूप में जबकि वास्तव में वे नहीं हैं।
ध्यान दें, समग्र्बैक-लीबलर विचलन की संपत्ति के अनुसार, वह <math>I(X;Y)</math> ठीक उसी स्थिति में शून्य के बराबर होता है जब संयुक्त वितरण सीमांत के उत्पाद के साथ मेल खाता है, यानी जब <math>X</math> और <math>Y</math> स्वतंत्र हैं (और इसलिए अवलोकन कर रहे हैं <math>Y</math> आपको इसके बारे में कुछ नहीं बताता <math>X</math>). <math>I(X;Y)</math> गैर-ऋणात्मक है, यह एन्कोडिंग के लिए कीमत का एक माप है <math>(X,Y)</math> स्वतंत्र यादृच्छिक चरों की एक जोड़ी के रूप में जबकि वास्तव में वे नहीं हैं।
Line 45: Line 45:
}}
}}


कहाँ <math>P_{(X,Y)}</math> का संयुक्त वितरण है <math>X</math> और <math>Y</math>, और <math>P_X</math> और <math>P_Y</math> के सीमांत संभाव्यता द्रव्यमान फलन हैं <math>X</math> और <math>Y</math> क्रमश:
जहाँ <math>P_{(X,Y)}</math> का संयुक्त वितरण है <math>X</math> और <math>Y</math>, और <math>P_X</math> और <math>P_Y</math> के सीमांत संभाव्यता द्रव्यमान फलन हैं <math>X</math> और <math>Y</math> क्रमश:


=== सतत वितरण के लिए पीडीएफ (PDFs) के संदर्भ में ===
=== सतत वितरण के लिए पीडीएफ (PDFs) के संदर्भ में ===
Line 66: Line 66:
}}
}}


कहाँ <math>P_{(X,Y)}</math> अब का संयुक्त संभाव्यता घनत्व फलन है <math>X</math> और <math>Y</math>, और <math>P_X</math> और <math>P_Y</math> के सीमांत संभाव्यता घनत्व फलन हैं <math>X</math> और <math>Y</math> क्रमश:
जहाँ <math>P_{(X,Y)}</math> अब का संयुक्त संभाव्यता घनत्व फलन है <math>X</math> और <math>Y</math>, और <math>P_X</math> और <math>P_Y</math> के सीमांत संभाव्यता घनत्व फलन हैं <math>X</math> और <math>Y</math> क्रमश:


== प्रेरणा ==
== प्रेरणा ==
सहज रूप से, पारस्परिक सूचना उस सूचना को मापती है <math>X</math> और <math>Y</math> शेयर: यह मापता है कि इनमें से किसी एक चर को जानने से दूसरे के बारे में अनिश्चितता कितनी कम हो जाती है। उदाहरण के लिए, यदि <math>X</math> और <math>Y</math> स्वतंत्र हैं, तो जानना <math>X</math> के बारे में कोई सूचना नहीं देता <math>Y</math> और इसके विपरीत, इसलिए उनकी पारस्परिक सूचना शून्य है। दूसरे गंभीर पर, यदि <math>X</math> का एक नियतात्मक कार्य है <math>Y</math> और <math>Y</math> का एक नियतात्मक कार्य है <math>X</math> फिर सारी सूचना दी गई <math>X</math> के साथ साझा किया जाता है <math>Y</math>: जानना <math>X</math> का मूल्य निर्धारित करता है <math>Y</math> और इसके विपरीत। परिणामस्वरूप, इस मामले में पारस्परिक सूचना वैसी ही है जैसी अनिश्चितता निहित है <math>Y</math> (या <math>X</math>) अकेले, अर्थात् की [[सूचना एन्ट्रापी]] <math>Y</math> (या <math>X</math>). इसके अलावा, यह पारस्परिक सूचना एन्ट्रापी के समान है <math>X</math> और की एन्ट्रापी के रूप में <math>Y</math>. (इसका एक बहुत ही विशेष विषय है जब <math>X</math> और <math>Y</math> समान यादृच्छिक चर हैं।)
सहज रूप से, पारस्परिक सूचना उस सूचना को मापती है <math>X</math> और <math>Y</math> शेयर: यह मापता है कि इनमें से किसी एक चर को जानने से दूसरे के बारे में अनिश्चितता कितनी कम हो जाती है। उदाहरण के लिए, यदि <math>X</math> और <math>Y</math> स्वतंत्र हैं, तो जानना <math>X</math> के बारे में कोई सूचना नहीं देता <math>Y</math> और इसके विपरीत, इसलिए उनकी पारस्परिक सूचना शून्य है। दूसरे गंभीर पर, यदि <math>X</math> का एक नियतात्मक कार्य है <math>Y</math> और <math>Y</math> का एक नियतात्मक कार्य है <math>X</math> फिर सारी सूचना दी गई <math>X</math> के साथ साझा किया जाता है <math>Y</math>: जानना <math>X</math> का मूल्य निर्धारित करता है <math>Y</math> और इसके विपरीत है। परिणामस्वरूप, इस मामले में पारस्परिक सूचना वैसी ही है जैसी अनिश्चितता निहित है <math>Y</math> (या <math>X</math>) अकेले, अर्थात् की [[सूचना एन्ट्रापी]] <math>Y</math> (या <math>X</math>). इसके अतिरिक्त, यह पारस्परिक सूचना एन्ट्रापी के समान है <math>X</math> और की एन्ट्रापी के रूप में <math>Y</math>. (इसका एक बहुत ही विशेष विषय है जब <math>X</math> और <math>Y</math> समान यादृच्छिक चर हैं।)


पारस्परिक सूचना संयुक्त वितरण में व्यक्त अंतर्निहित निर्भरता का एक माप है <math>X</math> और <math>Y</math> के सीमांत वितरण के सापेक्ष <math>X</math> और <math>Y</math> स्वतंत्रता की धारणा के तहत. इसलिए पारस्परिक सूचना निम्नलिखित अर्थों में निर्भरता को मापती है: <math>\operatorname{I}(X;Y) = 0</math> [[अगर और केवल अगर|यदि और केवल यदि]] <math>X</math> और <math>Y</math> स्वतंत्र यादृच्छिक चर हैं। इसे एक दिशा में देखना आसान है: यदि <math>X</math> और <math>Y</math> फिर स्वतंत्र हैं <math>p_{(X,Y)}(x,y)=p_X(x) \cdot p_Y(y)</math>, और इसलिए:
पारस्परिक सूचना संयुक्त वितरण में व्यक्त अंतर्निहित निर्भरता का एक माप है <math>X</math> और <math>Y</math> के सीमांत वितरण के सापेक्ष <math>X</math> और <math>Y</math> स्वतंत्रता की धारणा के तहत. इसलिए पारस्परिक सूचना निम्नलिखित अर्थों में निर्भरता को मापती है: <math>\operatorname{I}(X;Y) = 0</math> [[अगर और केवल अगर|यदि और केवल यदि]] <math>X</math> और <math>Y</math> स्वतंत्र यादृच्छिक चर हैं। इसे एक दिशा में देखना आसान है: यदि <math>X</math> और <math>Y</math> फिर स्वतंत्र हैं <math>p_{(X,Y)}(x,y)=p_X(x) \cdot p_Y(y)</math>, और इसलिए:


:<math> \log{ \left( \frac{p_{(X,Y)}(x,y)}{p_X(x)\,p_Y(y)} \right) } = \log 1 = 0 .</math>
:<math> \log{ \left( \frac{p_{(X,Y)}(x,y)}{p_X(x)\,p_Y(y)} \right) } = \log 1 = 0 .</math>
इसके अलावा, पारस्परिक सूचना गैर-ऋणात्मक है (अर्थात <math>\operatorname{I}(X;Y) \ge 0</math> नीचे देखें) और सममित समुच्चय (यानी) <math>\operatorname{I}(X;Y) = \operatorname{I}(Y;X)</math> नीचे देखें)।
इसके अतिरिक्त, पारस्परिक सूचना गैर-ऋणात्मक है (अर्थात <math>\operatorname{I}(X;Y) \ge 0</math> नीचे देखें) और सममित समुच्चय (यानी) <math>\operatorname{I}(X;Y) = \operatorname{I}(Y;X)</math> नीचे देखें)।


== गुण ==
== गुण ==
Line 101: Line 101:
         &{} \equiv \Eta(X, Y) - \Eta(X\mid Y) - \Eta(Y\mid X)
         &{} \equiv \Eta(X, Y) - \Eta(X\mid Y) - \Eta(Y\mid X)
\end{align}</math>
\end{align}</math>
कहाँ <math>\Eta(X)</math> और <math>\Eta(Y)</math> सीमांत सूचना एन्ट्रापी हैं, <math>\Eta(X\mid Y)</math> और <math>\Eta(Y\mid X)</math> सशर्त एन्ट्रापी हैं, और <math>\Eta(X,Y)</math> की संयुक्त एन्ट्रापी है <math>X</math> और <math>Y</math>.
जहाँ <math>\Eta(X)</math> और <math>\Eta(Y)</math> सीमांत सूचना एन्ट्रापी हैं, <math>\Eta(X\mid Y)</math> और <math>\Eta(Y\mid X)</math> सशर्त एन्ट्रापी हैं, और <math>\Eta(X,Y)</math> की संयुक्त एन्ट्रापी है <math>X</math> और <math>Y</math>.


दो समुच्चयों के मिलन, अंतर और प्रतिच्छेदन की सादृश्यता पर ध्यान दें: इस संबंध में, ऊपर दिए गए सभी सूत्र लेख की प्रारंभ में बताए गए वेन आरेख से स्पष्ट हैं।
दो समुच्चयों के मिलन, अंतर और प्रतिच्छेदन की सादृश्यता पर ध्यान दें: इस संबंध में, ऊपर दिए गए सभी सूत्र लेख की प्रारंभ में बताए गए वेन आरेख से स्पष्ट हैं।
Line 139: Line 139:
}}
}}


इसके अलावा, चलो <math> p_{(X,Y)}(x,y) =p_{X\mid Y=y}(x)* p_Y(y)</math> सशर्त द्रव्यमान या घनत्व समुच्चय हो। फिर, हमारी पहचान है
इसके अतिरिक्त, चलो <math> p_{(X,Y)}(x,y) =p_{X\mid Y=y}(x)* p_Y(y)</math> सशर्त द्रव्यमान या घनत्व समुच्चय हो। फिर, हमारी पहचान है


{{Equation box 1
{{Equation box 1
Line 167: Line 167:
=== पारस्परिक सूचना का बायेसियन अनुमान ===
=== पारस्परिक सूचना का बायेसियन अनुमान ===


यदि संयुक्त वितरण से नमूने उपलब्ध हैं, तो उस वितरण की पारस्परिक सूचना का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग किया जा सकता है। ऐसा करने वाला पहला काम था, जिसमें यह भी दिखाया गया कि पारस्परिक सूचना के अलावा कई अन्य सूचना-सैद्धांतिक गुणों का बायेसियन अनुमान कैसे लगाया जाए।<ref>{{cite journal | last1 = Wolpert | first1 = D.H. | last2 = Wolf | first2 = D.R. | year = 1995 | title = नमूनों के एक सीमित सेट से संभाव्यता वितरण के कार्यों का अनुमान लगाना| journal = Physical Review E | volume = 52 | issue = 6 | pages = 6841–6854 | doi = 10.1103/PhysRevE.52.6841 | pmid = 9964199 | citeseerx = 10.1.1.55.7122 | bibcode = 1995PhRvE..52.6841W | s2cid = 9795679 }}</ref> बाद के शोधकर्ताओं ने पुनः प्राप्त किया है <ref>{{cite journal | last1 = Hutter | first1 = M. | year = 2001 | title = पारस्परिक सूचना का वितरण| journal = Advances in Neural Information Processing Systems }}</ref> और विस्तारित है। <ref>{{cite journal | last1 = Archer | first1 = E. | last2 = Park | first2 = I.M. | last3 = Pillow | first3 = J. | year = 2013 | title = असतत डेटा से पारस्परिक जानकारी के लिए बायेसियन और अर्ध-बायेसियन अनुमानक| journal = Entropy| volume = 15 | issue = 12 | pages = 1738–1755 | doi = 10.3390/e15051738 | citeseerx = 10.1.1.294.4690 | bibcode = 2013Entrp..15.1738A | doi-access = free }}</ref>
यदि संयुक्त वितरण से नमूने उपलब्ध हैं, तो उस वितरण की पारस्परिक सूचना का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग किया जा सकता है। ऐसा करने वाला पहला काम था, जिसमें यह भी दिखाया गया कि पारस्परिक सूचना के अतिरिक्त कई अन्य सूचना-सैद्धांतिक गुणों का बायेसियन अनुमान कैसे लगाया जाए।<ref>{{cite journal | last1 = Wolpert | first1 = D.H. | last2 = Wolf | first2 = D.R. | year = 1995 | title = नमूनों के एक सीमित सेट से संभाव्यता वितरण के कार्यों का अनुमान लगाना| journal = Physical Review E | volume = 52 | issue = 6 | pages = 6841–6854 | doi = 10.1103/PhysRevE.52.6841 | pmid = 9964199 | citeseerx = 10.1.1.55.7122 | bibcode = 1995PhRvE..52.6841W | s2cid = 9795679 }}</ref> बाद के शोधकर्ताओं ने पुनः प्राप्त किया है <ref>{{cite journal | last1 = Hutter | first1 = M. | year = 2001 | title = पारस्परिक सूचना का वितरण| journal = Advances in Neural Information Processing Systems }}</ref> और विस्तारित है। <ref>{{cite journal | last1 = Archer | first1 = E. | last2 = Park | first2 = I.M. | last3 = Pillow | first3 = J. | year = 2013 | title = असतत डेटा से पारस्परिक जानकारी के लिए बायेसियन और अर्ध-बायेसियन अनुमानक| journal = Entropy| volume = 15 | issue = 12 | pages = 1738–1755 | doi = 10.3390/e15051738 | citeseerx = 10.1.1.294.4690 | bibcode = 2013Entrp..15.1738A | doi-access = free }}</ref>


यह विश्लेषण. देखना <ref>{{cite journal | last1 = Wolpert | first1 = D.H | last2 = DeDeo | first2 = S. | year = 2013 | title = अज्ञात आकार के स्थानों पर परिभाषित वितरण के कार्यों का अनुमान लगाना| journal = Entropy | volume = 15 | issue = 12 | pages = 4668–4699 | doi = 10.3390/e15114668 | arxiv = 1311.4548 | bibcode = 2013Entrp..15.4668W | s2cid = 2737117 | doi-access = free }}</ref> एक हालिया पेपर के लिए, जो विशेष रूप से पारस्परिक अनुमान के अनुरूप तैयार किया गया है।
यह विश्लेषण. देखना <ref>{{cite journal | last1 = Wolpert | first1 = D.H | last2 = DeDeo | first2 = S. | year = 2013 | title = अज्ञात आकार के स्थानों पर परिभाषित वितरण के कार्यों का अनुमान लगाना| journal = Entropy | volume = 15 | issue = 12 | pages = 4668–4699 | doi = 10.3390/e15114668 | arxiv = 1311.4548 | bibcode = 2013Entrp..15.4668W | s2cid = 2737117 | doi-access = free }}</ref> एक हालिया पेपर के लिए, जो विशेष रूप से पारस्परिक अनुमान के अनुरूप तैयार किया गया है।


सूचना प्रति से. इसके अलावा, हाल ही में निरंतर और बहुभिन्नरूपी आउटपुट के लिए एक अनुमान पद्धति लेखांकन,  <math>Y</math>, में प्रस्तावित किया गया था।<ref>{{citation| journal = [[PLOS Computational Biology]]|volume = 15|issue = 7|pages = e1007132|doi = 10.1371/journal.pcbi.1007132|pmid = 31299056|pmc = 6655862|title=Information-theoretic analysis of multivariate single-cell signaling responses|author1= Tomasz Jetka|author2= Karol Nienaltowski|author3= Tomasz Winarski| author4=Slawomir Blonski| author5= Michal Komorowski|year=2019|bibcode = 2019PLSCB..15E7132J|arxiv = 1808.05581}}</ref>
सूचना प्रति से. इसके अतिरिक्त, हाल ही में निरंतर और बहुभिन्नरूपी आउटपुट के लिए एक अनुमान पद्धति लेखांकन,  <math>Y</math>, में प्रस्तावित किया गया था।<ref>{{citation| journal = [[PLOS Computational Biology]]|volume = 15|issue = 7|pages = e1007132|doi = 10.1371/journal.pcbi.1007132|pmid = 31299056|pmc = 6655862|title=Information-theoretic analysis of multivariate single-cell signaling responses|author1= Tomasz Jetka|author2= Karol Nienaltowski|author3= Tomasz Winarski| author4=Slawomir Blonski| author5= Michal Komorowski|year=2019|bibcode = 2019PLSCB..15E7132J|arxiv = 1808.05581}}</ref>


===स्वतंत्रता धारणाएँ===
===स्वतंत्रता धारणाएँ===
Line 288: Line 288:


=== [[निर्देशित जानकारी|निर्देशित सूचना]] ===
=== [[निर्देशित जानकारी|निर्देशित सूचना]] ===
निर्देशित सूचना, <math>\operatorname{I}\left(X^n \to Y^n\right)</math>, प्रक्रिया से प्रवाहित होने वाली सूचना की मात्रा को मापता है <math>X^n</math> को <math>Y^n</math>, कहाँ <math>X^n</math> सदिश को दर्शाता है <math>X_1, X_2, ..., X_n</math> और <math>Y^n</math> अर्थ है <math>Y_1, Y_2, ..., Y_n</math>. निर्देशित सूचना शब्द [[जेम्स मैसी]] द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है
निर्देशित सूचना, <math>\operatorname{I}\left(X^n \to Y^n\right)</math>, प्रक्रिया से प्रवाहित होने वाली सूचना की मात्रा को मापता है <math>X^n</math> को <math>Y^n</math>, जहाँ <math>X^n</math> सदिश को दर्शाता है <math>X_1, X_2, ..., X_n</math> और <math>Y^n</math> अर्थ है <math>Y_1, Y_2, ..., Y_n</math>. निर्देशित सूचना शब्द [[जेम्स मैसी]] द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है
:<math>
:<math>
     \operatorname{I}\left(X^n \to Y^n\right)
     \operatorname{I}\left(X^n \to Y^n\right)
Line 361: Line 361:
   = \sum_{y \in Y} \sum_{x \in X} p(x, y) \log \frac{p(x, y)}{p(x)\,p(y)},
   = \sum_{y \in Y} \sum_{x \in X} p(x, y) \log \frac{p(x, y)}{p(x)\,p(y)},
</math>
</math>
प्रत्येक घटना या वस्तु द्वारा निर्दिष्ट <math>(x, y)</math> संगत संभाव्यता द्वारा भारित किया जाता है <math>p(x, y)</math>. यह मानता है कि घटित होने की संभावना के अलावा सभी वस्तुएँ या घटनाएँ समतुल्य हैं। हालाँकि, कुछ अनुप्रयोगों में ऐसा हो सकता है कि कुछ वस्तुएँ या घटनाएँ दूसरों की तुलना में अधिक महत्वपूर्ण हों, या एसोसिएशन के कुछ पैटर्न दूसरों की तुलना में शब्दार्थ की दृष्टि से अधिक महत्वपूर्ण हों।
प्रत्येक घटना या वस्तु द्वारा निर्दिष्ट <math>(x, y)</math> संगत संभाव्यता द्वारा भारित किया जाता है <math>p(x, y)</math>. यह मानता है कि घटित होने की संभावना के अतिरिक्त सभी वस्तुएँ या घटनाएँ समतुल्य हैं। हालाँकि, कुछ अनुप्रयोगों में ऐसा हो सकता है कि कुछ वस्तुएँ या घटनाएँ दूसरों की तुलना में अधिक महत्वपूर्ण हों, या एसोसिएशन के कुछ पैटर्न दूसरों की तुलना में शब्दार्थ की दृष्टि से अधिक महत्वपूर्ण हों।


उदाहरण के लिए, नियतात्मक मानचित्रण <math>\{(1,1),(2,2),(3,3)\}</math> नियतात्मक मानचित्रण की तुलना में इसे अधिक मजबूत माना जा सकता है <math>\{(1,3),(2,1),(3,2)\}</math>, हालाँकि इन संबंधों से समान पारस्परिक सूचना प्राप्त होगी। ऐसा इसलिए है क्योंकि पारस्परिक सूचना परिवर्तनीय मानों में किसी अंतर्निहित क्रम के प्रति बिल्समग्र भी संवेदनशील नहीं है ({{harvnb|क्रोनबैक|1954}}, {{harvnb|कूम्ब्स|डावेस|टावर्सकी|1970}}, {{harvnb|लॉकहेड|1970}}), और इसलिए संबंधित चरों के बीच संबंधपरक मानचित्रण के स्वरूप के प्रति बिल्समग्र भी संवेदनशील नहीं है। यदि यह वांछित है कि पूर्व संबंध - सभी परिवर्तनीय मूल्यों पर सहमति दिखाते हुए - बाद के संबंध से अधिक मजबूत आंका जाए, तो निम्नलिखित ''भारित पारस्परिक सूचना'' का उपयोग करना संभव है {{harv|Guiasu|1977}}.
उदाहरण के लिए, नियतात्मक मानचित्रण <math>\{(1,1),(2,2),(3,3)\}</math> नियतात्मक मानचित्रण की तुलना में इसे अधिक मजबूत माना जा सकता है <math>\{(1,3),(2,1),(3,2)\}</math>, हालाँकि इन संबंधों से समान पारस्परिक सूचना प्राप्त होगी। ऐसा इसलिए है क्योंकि पारस्परिक सूचना परिवर्तनीय मानों में किसी अंतर्निहित क्रम के प्रति बिल्समग्र भी संवेदनशील नहीं है ({{harvnb|क्रोनबैक|1954}}, {{harvnb|कूम्ब्स|डावेस|टावर्सकी|1970}}, {{harvnb|लॉकहेड|1970}}), और इसलिए संबंधित चरों के बीच संबंधपरक मानचित्रण के स्वरूप के प्रति बिल्समग्र भी संवेदनशील नहीं है। यदि यह वांछित है कि पूर्व संबंध - सभी परिवर्तनीय मूल्यों पर सहमति दिखाते हुए - बाद के संबंध से अधिक मजबूत आंका जाए, तो निम्नलिखित ''भारित पारस्परिक सूचना'' का उपयोग करना संभव है {{harv|Guiasu|1977}}.
Line 419: Line 419:
कब <math>X</math> और <math>Y</math> राज्यों की एक पृथक संख्या में होने तक सीमित हैं, अवलोकन डेटा को पंक्ति चर के साथ एक आकस्मिक तालिका में संक्षेपित किया गया है <math>X</math> (या <math>i</math>) और स्तंभ चर <math>Y</math> (या <math>j</math>). पारस्परिक सूचना पंक्ति और स्तंभ चर के बीच संबंध (सांख्यिकी) या [[सहसंबंध और निर्भरता]] के उपायों में से एक है।
कब <math>X</math> और <math>Y</math> राज्यों की एक पृथक संख्या में होने तक सीमित हैं, अवलोकन डेटा को पंक्ति चर के साथ एक आकस्मिक तालिका में संक्षेपित किया गया है <math>X</math> (या <math>i</math>) और स्तंभ चर <math>Y</math> (या <math>j</math>). पारस्परिक सूचना पंक्ति और स्तंभ चर के बीच संबंध (सांख्यिकी) या [[सहसंबंध और निर्भरता]] के उपायों में से एक है।


एसोसिएशन के अन्य उपायों में पियर्सन के ची-स्क्वायर टेस्ट आँकड़े,  जी-परीक्षण  आँकड़े आदि सम्मिलित हैं। वास्तव में, एक ही लॉग बेस के साथ, पारस्परिक सूचना जी-टेस्ट लॉग-संभावना आँकड़े के बराबर होगी जिसे विभाजित किया गया है <math>2N</math>, कहाँ <math>N</math> नमूना आकार है.
एसोसिएशन के अन्य उपायों में पियर्सन के ची-स्क्वायर टेस्ट आँकड़े,  जी-परीक्षण  आँकड़े आदि सम्मिलित हैं। वास्तव में, एक ही लॉग बेस के साथ, पारस्परिक सूचना जी-टेस्ट लॉग-संभावना आँकड़े के बराबर होगी जिसे विभाजित किया गया है <math>2N</math>, जहाँ <math>N</math> नमूना आकार है.


== अनुप्रयोग ==
== अनुप्रयोग ==
Line 433: Line 433:
|background colour = #F5FFFA
|background colour = #F5FFFA
}}
}}
: कहाँ <math>f_{XY}</math> बिग्राम xy कॉर्पस में प्रकट होने की संख्या है, <math>f_{X}</math> कॉर्पस में यूनीग्राम x प्रकट होने की संख्या है, बी बिग्राम की समग्र संख्या है, और यू यूनीग्राम की समग्र संख्या है।<ref name=magerman/>
: जहाँ <math>f_{XY}</math> बिग्राम xy कॉर्पस में प्रकट होने की संख्या है, <math>f_{X}</math> कॉर्पस में यूनीग्राम x प्रकट होने की संख्या है, बी बिग्राम की समग्र संख्या है, और यू यूनीग्राम की समग्र संख्या है।<ref name=magerman/>
:
:
:
:

Revision as of 14:35, 17 July 2023

सहसंबद्ध चर से जुड़े विभिन्न सूचना उपायों के योगात्मक और घटाव संबंधों को दर्शाने वाला वेन आरेख और .[1] दोनों वृत्तों में समाहित क्षेत्र संयुक्त एन्ट्रापी है . बाईं ओर का वृत्त (लाल और बैंगनी) एन्ट्रॉपी (सूचना सिद्धांत) है , जिसमें लाल सशर्त एन्ट्रापी है . दाहिनी ओर वृत्त (नीला और बैंगनी) है , नीले होने के साथ . बैंगनी परस्पर सूचना है .


संभाव्यता सिद्धांत और सूचना सिद्धांत में, दो यादृच्छिक चर की पारस्परिक सूचना (एमआई) दो चर के बीच पारस्परिक निर्भरता का एक माप है। अधिक विशेष रूप से, यह दूसरे यादृच्छिक चर का अवलोकन करके एक यादृच्छिक चर के बारे में प्राप्त की गई "सूचना की मात्रा" (शैनन (बिट्स), नेट्स या हार्टलेज़ जैसी इकाइयों में) की मात्रा निर्धारित करता है। पारस्परिक सूचना की अवधारणा एक यादृच्छिक चर की एन्ट्रापी से घनिष्ठ रूप से जुड़ी हुई है, सूचना सिद्धांत में एक मौलिक धारणा जो एक यादृच्छिक चर में रखी गई अपेक्षित "सूचना की मात्रा" की मात्रा निर्धारित करती है।

वास्तविक-मूल्य वाले यादृच्छिक चर और सहसंबंध गुणांक जैसी रैखिक निर्भरता तक सीमित नहीं, एमआई अधिक सामान्य है और यह निर्धारित करता है कि जोड़ी का संयुक्त वितरण कितना भिन्न है के सीमांत वितरण के उत्पाद से है और . एमआई बिंदुवार पारस्परिक सूचना (पीएमआई) का अपेक्षित मूल्य है।

मात्रा को क्लाउड शैनन ने अपने ऐतिहासिक पेपर "ए मैथमैटिकल थ्योरी ऑफ कम्युनिकेशन" में परिभाषित और विश्लेषण किया था, हालांकि उन्होंने इसे "पारस्परिक सूचना" नहीं कहा था। यह शब्द बाद में रॉबर्ट फ़ानो द्वारा अंकित किया गया था।[2] पारस्परिक सूचना को सूचना लाभ के रूप में भी जाना जाता है।

परिभाषा

मान लीजिए अंतरिक्ष में मानों के साथ यादृच्छिक चर की एक जोड़ी बनें . यदि उनका संयुक्त वितरण है और सीमांत वितरण हैं और , पारस्परिक सूचना को इस प्रकार परिभाषित किया गया है

जहाँ समग्र्बैक-लीब्लर विचलन है।

ध्यान दें, समग्र्बैक-लीबलर विचलन की संपत्ति के अनुसार, वह ठीक उसी स्थिति में शून्य के बराबर होता है जब संयुक्त वितरण सीमांत के उत्पाद के साथ मेल खाता है, यानी जब और स्वतंत्र हैं (और इसलिए अवलोकन कर रहे हैं आपको इसके बारे में कुछ नहीं बताता ). गैर-ऋणात्मक है, यह एन्कोडिंग के लिए कीमत का एक माप है स्वतंत्र यादृच्छिक चरों की एक जोड़ी के रूप में जबकि वास्तव में वे नहीं हैं।

यदि प्राकृतिक लघुगणक का उपयोग किया जाता है, तो पारस्परिक सूचना की इकाई नेट (इकाई) है। यदि लघुगणक 2 का उपयोग किया जाता है, तो पारस्परिक सूचना की इकाई शैनन (इकाई) है, जिसे बिट के रूप में भी जाना जाता है। यदि लघुगणक 10 का उपयोग किया जाता है, तो पारस्परिक सूचना की इकाई हार्टले (इकाई) है, जिसे प्रतिबंध या डीआईटी के रूप में भी जाना जाता है।

पृथक-पृथक वितरण के लिए पीएमएफ (PMFs) के संदर्भ में

दो संयुक्त रूप से असतत यादृच्छिक चर की पारस्परिक सूचना और दोगुनी राशि के रूप में गणना की जाती है:[3]: 20 

 

 

 

 

(Eq.1)

जहाँ का संयुक्त वितरण है और , और और के सीमांत संभाव्यता द्रव्यमान फलन हैं और क्रमश:

सतत वितरण के लिए पीडीएफ (PDFs) के संदर्भ में

संयुक्त रूप से निरंतर यादृच्छिक चर के मामले में, दोहरे योग को दोहरे अभिन्न अंग द्वारा प्रतिस्थापित किया जाता है:[3]: 251 

 

 

 

 

(Eq.2)

जहाँ अब का संयुक्त संभाव्यता घनत्व फलन है और , और और के सीमांत संभाव्यता घनत्व फलन हैं और क्रमश:

प्रेरणा

सहज रूप से, पारस्परिक सूचना उस सूचना को मापती है और शेयर: यह मापता है कि इनमें से किसी एक चर को जानने से दूसरे के बारे में अनिश्चितता कितनी कम हो जाती है। उदाहरण के लिए, यदि और स्वतंत्र हैं, तो जानना के बारे में कोई सूचना नहीं देता और इसके विपरीत, इसलिए उनकी पारस्परिक सूचना शून्य है। दूसरे गंभीर पर, यदि का एक नियतात्मक कार्य है और का एक नियतात्मक कार्य है फिर सारी सूचना दी गई के साथ साझा किया जाता है : जानना का मूल्य निर्धारित करता है और इसके विपरीत है। परिणामस्वरूप, इस मामले में पारस्परिक सूचना वैसी ही है जैसी अनिश्चितता निहित है (या ) अकेले, अर्थात् की सूचना एन्ट्रापी (या ). इसके अतिरिक्त, यह पारस्परिक सूचना एन्ट्रापी के समान है और की एन्ट्रापी के रूप में . (इसका एक बहुत ही विशेष विषय है जब और समान यादृच्छिक चर हैं।)

पारस्परिक सूचना संयुक्त वितरण में व्यक्त अंतर्निहित निर्भरता का एक माप है और के सीमांत वितरण के सापेक्ष और स्वतंत्रता की धारणा के तहत. इसलिए पारस्परिक सूचना निम्नलिखित अर्थों में निर्भरता को मापती है: यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं। इसे एक दिशा में देखना आसान है: यदि और फिर स्वतंत्र हैं , और इसलिए:

इसके अतिरिक्त, पारस्परिक सूचना गैर-ऋणात्मक है (अर्थात नीचे देखें) और सममित समुच्चय (यानी) नीचे देखें)।

गुण

गैर-ऋणात्मकता

पारस्परिक सूचना की परिभाषा पर जेन्सेन की असमानता का उपयोग करके हम यह दिखा सकते हैं गैर-ऋणात्मक है, अर्थात[3]: 28 


समरूपता

एन्ट्रापी के साथ संबंध को ध्यान में रखते हुए प्रमाण दिया गया है, जैसा कि नीचे दिखाया गया है।

स्वतंत्रता के तहत सुपरमॉड्यूलरिटी

यदि से स्वतंत्र है , तब

.[4]


सशर्त और संयुक्त एन्ट्रापी से संबंध

पारस्परिक सूचना को समान रूप से इस प्रकार व्यक्त किया जा सकता है:

जहाँ और सीमांत सूचना एन्ट्रापी हैं, और सशर्त एन्ट्रापी हैं, और की संयुक्त एन्ट्रापी है और .

दो समुच्चयों के मिलन, अंतर और प्रतिच्छेदन की सादृश्यता पर ध्यान दें: इस संबंध में, ऊपर दिए गए सभी सूत्र लेख की प्रारंभ में बताए गए वेन आरेख से स्पष्ट हैं।

एक संचार चैनल के संदर्भ में जिसमें आउटपुट इनपुट का एक रव संस्करण है , इन संबंधों को चित्र में संक्षेपित किया गया है:

सूचना सैद्धांतिक मात्राओं के बीच संबंध

क्योंकि गैर-ऋणात्मक है, फलस्वरूप, . यहां हम इसका विस्तृत विवरण देते हैं संयुक्त रूप से असतत यादृच्छिक चर के मामले के लिए:

ऊपर दी गई अन्य पहचानों के प्रमाण समान हैं। सामान्य मामले का प्रमाण (सिर्फ पृथक नहीं) समान है, जिसमें योगों की जगह अभिन्न अंग सम्मिलित हैं।

सहज रूप से, यदि एन्ट्रापी तब इसे एक यादृच्छिक चर के बारे में अनिश्चितता का माप माना जाता है क्या का एक उपाय है के बारे में नहीं कहता . इसे लेकर काफी अनिश्चितता बनी हुई है बाद ज्ञात है, और इस प्रकार इन समानताओं में से दूसरे के दाहिने पक्ष को अनिश्चितता की मात्रा के रूप में पढ़ा जा सकता है , में अनिश्चितता की मात्रा को घटाकर जो बाद में रहता है ज्ञात है, जो अनिश्चितता की मात्रा के बराबर है जो जानने से दूर हो जाता है . यह सूचना की मात्रा (अर्थात अनिश्चितता में कमी) के रूप में पारस्परिक सूचना के सहज अर्थ की पुष्टि करता है जो किसी भी चर को जानने से दूसरे के बारे में पता चलता है।

ध्यान दें कि पृथक मामले में और इसलिए . इस प्रकार , और कोई भी मूलभूत सिद्धांत बना सकता है कि एक चर में अपने बारे में कम से कम उतनी सूचना होती है जितनी कोई अन्य चर प्रदान कर सकता है।

समग्र्बैक-लीब्लर विचलन से संबंध

संयुक्त रूप से असतत या संयुक्त रूप से निरंतर जोड़े के लिए , पारस्परिक सूचना सीमांत वितरण के उत्पाद से समग्र्बैक-लीब्लर विचलन है, , संयुक्त वितरण का , वह है,

इसके अतिरिक्त, चलो सशर्त द्रव्यमान या घनत्व समुच्चय हो। फिर, हमारी पहचान है

संयुक्त रूप से असतत यादृच्छिक चर का प्रमाण इस प्रकार है: