दिष्‍ट सूचना: Difference between revisions

From Vigyanwiki
(text)
m (12 revisions imported from alpha:दिष्‍ट_सूचना)
 
(5 intermediate revisions by 3 users not shown)
Line 1: Line 1:
'''दिष्‍ट [[जानकारी|सूचना]]''' एक [[सूचना सिद्धांत]] आकलन है जो यादृच्छिक स्ट्रिंग<math>X^n = (X_1,X_2,\dots,X_n)</math> से यादृच्छिक स्ट्रिंग <math>Y^n = (Y_1,Y_2,\dots,Y_n)</math> तक सूचना प्रवाह की मात्रा निर्धारित करता है। दिष्‍ट सूचना शब्द [[जेम्स मैसी]] द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है<ref name="Massey 1990">{{cite conference |last1=Massey |first1=James |title=कारणता, प्रतिक्रिया और निर्देशित जानकारी|book-title=Proceedings 1990 International Symposium on Information Theory and its Applications, Waikiki, Hawaii, Nov. 27-30, 1990 |date=1990}}</ref>
'''दिष्‍ट [[जानकारी|सूचना]]''' एक [[सूचना सिद्धांत]] आकलन है जो यादृच्छिक स्ट्रिंग <math>X^n = (X_1,X_2,\dots,X_n)</math> से <math>Y^n = (Y_1,Y_2,\dots,Y_n)</math> तक सूचना प्रवाह की मात्रा निर्धारित करता है। दिष्‍ट सूचना शब्द [[जेम्स मैसी]] द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है<ref name="Massey 1990">{{cite conference |last1=Massey |first1=James |title=कारणता, प्रतिक्रिया और निर्देशित जानकारी|book-title=Proceedings 1990 International Symposium on Information Theory and its Applications, Waikiki, Hawaii, Nov. 27-30, 1990 |date=1990}}</ref>
:<math>I(X^n\to Y^n) \triangleq \sum_{i=1}^n I(X^i;Y_i|Y^{i-1})</math>
:<math>I(X^n\to Y^n) \triangleq \sum_{i=1}^n I(X^i;Y_i|Y^{i-1})</math>
जहाँ <math>I(X^{i};Y_i|Y^{i-1})</math> [[सशर्त पारस्परिक जानकारी|सशर्त पारस्परिक सूचना]] है <math>I(X_1,X_2,...,X_{i};Y_i|Y_1,Y_2,...,Y_{i-1})</math>.
जहाँ <math>I(X^{i};Y_i|Y^{i-1})</math> [[सशर्त पारस्परिक जानकारी|सशर्त पारस्परिक सूचना]] है <math>I(X_1,X_2,...,X_{i};Y_i|Y_1,Y_2,...,Y_{i-1})</math>.
Line 47: Line 47:


===अनुमान===
===अनुमान===
नमूनों से दिष्‍ट सूचना का अनुमान लगाना एक कठिन समस्या है क्योंकि दिष्‍ट सूचना अभिव्यक्ति नमूनों पर नहीं बल्कि संयुक्त वितरण <math>\{P(x_i,y_i|x^{i-1},y^{i-1})_{i=1}^n\}</math> पर निर्भर करती हैजो अज्ञात हो सकता है। कॉन्टेक्स्ट ट्री वेइटिंग ([[संदर्भ वृक्ष भार|संदर्भ वृक्ष भार)]] <ref>{{cite journal |last1=Jiao |first1=Jiantao |last2=Permuter |first2=Haim H. |last3=Zhao |first3=Lei |last4=Kim |first4=Young-Han |last5=Weissman |first5=Tsachy |title=निर्देशित सूचना का सार्वभौमिक अनुमान|journal=IEEE Trans. Inf. Theory |date=October 2013 |volume=59 |issue=10 |pages=6220–6242 |doi=10.1109/TIT.2013.2267934 |arxiv=1201.2334 |s2cid=10855063 }}</ref> और अनुभवजन्य पैरामीट्रिक वितरण<ref>{{cite journal |last1=Quinn |first1=Christopher J. |last2=Kiyavash |first2=Negar |last3=Coleman |first3=Todd P. |title=निर्देशित सूचना ग्राफ़|journal=IEEE Trans. Inf. Theory |date=December 2015 |volume=61 |issue=12 |pages=6887–6909 |doi=10.1109/TIT.2015.2478440|arxiv=1204.2003 |s2cid=3121664}}</ref> और [[दीर्घकालिक अल्पकालिक स्मृति]] का उपयोग करने पर आधारित कई एल्गोरिदम हैं।<ref name="2003.04179"/>
नमूनों से दिष्‍ट सूचना का अनुमान लगाना एक कठिन समस्या है क्योंकि दिष्‍ट सूचना अभिव्यक्ति नमूनों पर नहीं बल्कि संयुक्त वितरण <math>\{P(x_i,y_i|x^{i-1},y^{i-1})_{i=1}^n\}</math> पर निर्भर करती है जो अज्ञात हो सकता है। कॉन्टेक्स्ट ट्री वेइटिंग ([[संदर्भ वृक्ष भार|संदर्भ वृक्ष भार)]]<ref>{{cite journal |last1=Jiao |first1=Jiantao |last2=Permuter |first2=Haim H. |last3=Zhao |first3=Lei |last4=Kim |first4=Young-Han |last5=Weissman |first5=Tsachy |title=निर्देशित सूचना का सार्वभौमिक अनुमान|journal=IEEE Trans. Inf. Theory |date=October 2013 |volume=59 |issue=10 |pages=6220–6242 |doi=10.1109/TIT.2013.2267934 |arxiv=1201.2334 |s2cid=10855063 }}</ref> और अनुभवजन्य पैरामीट्रिक वितरण<ref>{{cite journal |last1=Quinn |first1=Christopher J. |last2=Kiyavash |first2=Negar |last3=Coleman |first3=Todd P. |title=निर्देशित सूचना ग्राफ़|journal=IEEE Trans. Inf. Theory |date=December 2015 |volume=61 |issue=12 |pages=6887–6909 |doi=10.1109/TIT.2015.2478440|arxiv=1204.2003 |s2cid=3121664}}</ref> और [[दीर्घकालिक अल्पकालिक स्मृति]] का उपयोग करने पर आधारित कई एल्गोरिदम हैं।<ref name="2003.04179"/>
===अनुकूलन===
===अनुकूलन===
दिष्‍ट सूचना को अधिकतम करना सूचना सिद्धांत में एक मूलभूत समस्या है। उदाहरण के लिए, चैनल वितरण <math>\{P(y_i|x^{i},y^{i-1}\}_{i=1}^n)</math> को देखते हुए, उद्देश्य चैनल इनपुट वितरण <math> I(X^n\to Y^n)</math>  पर <math>\{P(x_i|x^{i-1},y^{i-1}\}_{i=1}^n)</math> को अनुकूलित करना हो सकता है।
दिष्‍ट सूचना को अधिकतम करना सूचना सिद्धांत में एक मूलभूत समस्या है। उदाहरण के लिए, चैनल वितरण <math>\{P(y_i|x^{i},y^{i-1}\}_{i=1}^n)</math> को देखते हुए, उद्देश्य चैनल इनपुट वितरण <math> I(X^n\to Y^n)</math>  पर <math>\{P(x_i|x^{i-1},y^{i-1}\}_{i=1}^n)</math> को अनुकूलित करना हो सकता है।
Line 87: Line 87:
[[Category: Machine Translated Page]]
[[Category: Machine Translated Page]]
[[Category:Created On 03/12/2023]]
[[Category:Created On 03/12/2023]]
[[Category:Vigyan Ready]]

Latest revision as of 09:15, 12 December 2023

दिष्‍ट सूचना एक सूचना सिद्धांत आकलन है जो यादृच्छिक स्ट्रिंग से तक सूचना प्रवाह की मात्रा निर्धारित करता है। दिष्‍ट सूचना शब्द जेम्स मैसी द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है[1]

जहाँ सशर्त पारस्परिक सूचना है .

दिष्‍ट सूचना में उन समस्याओं के लिए अनुप्रयोग होते हैं जहां कारण कार्य महत्वपूर्ण भूमिका निभाता है जैसे फीडबैक वाले चैनल क्षमता,[1][2][3][4] असतत मेमोरी रहित नेटवर्क की क्षमता,[5] इन-ब्लॉक मेमोरी वाले नेटवर्क की क्षमता,[6] कारण पक्ष की सूचना के साथ गैम्बल,[7] कारण पक्ष की सूचना के साथ संपीड़न,[8] वास्तविक समय नियंत्रण संचार समायोजन,[9][10] और सांख्यिकीय भौतिकी।[11]

कारण अनुबंधन

दिष्‍ट सूचना का सार कारण अनुबंधन है। पर यथोचित रूप से अनुबंधन की प्रायिकता को इस प्रकार परिभाषित किया गया है[5]:

.

यह पारंपरिक अनुबंधन

के लिए श्रृंखला नियम, सभी प्रतीकों के अतिरिक्त "अतीत" और "वर्तमान" प्रतीकों पर एक अनुबंधन को छोड़कर के समान है। केवल "अतीत" प्रतीकों को सम्मिलित करने के लिए, स्थिर प्रतीक को जोड़कर विलंब का परिचय दिया जा सकता है:

.

इस अभिव्यक्ति के लिए