सूचना-मिति: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Interdisciplinary approach to scientific modelling and information processing}} {{distinguish|Informetrics}} {{more footnotes|date=March 2018}} इन्...")
 
m (12 revisions imported from alpha:सूचना-मिति)
 
(11 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Interdisciplinary approach to scientific modelling and information processing}}
{{Short description|Interdisciplinary approach to scientific modelling and information processing}}
{{distinguish|Informetrics}}
'''सूचना-मिति (इन्फो मीट्रिक्स)''' [[[[वैज्ञानिक मॉडलिंग]]]], [[अनुमान|निष्कर्ष]] और कुशल सूचना प्रसंस्करण के लिए अंतःविषय दृष्टिकोण है। यह ध्वनि और सीमित सूचना की स्थितियों में मॉडलिंग, कथन और निष्कर्ष निकालने का विज्ञान है। विज्ञान के दृष्टिकोण से, यह संरचना [[सूचना सिद्धांत]], अनुमान के सांख्यिकीय विधिया, अनुप्रयुक्त गणित, [[कंप्यूटर विज्ञान]], [[अर्थमिति]], [[जटिलता|जटिलता सिद्धांत,]] [[निर्णय विश्लेषण]], मॉडलिंग और विज्ञान के दर्शन का प्रतिछेदन हैं।
{{more footnotes|date=March 2018}}
इन्फो-मेट्रिक्स [[[[वैज्ञानिक मॉडलिंग]]]], [[अनुमान]] और कुशल सूचना प्रसंस्करण के लिए एक अंतःविषय दृष्टिकोण है। यह शोर और सीमित जानकारी की स्थितियों में मॉडलिंग, तर्क और निष्कर्ष निकालने का विज्ञान है। विज्ञान के दृष्टिकोण से, यह ढांचा [[सूचना सिद्धांत]], अनुमान के सांख्यिकीय तरीकों, अनुप्रयुक्त गणित, [[कंप्यूटर विज्ञान]], [[अर्थमिति]], [[जटिलता]], [[निर्णय विश्लेषण]], मॉडलिंग और विज्ञान के दर्शन के चौराहे पर है।


इन्फो-मेट्रिक्स कम-निर्धारित या गलत तरीके से पेश की गई समस्याओं से निपटने के लिए एक सीमित अनुकूलन ढांचा प्रदान करता है - ऐसी समस्याएं जहां एक अद्वितीय समाधान खोजने के लिए पर्याप्त जानकारी नहीं है। ऐसी समस्याएँ सभी विज्ञानों में बहुत आम हैं: उपलब्ध जानकारी अधूरी जानकारी, सीमित, [[शोर (सिग्नल प्रोसेसिंग)]] और [[अनिश्चितता]] है। इन्फो-मेट्रिक्स वैज्ञानिक मॉडलिंग, सूचना प्रसंस्करण, सिद्धांत निर्माण और वैज्ञानिक स्पेक्ट्रम में अनुमान समस्याओं के लिए उपयोगी है। सूचना-मेट्रिक्स ढांचे का उपयोग प्रतिस्पर्धी सिद्धांतों या कार्य-कारण के बारे में परिकल्पनाओं का परीक्षण करने के लिए भी किया जा सकता है।
सूचना-मिति कम-निर्धारित या गलत ढंग से प्रस्तुत की गई समस्याओं को हल करने के लिए एक सीमित अनुकूलन संरचना प्रदान करता है - ऐसी समस्याएं जहां एक अद्वितीय समाधान खोजने के लिए पर्याप्त सूचना नहीं है। ऐसी समस्याएँ सभी विज्ञानों में बहुत साधारण हैं: उपलब्ध सूचना असंपूर्ण हैं, सीमित, [[शोर (सिग्नल प्रोसेसिंग)|ध्वनि (संकेत संसाधन)]] और [[अनिश्चितता]] है। सूचना-मिति वैज्ञानिक मॉडलिंग, सूचना प्रसंस्करण, सिद्धांत निर्माण और वैज्ञानिक वर्णक्रम में अनुमान समस्याओं के लिए उपयोगी है। सूचना-मिति संरचना का उपयोग प्रतिस्पर्धी सिद्धांतों या आकाश्मिक यांत्रिकी के विषय में परिकल्पनाओं का परीक्षण करने के लिए भी किया जा सकता है।


== इतिहास ==
== इतिहास ==


इन्फो-मेट्रिक्स अधिकतम एन्ट्रापी औपचारिकता के शास्त्रीय सिद्धांत से विकसित हुआ, जो [[क्लाउड शैनन]] के काम पर आधारित है। प्रारंभिक योगदान अधिकतर प्राकृतिक और गणितीय/सांख्यिकीय विज्ञान में थे। 1980 के दशक के मध्य से और विशेष रूप से 1990 के दशक के मध्य में, सामाजिक और व्यवहार विज्ञान में समस्याओं के एक बड़े वर्ग को संभालने के लिए, विशेष रूप से जटिल समस्याओं और डेटा के लिए, अधिकतम एन्ट्रापी दृष्टिकोण को सामान्यीकृत और विस्तारित किया गया था। 'इन्फो-मेट्रिक्स' शब्द 2009 में अमोस गोलान द्वारा अंतःविषय इन्फो-मेट्रिक्स संस्थान के उद्घाटन से ठीक पहले गढ़ा गया था।
सूचना-मिति अधिकतम एन्ट्रापी औपचारिकता के प्राचीन सिद्धांत से विकसित हुआ, जो [[क्लाउड शैनन]] के कार्य पर आधारित है। प्रारंभिक योगदान अधिकतर प्राकृतिक और गणितीय/सांख्यिकीय विज्ञान में थे। 1980 के दशक के मध्य से और विशेष रूप से 1990 के दशक के मध्य में, सामाजिक और व्यवहार विज्ञान में समस्याओं के वृहद् वर्ग को संभालने के लिए, विशेष रूप से जटिल समस्याओं और डेटा के लिए, अधिकतम एन्ट्रापी दृष्टिकोण को सामान्यीकृत और विस्तारित किया गया था। 'सूचना-मिति' शब्द 2009 में अमोस गोलान द्वारा अंतःविषय सूचना-मिति संस्थान के उद्घाटन से ठीक पहले बनाया गया था।


== प्रारंभिक परिभाषाएँ ==
== प्रारंभिक परिभाषाएँ ==


एक यादृच्छिक चर पर विचार करें  <math display="inline">X</math> जिसके परिणामस्वरूप K विशिष्ट परिणामों में से एक हो सकता है। [[संभावना]] <math display="inline"> p_k </math> प्रत्येक परिणाम का <math display="inline"> x_k </math> है <math display="inline"> p_k = p(x_k) </math> के लिए <math display="inline"> k=1,2,\ldots,K</math>. इस प्रकार, <math display="inline">P</math> के-आयामी संभाव्यता वितरण के लिए परिभाषित किया गया है <math display="inline">X</math> ऐसा है कि <math "display=inline"> p_k \epsilon [0,1]</math> और <math display="inline"> \sum_k p_k = 1 </math>. किसी एकल परिणाम की सूचनात्मक सामग्री को परिभाषित करें  <math display="inline">x_k</math> होना <math display="inline"> h(x_k) = h(p_k) = \log_2(1/p_k)</math> (जैसे, शैनन)वितरण के अंत में एक परिणाम का अवलोकन करना (एक दुर्लभ घटना) दूसरे, अधिक संभावित, परिणाम को देखने की तुलना में बहुत अधिक जानकारी प्रदान करता है। एन्ट्रापी<ref>{{cite journal|last1=Shannon|first1=Claude|title=संचार का एक गणितीय सिद्धांत|journal=Bell System Technical Journal|date=1948|volume=27|pages=379–423}}</ref> यादृच्छिक चर X के परिणाम की अपेक्षित सूचना सामग्री है जिसका संभाव्यता वितरण P है:
यादृच्छिक चर <math display="inline">X</math> पर विचार करें जिसके परिणामस्वरूप K विशिष्ट परिणामों में से एक हो सकता है। [[संभावना|प्रायिकता]] <math display="inline"> p_k </math> प्रत्येक परिणाम <math display="inline"> p_k = p(x_k) </math> के लिए <math display="inline"> k=1,2,\ldots,K</math> का <math display="inline"> x_k </math> है। इस प्रकार, <math display="inline">P</math> के-आयामी प्रायिकता वितरण <math display="inline">X</math> के लिए परिभाषित किया गया है जैसे कि <math "display="inline&quot;"> p_k \epsilon [0,1]</math> और <math display="inline"> \sum_k p_k = 1 </math>किसी एकल परिणाम <math display="inline">x_k</math> का <math display="inline"> h(x_k) = h(p_k) = \log_2(1/p_k)</math> (जैसे, शैनन) होना की सूचनात्मक सामग्री को परिभाषित करते हैं। वितरण के अंत में एक परिणाम का अवलोकन करना (एक दुर्लभ घटना), दूसरे, अधिक संभावित, परिणाम को देखने की तुलना में बहुत अधिक सूचना प्रदान करता है। एन्ट्रापी<ref>{{cite journal|last1=Shannon|first1=Claude|title=संचार का एक गणितीय सिद्धांत|journal=Bell System Technical Journal|date=1948|volume=27|pages=379–423}}</ref> यादृच्छिक चर X के परिणाम की अपेक्षित सूचना सामग्री है जिसका संभाव्यता वितरण P है:
<math display="block">
<math display="block">
H(P) = \sum_{k=1}^K p_k \log_2 \left(\frac 1 {p_k}\right) = - \sum_{k=1}^K p_k \log_2(p_k) = \operatorname E\left [\log_2 \left (\frac 1 {P(X)} \right )\right ]
H(P) = \sum_{k=1}^K p_k \log_2 \left(\frac 1 {p_k}\right) = - \sum_{k=1}^K p_k \log_2(p_k) = \operatorname E\left [\log_2 \left (\frac 1 {P(X)} \right )\right ]
</math>
</math>
यहाँ <math mode="inline">p_k \log_2(p_k) \equiv 0 </math> अगर <math mode=inline> p_k = 0</math>, और <math mode="inline">\operatorname E</math> [[अपेक्षित मूल्य]] ऑपरेटर है.
यहाँ <math mode="inline">p_k \log_2(p_k) \equiv 0 </math> अगर <math mode=inline> p_k = 0</math>, और <math mode="inline">\operatorname E</math> [[अपेक्षित मूल्य|अपेक्षित]] प्रचालक है।


== बुनियादी सूचना-मेट्रिक्स समस्या ==
== मुलभुत सूचना-मिति समस्या ==


मॉडलिंग की समस्या पर विचार करें और उस चर के केवल माध्य (अपेक्षित मान) को देखते हुए कुछ के-आयामी असतत यादृच्छिक चर के न देखे गए संभाव्यता वितरण का अनुमान लगाएं। हम यह भी जानते हैं कि संभावनाएँ गैर-नकारात्मक और सामान्यीकृत हैं (अर्थात, योग बिल्कुल 1 तक)। सभी K > 2 के लिए समस्या कम निर्धारित है। इन्फो-मेट्रिक्स ढांचे के भीतर, समाधान दो बाधाओं के अधीन यादृच्छिक चर की एन्ट्रापी को अधिकतम करना है: माध्य और सामान्यीकरण। इससे सामान्य अधिकतम एन्ट्रापी समाधान प्राप्त होता है। उस समस्या के समाधान को कई तरीकों से विस्तारित और सामान्यीकृत किया जा सकता है। सबसे पहले, कोई शैनन की एन्ट्रॉपी के बजाय किसी अन्य एन्ट्रॉपी का उपयोग कर सकता है। दूसरा, एक ही दृष्टिकोण का उपयोग निरंतर यादृच्छिक चर के लिए, सभी प्रकार के सशर्त मॉडल (उदाहरण के लिए, प्रतिगमन, असमानता और गैर-रेखीय मॉडल) और कई बाधाओं के लिए किया जा सकता है। तीसरा, पुजारियों को उस ढांचे में शामिल किया जा सकता है। चौथा, अधिक अनिश्चितता को समायोजित करने के लिए उसी ढांचे को बढ़ाया जा सकता है: देखे गए मूल्यों के बारे में अनिश्चितता और/या मॉडल के बारे में अनिश्चितता। अंत में, उसी बुनियादी ढांचे का उपयोग नए मॉडल/सिद्धांतों को विकसित करने, सभी उपलब्ध जानकारी का उपयोग करके इन मॉडलों को मान्य करने और मॉडल के बारे में सांख्यिकीय परिकल्पनाओं का परीक्षण करने के लिए किया जा सकता है।
मॉडलिंग की समस्या पर विचार करें और उस चर के केवल माध्य (अपेक्षित मान) को देखते हुए कुछ k-विमीय असतत यादृच्छिक चर के न देखे गए प्रायिकता वितरण का अनुमान लगाया जाता हैं। हम यह भी जानते हैं कि संभावनाएँ ऋणोत्तर और सामान्यीकृत हैं (अर्थात, योग बिल्कुल 1 तक)। सभी K > 2 के लिए समस्या कम निर्धारित है। सूचना-मिति संरचना के भीतर, समाधान दो बाधाओं के अधीन यादृच्छिक चर: माध्य और सामान्यीकरण की एन्ट्रापी को अधिकतम करना है। इससे सामान्य अधिकतम एन्ट्रापी समाधान प्राप्त होता है। उस समस्या के समाधान को कई प्रकारो से विस्तारित और सामान्यीकृत किया जा सकता है। सबसे पहले, कोई शैनन की एन्ट्रॉपी के अतिरिक्त किसी अन्य एन्ट्रॉपी का उपयोग कर सकता है। दूसरा, एक ही दृष्टिकोण का उपयोग निरंतर यादृच्छिक चर के लिए, सभी प्रकार के सशर्त प्रतिरूप (उदाहरण के लिए, प्रतिगमन, असमानता और अरेखीय प्रतिरूप) और कई बाधाओं के लिए किया जा सकता है। तीसरा, पूर्ववर्ती को उस संरचना में सम्मिलित किया जा सकता है। चौथा, अधिक अनिश्चितता को समायोजित करने के लिए: देखे गए मानो के विषय में अनिश्चितता और/या प्रतिरूपके बारे में उसी ढांचे को अनिश्चितता बढ़ाया जा सकता है। अंत में, उसी मुलभुत संरचना का उपयोग नए प्रतिरूप/सिद्धांतों को विकसित करने, सभी उपलब्ध सूचना का उपयोग करके इन प्रतिरूपो को मान्य करने और प्रतिरूप के बारे में सांख्यिकीय परिकल्पनाओं का परीक्षण करने के लिए किया जा सकता है।


== उदाहरण ==
== उदाहरण ==


=== छह भुजाओं वाला पासा ===
=== छह पक्षीय पासा (डाइस) ===


बार-बार स्वतंत्र प्रयोगों से प्राप्त जानकारी के आधार पर अनुमान।
बार-बार स्वतंत्र प्रयोगों से प्राप्त सूचना के आधार पर अनुमान हैं।


निम्नलिखित उदाहरण का श्रेय एल. बोल्ट्ज़मैन को दिया जाता है और इसे [[ ईटी जेनेस ]] द्वारा और अधिक लोकप्रिय बनाया गया। छह-तरफा पर विचार करें {{dice}}, कहां उछालना है {{dice}} घटना है और इसके विशिष्ट परिणाम ऊपरी सतह पर 1 से 6 तक की संख्याएँ हैं {{dice}}. प्रयोग समान उछालने की स्वतंत्र पुनरावृत्ति है {{dice}}.
निम्नलिखित उदाहरण का श्रेय एल. बोल्ट्ज़मैन को दिया जाता है और इसे[[ ईटी जेनेस | ईटी जेनेस]] द्वारा और अधिक लोकप्रिय बनाया गया था। छह-पक्षीय डाइस ({{dice}}) पर विचार करें, जहाँ डाइस ({{dice}}) उछालना है घटना है और इसके विशिष्ट परिणाम डाइस ({{dice}}) के ऊपरी सतह पर 1 से 6 तक की संख्याएँ हैं। प्रयोग समान डाइस ({{dice}}) उछालने की स्वतंत्र पुनरावृत्ति है।
मान लीजिए कि आप केवल छह-तरफा के एन उछाल के अनुभवजन्य औसत मूल्य, वाई का निरीक्षण करते हैं {{dice}}. उस जानकारी को देखते हुए, आप संभावनाओं का अनुमान लगाना चाहते हैं कि चेहरे का एक विशिष्ट मूल्य अगले टॉस में दिखाई देगा {{dice}}. आप यह भी जानते हैं कि संभावनाओं का योग 1 होना चाहिए। इन दो बाधाओं (माध्य और सामान्यीकरण) के अधीन एन्ट्रॉपी को अधिकतम करना (और लॉग बेस 2 का उपयोग करना) सबसे अनजान समाधान उत्पन्न करता है।
 
मान लीजिए कि आप केवल डाइस ({{dice}}) के छह-पक्षीय के N उछाल के प्रयोगसिद्ध औसत मान; y, का निरीक्षण करते हैं। उस सूचना को देखते हुए, आप प्रायिकताओं का अनुमान लगाना चाहते हैं कि तलो का एक विशिष्ट मूल्य ({{dice}}) के अगले उछाल में दिखाई देता हैं। आप यह भी जानते हैं कि प्रायिकताओं का योग 1 होना चाहिए। इन दो बाधाओं (माध्य और सामान्यीकरण) के अधीन एन्ट्रॉपी को अधिकतम करना (और लॉग बेस 2 का उपयोग करना) सबसे अनभिज्ञ समाधान उत्पन्न करता है।
<math display="block">
<math display="block">
\begin{align}
\begin{align}
Line 38: Line 37:
\end{align}
\end{align}
</math>
</math>
के लिए  <math display="inline"> x_k = k</math> और <math display="inline">k=1,2,\ldots,6</math> . समाधान है
<math display="inline"> x_k = k</math> और <math display="inline">k=1,2,\ldots,6</math> के लिए होता हैं। समाधान है


: <math display="block">
: <math display="block">
\widehat{p}_k = \frac{2^{-\widehat{\lambda} x_k}}{\sum_{k=1}^6 2^{-\widehat{\lambda} x_k}} \equiv \frac{2^{-\lambda x_k}} \Omega
\widehat{p}_k = \frac{2^{-\widehat{\lambda} x_k}}{\sum_{k=1}^6 2^{-\widehat{\lambda} x_k}} \equiv \frac{2^{-\lambda x_k}} \Omega
</math>
</math>
कहाँ <math display="inline">\widehat{p}_k</math> घटना की अनुमानित संभावना है <math display="inline">k</math>, <math display="inline"> \widehat{\lambda}</math> माध्य बाधा से जुड़े अनुमानित लैग्रेंज गुणक हैं, और <math display="inline"> \Omega</math> विभाजन फलन (सांख्यिकीय यांत्रिकी) (सामान्यीकरण) फलन है। यदि यह मेला है {{dice}} 3.5 के माध्य से आप अपेक्षा करेंगे कि सभी फलकों की संभावना समान है और संभावनाएँ भी समान हैं। अधिकतम एन्ट्रापी समाधान यही देता है। यदि {{dice}} 4 के माध्य के साथ अनुचित (या लोडेड) है, जिसके परिणामस्वरूप अधिकतम एन्ट्रापी समाधान होगा <math display="inline">p_k=(0.103,  0.123, 0.146,  0.174,  0.207, 0.247)</math>. तुलना के लिए, न्यूनतम वर्ग मानदंड को न्यूनतम करना <math display="inline">\left(\sum_{k=1}^6 p_k^2\right)</math> एन्ट्रापी पैदावार को अधिकतम करने के बजाय <math display="inline"> p_k(LS) =(0.095,  0.124,  0.152,  0.181, 0.210, 0.238)</math>.
जहाँ <math display="inline">\widehat{p}_k</math> घटना की अनुमानित संभावना <math display="inline">k</math> है, <math display="inline"> \widehat{\lambda}</math> माध्य प्रतिबन्ध से जुड़े अनुमानित लैग्रेंज गुणक हैं, और <math display="inline"> \Omega</math> विभाजन फलन (सांख्यिकीय यांत्रिकी) (सामान्यीकरण) फलन है। यदि यह 3.5 के माध्य से उचित डाइस ({{dice}}) है आप अपेक्षा करेंगे कि सभी फलकों की संभावना समान है और संभावनाएँ भी समान हैं। अधिकतम एन्ट्रापी समाधान यही देता है। यदि डाइस ({{dice}}) 4 के माध्य के साथ अनुचित (या लोडेड) है, जिसके परिणामस्वरूप अधिकतम एन्ट्रापी समाधान <math display="inline">p_k=(0.103,  0.123, 0.146,  0.174,  0.207, 0.247)</math>होता हैं। तुलना के लिए, न्यूनतम वर्ग मानदंड <math display="inline">\left(\sum_{k=1}^6 p_k^2\right)</math> को न्यूनतम करना, एन्ट्रापी परिणाम <math display="inline"> p_k(LS) =(0.095,  0.124,  0.152,  0.181, 0.210, 0.238)</math> को अधिकतम करने के स्थान पर किया जाता हैं।


=== कुछ अंतर-विषयक उदाहरण ===
=== कुछ अंतर-विषयक उदाहरण ===


वर्षा की भविष्यवाणी: अपेक्षित दैनिक वर्षा (अंकगणितीय माध्य) का उपयोग करके, दैनिक वर्षा वितरण का अनुमान लगाने और पूर्वानुमान लगाने के लिए अधिकतम एन्ट्रापी ढांचे का उपयोग किया जा सकता है।<ref>{{cite book|last1=Golan|first1=Amos|title=Foundations of Info-metrics: Modeling, Inference, and Imperfect Information|date=2018|publisher=Oxford University Press}}</ref>
''वर्षा की भविष्यवाणी'' :अपेक्षित दैनिक वर्षा (अंकगणितीय माध्य) का उपयोग करके, दैनिक वर्षा वितरण का अनुमान लगाने और पूर्वानुमान लगाने के लिए अधिकतम एन्ट्रापी संरचना का उपयोग किया जा सकता है।<ref>{{cite book|last1=Golan|first1=Amos|title=Foundations of Info-metrics: Modeling, Inference, and Imperfect Information|date=2018|publisher=Oxford University Press}}</ref>
पोर्टफोलियो प्रबंधन: मान लीजिए कि एक पोर्टफोलियो प्रबंधक है जिसे निवेशक की बाधाओं और प्राथमिकताओं को ध्यान में रखते हुए, कुछ परिसंपत्तियों को आवंटित करने या विभिन्न परिसंपत्तियों को पोर्टफोलियो भार आवंटित करने की आवश्यकता है। इन प्राथमिकताओं और बाधाओं के साथ-साथ देखी गई जानकारी, जैसे कि बाजार का मतलब रिटर्न, और कुछ समय अवधि में प्रत्येक परिसंपत्ति का सहप्रसरण, का उपयोग करके, इष्टतम पोर्टफोलियो भार खोजने के लिए एन्ट्रापी अधिकतमकरण ढांचे का उपयोग किया जा सकता है। इस मामले में, पोर्टफोलियो की एन्ट्रापी इसकी विविधता का प्रतिनिधित्व करती है। इस ढांचे को अन्य बाधाओं जैसे न्यूनतम भिन्नता, अधिकतम विविधता इत्यादि को शामिल करने के लिए संशोधित किया जा सकता है। उस मॉडल में असमानताएं शामिल हैं और छोटी बिक्री को शामिल करने के लिए इसे और सामान्यीकृत किया जा सकता है। ऐसे और भी उदाहरण और संबंधित कोड यहां पाए जा सकते हैं <ref>{{cite journal|last1=Bera|first1=Anil K.|last2=Park|first2=Sung Y.|title=अधिकतम एन्ट्रापी सिद्धांत का उपयोग करके इष्टतम पोर्टफोलियो विविधीकरण|journal=Econometric Reviews|date=2008|volume=27|issue=4-6|pages=484–512}}</ref><ref>{{cite web|title=Portfolio Allocation – Foundations of Info-Metrics|url=http://info-metrics.org/interact/portfolio.html|website=info-metrics.org|language=en}}</ref>
 
इन्फो-मेट्रिक्स से संबंधित कार्यों की एक विस्तृत सूची यहां पाई जा सकती है: http://info-metrics.org/bibliography.html
''निवेश सूचि प्रबंधन :'' माना कि एक निवेश सूचि प्रबंधक है जिसे निवेशक की बाधाओं और प्राथमिकताओं को ध्यान में रखते हुए, कुछ परिसंपत्तियों को आवंटित करने या विभिन्न परिसंपत्तियों को निवेश सूचि भार आवंटित करने की आवश्यकता है। इन प्राथमिकताओं और बाधाओं के साथ-साथ देखी गई सूचना, जैसे कि व्यापार का अर्थ वापस करना, और कुछ समय अवधि में प्रत्येक परिसंपत्ति का सहप्रसरण, का उपयोग करके, इष्टतम निवेश सूचि भार खोजने के लिए एन्ट्रापी अधिकतमकरण संरचना का उपयोग किया जा सकता है। इस स्थिति में, निवेश सूचि की एन्ट्रापी इसकी विविधता का प्रतिनिधित्व करती है। इस संरचना को अन्य बाधाओं जैसे न्यूनतम भिन्नता, अधिकतम विविधता इत्यादि को सम्मिलित करने के लिए संशोधित किया जा सकता है। उस मॉडल में असमानताएं सम्मिलित हैं और छोटी बिक्री को सम्मिलित करने के लिए इसे और सामान्यीकृत किया जा सकता है। ऐसे और भी उदाहरण और संबंधित कोड यहां पाए जा सकते हैं।<ref>{{cite journal|last1=Bera|first1=Anil K.|last2=Park|first2=Sung Y.|title=अधिकतम एन्ट्रापी सिद्धांत का उपयोग करके इष्टतम पोर्टफोलियो विविधीकरण|journal=Econometric Reviews|date=2008|volume=27|issue=4-6|pages=484–512}}</ref><ref>{{cite web|title=Portfolio Allocation – Foundations of Info-Metrics|url=http://info-metrics.org/interact/portfolio.html|website=info-metrics.org|language=en}}</ref>
 
सूचना-मिति से संबंधित कार्यों की एक विस्तृत सूची यहां पाई जा सकती है: http://info-metrics.org/bibliography.html


== यह भी देखें ==
== यह भी देखें ==
Line 65: Line 66:


== अग्रिम पठन ==
== अग्रिम पठन ==
=== क्लासिक्स ===
=== क्लासिक्स ===
* [[रुडोल्फ क्लॉसियस]]. शी. गति की प्रकृति पर जिसे हम ऊष्मा कहते हैं। लंदन, एडिनबर्ग, और डबलिन फिलॉसॉफिकल मैगज़ीन और जर्नल ऑफ़ साइंस, '14' (91):108-127, 1857।
* [[रुडोल्फ क्लॉसियस]]. शी. गति की प्रकृति पर जिसे हम ऊष्मा कहते हैं। लंदन, एडिनबर्ग, और डबलिन फिलॉसॉफिकल मैगज़ीन और जर्नल ऑफ़ साइंस, '14' (91):108-127, 1857।
Line 119: Line 116:
[[Category: Machine Translated Page]]
[[Category: Machine Translated Page]]
[[Category:Created On 04/12/2023]]
[[Category:Created On 04/12/2023]]
[[Category:Vigyan Ready]]

Latest revision as of 09:18, 12 December 2023

सूचना-मिति (इन्फो मीट्रिक्स) [[वैज्ञानिक मॉडलिंग]], निष्कर्ष और कुशल सूचना प्रसंस्करण के लिए अंतःविषय दृष्टिकोण है। यह ध्वनि और सीमित सूचना की स्थितियों में मॉडलिंग, कथन और निष्कर्ष निकालने का विज्ञान है। विज्ञान के दृष्टिकोण से, यह संरचना सूचना सिद्धांत, अनुमान के सांख्यिकीय विधिया, अनुप्रयुक्त गणित, कंप्यूटर विज्ञान, अर्थमिति, जटिलता सिद्धांत, निर्णय विश्लेषण, मॉडलिंग और विज्ञान के दर्शन का प्रतिछेदन हैं।

सूचना-मिति कम-निर्धारित या गलत ढंग से प्रस्तुत की गई समस्याओं को हल करने के लिए एक सीमित अनुकूलन संरचना प्रदान करता है - ऐसी समस्याएं जहां एक अद्वितीय समाधान खोजने के लिए पर्याप्त सूचना नहीं है। ऐसी समस्याएँ सभी विज्ञानों में बहुत साधारण हैं: उपलब्ध सूचना असंपूर्ण हैं, सीमित, ध्वनि (संकेत संसाधन) और अनिश्चितता है। सूचना-मिति वैज्ञानिक मॉडलिंग, सूचना प्रसंस्करण, सिद्धांत निर्माण और वैज्ञानिक वर्णक्रम में अनुमान समस्याओं के लिए उपयोगी है। सूचना-मिति संरचना का उपयोग प्रतिस्पर्धी सिद्धांतों या आकाश्मिक यांत्रिकी के विषय में परिकल्पनाओं का परीक्षण करने के लिए भी किया जा सकता है।

इतिहास

सूचना-मिति अधिकतम एन्ट्रापी औपचारिकता के प्राचीन सिद्धांत से विकसित हुआ, जो क्लाउड शैनन के कार्य पर आधारित है। प्रारंभिक योगदान अधिकतर प्राकृतिक और गणितीय/सांख्यिकीय विज्ञान में थे। 1980 के दशक के मध्य से और विशेष रूप से 1990 के दशक के मध्य में, सामाजिक और व्यवहार विज्ञान में समस्याओं के वृहद् वर्ग को संभालने के लिए, विशेष रूप से जटिल समस्याओं और डेटा के लिए, अधिकतम एन्ट्रापी दृष्टिकोण को सामान्यीकृत और विस्तारित किया गया था। 'सूचना-मिति' शब्द 2009 में अमोस गोलान द्वारा अंतःविषय सूचना-मिति संस्थान के उद्घाटन से ठीक पहले बनाया गया था।

प्रारंभिक परिभाषाएँ

यादृच्छिक चर पर विचार करें जिसके परिणामस्वरूप K विशिष्ट परिणामों में से एक हो सकता है। प्रायिकता प्रत्येक परिणाम के लिए का है। इस प्रकार, के-आयामी प्रायिकता वितरण के लिए परिभाषित किया गया है जैसे कि और । किसी एकल परिणाम का (जैसे, शैनन) होना की सूचनात्मक सामग्री को परिभाषित करते हैं। वितरण के अंत में एक परिणाम का अवलोकन करना (एक दुर्लभ घटना), दूसरे, अधिक संभावित, परिणाम को देखने की तुलना में बहुत अधिक सूचना प्रदान करता है। एन्ट्रापी[1] यादृच्छिक चर X के परिणाम की अपेक्षित सूचना सामग्री है जिसका संभाव्यता वितरण P है:

यहाँ अगर , और अपेक्षित प्रचालक है।

मुलभुत सूचना-मिति समस्या

मॉडलिंग की समस्या पर विचार करें और उस चर के केवल माध्य (अपेक्षित मान) को देखते हुए कुछ k-विमीय असतत यादृच्छिक चर के न देखे गए प्रायिकता वितरण का अनुमान लगाया जाता हैं। हम यह भी जानते हैं कि संभावनाएँ ऋणोत्तर और सामान्यीकृत हैं (अर्थात, योग बिल्कुल 1 तक)। सभी K > 2 के लिए समस्या कम निर्धारित है। सूचना-मिति संरचना के भीतर, समाधान दो बाधाओं के अधीन यादृच्छिक चर: माध्य और सामान्यीकरण की एन्ट्रापी को अधिकतम करना है। इससे सामान्य अधिकतम एन्ट्रापी समाधान प्राप्त होता है। उस समस्या के समाधान को कई प्रकारो से विस्तारित और सामान्यीकृत किया जा सकता है। सबसे पहले, कोई शैनन की एन्ट्रॉपी के अतिरिक्त किसी अन्य एन्ट्रॉपी का उपयोग कर सकता है। दूसरा, एक ही दृष्टिकोण का उपयोग निरंतर यादृच्छिक चर के लिए, सभी प्रकार के सशर्त प्रतिरूप (उदाहरण के लिए, प्रतिगमन, असमानता और अरेखीय प्रतिरूप) और कई बाधाओं के लिए किया जा सकता है। तीसरा, पूर्ववर्ती को उस संरचना में सम्मिलित किया जा सकता है। चौथा, अधिक अनिश्चितता को समायोजित करने के लिए: देखे गए मानो के विषय में अनिश्चितता और/या प्रतिरूपके बारे में उसी ढांचे को अनिश्चितता बढ़ाया जा सकता है। अंत में, उसी मुलभुत संरचना का उपयोग नए प्रतिरूप/सिद्धांतों को विकसित करने, सभी उपलब्ध सूचना का उपयोग करके इन प्रतिरूपो को मान्य करने और प्रतिरूप के बारे में सांख्यिकीय परिकल्पनाओं का परीक्षण करने के लिए किया जा सकता है।

उदाहरण

छह पक्षीय पासा (डाइस)

बार-बार स्वतंत्र प्रयोगों से प्राप्त सूचना के आधार पर अनुमान हैं।

निम्नलिखित उदाहरण का श्रेय एल. बोल्ट्ज़मैन को दिया जाता है और इसे ईटी जेनेस द्वारा और अधिक लोकप्रिय बनाया गया था। छह-पक्षीय डाइस (die) पर विचार करें, जहाँ डाइस (die) उछालना है घटना है और इसके विशिष्ट परिणाम डाइस (die) के ऊपरी सतह पर 1 से 6 तक की संख्याएँ हैं। प्रयोग समान डाइस (die) उछालने की स्वतंत्र पुनरावृत्ति है।

मान लीजिए कि आप केवल डाइस (die) के छह-पक्षीय के N उछाल के प्रयोगसिद्ध औसत मान; y, का निरीक्षण करते हैं। उस सूचना को देखते हुए, आप प्रायिकताओं का अनुमान लगाना चाहते हैं कि तलो का एक विशिष्ट मूल्य (die) के अगले उछाल में दिखाई देता हैं। आप यह भी जानते हैं कि प्रायिकताओं का योग 1 होना चाहिए। इन दो बाधाओं (माध्य और सामान्यीकरण) के अधीन एन्ट्रॉपी को अधिकतम करना (और लॉग बेस 2 का उपयोग करना) सबसे अनभिज्ञ समाधान उत्पन्न करता है।

और के लिए होता हैं। समाधान है

जहाँ घटना की अनुमानित संभावना है, माध्य प्रतिबन्ध से जुड़े अनुमानित लैग्रेंज गुणक हैं, और विभाजन फलन (सांख्यिकीय यांत्रिकी) (सामान्यीकरण) फलन है। यदि यह 3.5 के माध्य से उचित डाइस (die) है आप अपेक्षा करेंगे कि सभी फलकों की संभावना समान है और संभावनाएँ भी समान हैं। अधिकतम एन्ट्रापी समाधान यही देता है। यदि डाइस (die) 4 के माध्य के साथ अनुचित (या लोडेड) है, जिसके परिणामस्वरूप अधिकतम एन्ट्रापी समाधान होता हैं। तुलना के लिए, न्यूनतम वर्ग मानदंड को न्यूनतम करना, एन्ट्रापी परिणाम को अधिकतम करने के स्थान पर किया जाता हैं।

कुछ अंतर-विषयक उदाहरण

वर्षा की भविष्यवाणी :अपेक्षित दैनिक वर्षा (अंकगणितीय माध्य) का उपयोग करके, दैनिक वर्षा वितरण का अनुमान लगाने और पूर्वानुमान लगाने के लिए अधिकतम एन्ट्रापी संरचना का उपयोग किया जा सकता है।[2]

निवेश सूचि प्रबंधन : माना कि एक निवेश सूचि प्रबंधक है जिसे निवेशक की बाधाओं और प्राथमिकताओं को ध्यान में रखते हुए, कुछ परिसंपत्तियों को आवंटित करने या विभिन्न परिसंपत्तियों को निवेश सूचि भार आवंटित करने की आवश्यकता है। इन प्राथमिकताओं और बाधाओं के साथ-साथ देखी गई सूचना, जैसे कि व्यापार का अर्थ वापस करना, और कुछ समय अवधि में प्रत्येक परिसंपत्ति का सहप्रसरण, का उपयोग करके, इष्टतम निवेश सूचि भार खोजने के लिए एन्ट्रापी अधिकतमकरण संरचना का उपयोग किया जा सकता है। इस स्थिति में, निवेश सूचि की एन्ट्रापी इसकी विविधता का प्रतिनिधित्व करती है। इस संरचना को अन्य बाधाओं जैसे न्यूनतम भिन्नता, अधिकतम विविधता इत्यादि को सम्मिलित करने के लिए संशोधित किया जा सकता है। उस मॉडल में असमानताएं सम्मिलित हैं और छोटी बिक्री को सम्मिलित करने के लिए इसे और सामान्यीकृत किया जा सकता है। ऐसे और भी उदाहरण और संबंधित कोड यहां पाए जा सकते हैं।[3][4]

सूचना-मिति से संबंधित कार्यों की एक विस्तृत सूची यहां पाई जा सकती है: http://info-metrics.org/bibliography.html

यह भी देखें

संदर्भ

  1. Shannon, Claude (1948). "संचार का एक गणितीय सिद्धांत". Bell System Technical Journal. 27: 379–423.
  2. Golan, Amos (2018). Foundations of Info-metrics: Modeling, Inference, and Imperfect Information. Oxford University Press.
  3. Bera, Anil K.; Park, Sung Y. (2008). "अधिकतम एन्ट्रापी सिद्धांत का उपयोग करके इष्टतम पोर्टफोलियो विविधीकरण". Econometric Reviews. 27 (4–6): 484–512.
  4. "Portfolio Allocation – Foundations of Info-Metrics". info-metrics.org (in English).


अग्रिम पठन

क्लासिक्स

  • रुडोल्फ क्लॉसियस. शी. गति की प्रकृति पर जिसे हम ऊष्मा कहते हैं। लंदन, एडिनबर्ग, और डबलिन फिलॉसॉफिकल मैगज़ीन और जर्नल ऑफ़ साइंस, '14' (91):108-127, 1857।
  • लुडविग बोल्ट्ज़मैन। गैस अणुओं के तापीय संतुलन पर आगे के अध्ययन (गैसमोलेकुलेन में अध्ययन के आधार पर)। सिट्ज़ुंग्सबेरीचटे डेर अकाडेमी डेर विसेनशाफ्टन, मैथेमेटिशे-नेचुरविस्सचाफ्टलिचे क्लासे, पृष्ठ 275-370, 1872।
  • जे. डब्ल्यू. गिब्स। सांख्यिकीय यांत्रिकी में प्राथमिक सिद्धांत। (न्यू हेवन, सीटी: येल यूनिवर्सिटी प्रेस), 1902।
  • सी. ई. शैनन। संचार का एक गणितीय सिद्धांत । बेल सिस्टम टेक्निकल जर्नल, '27':379-423, 1948।
  • वाई. अलहसीद और आर. डी. लेविन। सूचना सैद्धांतिक दृष्टिकोण में प्रायोगिक और अंतर्निहित अनिश्चितताएँ। रासायनिक भौतिकी पत्र, '73' (1):16-20, 1980।
  • आर. बी. ऐश. सूचना सिद्धांत. इंटरसाइंस, न्यूयॉर्क, 1965।
  • एक कैटिचा। सापेक्ष एन्ट्रापी और आगमनात्मक अनुमान। 2004.
  • एक कैटिचा। संभाव्यता, एन्ट्रापी और सांख्यिकीय भौतिकी पर व्याख्यान। मैक्सएंट, साओ पाउलो, ब्राज़ील, 2008।
  • जान एम. वैन कैम्पेनहौट कवर और थॉमस एम. अधिकतम एन्ट्रापी और सशर्त संभाव्यता। सूचना सिद्धांत पर आईईईई लेनदेन, आईटी-27, संख्या 4, 1981।
  • आई. सिस्ज़ार। न्यूनतम वर्ग और अधिकतम एन्ट्रापी क्यों? रैखिक व्युत्क्रम समस्या के अनुमान के लिए एक स्वयंसिद्ध दृष्टिकोण। सांख्यिकी के इतिहास, '19':2032-2066, 1991।
  • डेविड डोनोहो, होसैन काकावंड, और जेम्स मैमन। रैखिक समीकरणों की एक अनिर्धारित प्रणाली का सबसे सरल समाधान। सूचना सिद्धांत में, 2006 आईईईई अंतर्राष्ट्रीय संगोष्ठी, पृष्ठ 1924-1928। आईईईई, 2007।

बुनियादी पुस्तकें और शोध मोनोग्राफ

  • गोलान, अमोस। इन्फो-मेट्रिक्स की नींव: मॉडलिंग, अनुमान और अपूर्ण जानकारी। ऑक्सफोर्ड यूनिवर्सिटी प्रेस, 2018।
  • गोलान. सूचना और एन्ट्रॉपी अर्थमिति - एक समीक्षा और संश्लेषण। अर्थमिति में नींव और रुझान, 2(1-2):1-145, 2008।
  • आर. डी. लेविन और एम. ट्राइबस। अधिकतम एन्ट्रॉपी औपचारिकता। एमआईटी प्रेस, कैम्ब्रिज, एमए, 1979।
  • जे. एन. कपूर. विज्ञान और इंजीनियरिंग में अधिकतम एन्ट्रॉपी मॉडल। विली, 1993.
  • जे. हर्टे. अधिकतम एन्ट्रॉपी और पारिस्थितिकी: प्रचुरता, वितरण और ऊर्जावान का एक सिद्धांत। ऑक्सफोर्ड यू प्रेस, 2011।
  • ए. गोलान, जी. जज, और डी. मिलर। अधिकतम एन्ट्रापी अर्थमिति: सीमित डेटा के साथ मजबूत अनुमान। जॉन विले एंड संस, 1996।
  • ई. टी. जेन्स। संभाव्यता सिद्धांत: विज्ञान का तर्क। कैम्ब्रिज यूनिवर्सिटी प्रेस, 2003।

अन्य प्रतिनिधि आवेदन

  • जे. आर. बनावर, ए. मैरिटन, और आई. वोल्कोव। अधिकतम एन्ट्रापी के सिद्धांत के अनुप्रयोग: भौतिकी से पारिस्थितिकी तक। जर्नल ऑफ फिजिक्स-कंडेंस्ड मैटर, 22(6), 2010।
  • अनिल के. बेरा और सुंग वाई. पार्क। अधिकतम एन्ट्रॉपी सिद्धांत का उपयोग करके इष्टतम पोर्टफोलियो विविधीकरण। अर्थमितीय समीक्षाएँ, 27(4-6):484-512, 2008।
  • भाटी, बी. बुयुकसाहिन, और ए. गोलान। छवि पुनर्निर्माण: एक सूचना सैद्धांतिक दृष्टिकोण। अमेरिकन स्टैटिस्टिकल एसोसिएशन कार्यवाही, 2005।
  • पीटर डब्ल्यू बुचेन और माइकल केली। विकल्प कीमतों से अनुमानित परिसंपत्ति का अधिकतम एन्ट्रापी वितरण। वित्तीय और मात्रात्मक विश्लेषण जर्नल, 31(01):143-159, 1996।
  • रान्डेल सी कैंपबेल और आर कार्टर हिल। अधिकतम एन्ट्रॉपी का उपयोग करके बहुपद विकल्पों की भविष्यवाणी करना। अर्थशास्त्र पत्र, 64(3):263-269, 1999।
  • एरियल कैटिचा और अमोस गोलान। अर्थव्यवस्थाओं के मॉडलिंग के लिए एक एंट्रोपिक ढांचा। फिजिका ए: सांख्यिकीय यांत्रिकी और इसके अनुप्रयोग, 408:149-163, 2014।
  • मार्शा कौरचेन, अमोस गोलान, और डेविड निकर्सन। ऋण भेदभाव का अनुमान और मूल्यांकन: एक सूचनात्मक दृष्टिकोण। जर्नल ऑफ़ हाउसिंग रिसर्च, 11(1):67-90, 2000।
  • त्सुकासा फुजिवारा और योशियो मियाहारा। ज्यामितीय लेवी प्रक्रियाओं के लिए न्यूनतम-एन्ट्रॉपी मार्टिंगेल माप। वित्त और स्टोचैस्टिक्स, 7(4):509-531, 2003।

मार्को फ्रिटेली. न्यूनतम एन्ट्रापी मार्टिंगेल माप और अपूर्ण बाजारों में मूल्यांकन समस्या। गणितीय वित्त, 10(1):39-52, 2000।

  • डी. ग्लेनॉन और ए. गोलान। सूचना-सैद्धांतिक दृष्टिकोण बैंकों का उपयोग करके बैंक विफलता का एक मार्कोव मॉडल अनुमान लगाया गया। रिपोर्ट, यूएस ट्रेजरी, 2003।
  • ए गोलान। अनुभवजन्य साक्ष्य के साथ फर्मों के आकार वितरण का एक बहुपरिवर्तनीय स्टोकेस्टिक सिद्धांत। अर्थमिति में प्रगति, 10:1-46, 1994।
  • ए गोलान। कर्मियों के प्रतिधारण पर मुआवजे के प्रभाव का मॉडकॉम्प मॉडल - एक सूचना सैद्धांतिक दृष्टिकोण। रिपोर्ट, अमेरिकी नौसेना, फरवरी 2003।

अमोस गोलान और वोल्कर डोज़। टोमोग्राफिक पुनर्निर्माण के लिए एक सामान्यीकृत सूचना सैद्धांतिक दृष्टिकोण। जर्नल ऑफ़ फ़िज़िक्स ए: गणितीय और सामान्य, 34(7):1271, 2001।

  • बार्ट हेगमैन और रामपाल एस एटियेन। एन्ट्रापी अधिकतमीकरण और प्रजातियों का स्थानिक वितरण। अमेरिकी प्रकृतिवादी, 175(4):ई74-ई90, 2010।
  • यू. वी. टूसेंट, ए. गोलान और वी. डोज़ और, "क्वाड्रपल मास स्पेक्ट्रा का अधिकतम एन्ट्रॉपी अपघटन।" जर्नल ऑफ़ वैक्यूम साइंस एंड टेक्नोलॉजी ए 22(2), मार्च/अप्रैल 2004, 401-406
  • गोलान ए., और डी. वोल्कर, "टोमोग्राफ़िक पुनर्निर्माण के लिए एक सामान्यीकृत सूचना सैद्धांतिक दृष्टिकोण," भौतिकी ए के जे.: गणितीय और सामान्य (2001) 1271-1283।

बाहरी संबंध