क्रॉस एन्ट्रापी

From Vigyanwiki
Revision as of 16:14, 25 July 2023 by Manidh (talk | contribs)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

सूचना सिद्धांत में, दो संभाव्यता वितरणों और के मध्य तिर्यक्-एन्ट्रॉपी यदि समुच्चय के लिए उपयोग की जाने वाली कोडन योजना अनुमानित वास्तविक वितरण के बजाय संभाव्यता वितरण के लिए अनुकूलित है, तो घटनाओं के समान अंतर्निहित समुच्चय पर समुच्चय से खींची गई घटना की पहचान करने के लिए आवश्यक अंश की औसत संख्या को मापता है।

परिभाषा

वितरण की तिर्यक्-एन्ट्रॉपी वितरण के सापेक्ष किसी दिए गए समुच्चय को इस प्रकार परिभाषित किया गया है:

जहाँ वितरण के संबंध में अपेक्षित मान संचालक है।

परिभाषा कुल्बैक-लीब्लर विचलन का उपयोग करके तैयार की जा सकती है, विचलन से का (इसके संबंध में , की सापेक्ष एन्ट्रापी के रूप में भी जाना जाता है)।

जहाँ की एन्ट्रापी है।

असतत संभाव्यता वितरण और के लिए, उसी समर्थन के साथ (माप सिद्धांत) इसका अर्थ यह है:

 

 

 

 

(Eq.1)

सतत वितरण की स्थिति समान है। हमें यह मानना ​​होगा कि कुछ संदर्भ माप के संबंध में और बिल्कुल सतत हैं (सामान्यतः बोरेल σ-बीजगणित पर एक लेब्सेग माप है। मान लीजिए कि और , और के संभाव्यता घनत्व फलन हैं। तब

और इसलिए

 

 

 

 

(Eq.2)

एनबी: संकेतन का उपयोग एक अलग अवधारणा, संयुक्त एन्ट्रापी और के लिए भी किया जाता है।

प्रेरणा

सूचना सिद्धांत में, क्राफ्ट-मैकमिलन प्रमेय स्थापित करता है कि एक मान की पहचान करने के लिए किसी संकेत को कोड करने के लिए कोई भी सीधे डिकोड करने योग्य कोडन योजना संभावनाओं के एक समुच्चय से बाहर को एक अंतर्निहित संभाव्यता वितरण के ऊपर का प्रतिनिधित्व करने के रूप में देखा जा सकता है, जहाँ के लिए कोड की लंबाई द्वयंकों में है। इसलिए, गलत वितरण होने पर तिर्यक्-एन्ट्रॉपी की व्याख्या प्रति प्रदत्त अपेक्षित संकेत-लंबाई के रूप में की जा सकती है, मान लिया गया है जबकि प्रदत्त वास्तव में एक वितरण का अनुसरण करता है। इसीलिए अपेक्षा को वास्तविक संभाव्यता वितरण पर ले लिया जाता है और पर नहीं। वास्तव में वास्तविक वितरण के अंतर्गत अपेक्षित संकेत-लंबाई है।


अनुमान

ऐसी कई स्थितियाँ हैं जहाँ तिर्यक्-एन्ट्रॉपी को मापने की आवश्यकता है परन्तु वितरण अज्ञात है। एक उदाहरण भाषा मॉडलिंग है, जहां एक प्रशिक्षण समुच्चय के आधार पर एक निदर्श बनाया जाता है और फिर इसकी तिर्यक्-एन्ट्रॉपी को एक परीक्षण समुच्चय पर मापा जाता है ताकि यह आकलन किया जा सके कि परीक्षण प्रदत्त की भविष्यवाणी करने में निदर्श कितना सटीक है। इस उदाहरण में, किसी भी कोष में शब्दों का वास्तविक वितरण है, और निदर्श द्वारा अनुमानित शब्दों का वितरण है। चूँकि वास्तविक वितरण अज्ञात है, तिर्यक्-एन्ट्रापी की सीधे गणना नहीं की जा सकती। इन स्थितियों में, तिर्यक्-एन्ट्रॉपी के अनुमान की गणना निम्नलिखित सूत्र का उपयोग करके की जाती है:

जहाँ परीक्षण समुच्चय का आकार और घटना की प्रायिकता है, प्रशिक्षण समुच्चय से अनुमान लगाया गया। दूसरे शब्दों में, निदर्श का प्रायिकता अनुमान है कि पाठ का i-वां शब्द है। परीक्षण के शब्द के योग का औसत निकाला जाता है। यह वास्तविक तिर्यक्-एन्ट्रॉपी की एक मोंटे कार्लो विधि है, जहां परीक्षण समुच्चय को निदर्श के रूप में माना जाता है।[citation needed]

अधिकतम संभावना से संबंध

वर्गीकरण समस्याओं में हम विभिन्न परिणामों की प्रायिकता का अनुमान लगाना चाहते हैं। मान लीजिए कि परिणाम की अनुमानित प्रायिकता है, अनुकूलित किए जाने वाले मापदंडों के साथ और परिणाम की आवृत्ति (अनुभवजन्य प्रायिकता), प्रशिक्षण में समुच्चय हैं। प्रशिक्षण समुच्चय में N सशर्त रूप से स्वतंत्र निदर्शो को देखते हुए, मापदंडों की प्रायिकता का निदर्श प्रशिक्षण समुच्चय पर है।

जहां अंतिम अभिव्यक्ति बहुपद पीएमएफ की परिभाषा के कारण है। इसलिए, लॉग-संभावना से विभाजित है।

ताकि मापदंडों के संबंध में संभावना को अधिकतम किया जा सके, तिर्यक्-एन्ट्रॉपी को कम करने के समान है।[citation needed]

तिर्यक्-एन्ट्रॉपी न्यूनतमकरण

तिर्यक्-एन्ट्रॉपी न्यूनतमकरण का उपयोग प्रायः अनुकूलन और दुर्लभ-घटना संभाव्यता आकलन में किया जाता है। किसी वितरण की तुलना करते समय एक निश्चित संदर्भ वितरण के विरुद्ध, तिर्यक्-एन्ट्रॉपी और कुल्बैक-लीब्लर विचलन एक योगात्मक स्थिरांक तक समान हैं (चूंकि निश्चित है): गिब्स की असमानता के अनुसार, केएल विचलन के लिए और तिर्यक्-एन्ट्रॉपी के लिए, जब दोनों अपने न्यूनतम मान लेते हैं, जो है। अभियांत्रिकी साहित्य में, केएल विचलन को कम करने के सिद्धांत (कुल्बैक के "न्यूनतम विभेदन सूचना का सिद्धांत") को प्रायः न्यूनतम तिर्यक्-एन्ट्रॉपी (MCE), या मिनक्सेंट का सिद्धांत कहा जाता है।

हालाँकि, जैसा कि लेख में चर्चा की गई है कुल्बैक-लीब्लर विचलन, कभी-कभी वितरण निश्चित पूर्व संदर्भ वितरण और वितरण है। यथासंभव, कुछ बाधाओं के अधीन समीप होने के लिए अनुकूलित किया गया है। इस स्थिति में दोनों न्यूनतमकरण समतुल्य नहीं हैं। इससे साहित्य में कुछ अस्पष्टता उत्पन्न हो गई है, कुछ लेखकों ने तिर्यक्-एन्ट्रॉपी और इसके बजाय को पुनः स्थापित करके असंगतता को हल करने का प्रयास किया है। वास्तव में, तिर्यक्-एंट्रॉपी सापेक्ष एन्ट्रॉपी का दूसरा नाम है, कवर और थॉमस [1] और अच्छा देखें।[2] वहीं दूसरी ओर, साहित्य से सहमत नहीं है और भ्रामक हो सकता है।

तिर्यक्-एन्ट्रॉपी हानि फलन और तार्किक प्रतिक्रमण

यंत्र अधिगम और अनुकूलन में हानि फलनों को परिभाषित करने के लिए तिर्यक्-एन्ट्रॉपी का उपयोग किया जा सकता है। वास्तविक संभावना वास्तविक लेबल और दिया गया वितरण है। वर्तमान निदर्श का अनुमानित मान है। इसे लॉग हानि (या लघुगणक हानि या तार्किक हानि) के रूप में भी जाना जाता है;[3] लॉग हानि और तिर्यक्-एन्ट्रॉपी हानि शब्द परस्पर विनिमय के लिए उपयोग किए जाते हैं।[4]

अधिक विशेष रूप से, एक द्विआधारी प्रतिक्रमण निदर्श पर विचार करें जिसका उपयोग टिप्पणियों को दो संभावित वर्गों में वर्गीकृत करने के लिए किया जा सकता है (प्रायः केवल और लेबल किया जाता है)। किसी दिए गए अवलोकन के लिए निदर्श का प्रेक्षण, निविष्टि सुविधाओं का एक सदिश दिया गया है, एक संभाव्यता के रूप में व्याख्या की जा सकती है, जो अवलोकन को वर्गीकृत करने के आधार के रूप में कार्य करती है। तार्किक प्रतिक्रमण में, संभावना को तार्किक फलन का उपयोग करके निदर्श किया जाता है जहाँ निविष्टि सदिश के कुछ फलन है, सामान्यतः केवल एक रैखिक फलन है। प्रेक्षण की संभावना द्वारा दी गयी है।

जहां भार का सदिश को प्रवणता अवरोहांक जैसे कुछ उपयुक्त कलन विधियों के माध्यम से अनुकूलित किया गया है। इसी प्रकार, प्रेक्षण खोजने की पूरक संभावना केवल द्वारा दी गयी है।

अपना अंकन स्थापित करने के बाद, और , हम और के मध्य असमानता का माप प्राप्त करने के लिए तिर्यक्-एन्ट्रॉपी का उपयोग कर सकते हैं:

तार्किक प्रतिक्रमण सामान्यतः उन सभी अवलोकनों के लिए लॉग हानि को अनुकूलित करता है जिन पर इसे प्रशिक्षित किया जाता है, जो निदर्श में औसत तिर्यक्-एन्ट्रॉपी को अनुकूलित करने के समान है। उदाहरण के लिए, मान लीजिए हमारे पास, प्रत्येक निदर्श के साथ निदर्श अनुक्रमित है। हानि फलन का औसत तब दिया जाता है:

जहाँ , के साथ पहले की तरह तार्किक फलन है।

तार्किक हानि को कभी-कभी तिर्यक्-एन्ट्रॉपी हानि कहा जाता है। इसे लॉग हानि के रूप में भी जाना जाता है (इस स्थिति में, द्वि-आधारी लेबल को प्रायः {−1,+1} द्वारा दर्शाया जाता है)।[5]

टिप्पणी: तार्किक प्रतिक्रमण के लिए तिर्यक्-एन्ट्रॉपी हानि का प्रवणता रैखिक प्रतिक्रमण के लिए वर्ग त्रुटि हानि के प्रवणता के समान है। अर्थात परिभाषित करें:

फिर हमारे पास परिणाम है:

प्रमाण इस प्रकार है। किसी के लिए, अपने पास है:

इसी तरह, हम अंततः वांछित परिणाम प्राप्त करते हैं।

यह भी देखें

संदर्भ

  1. Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, 2nd Edition, Wiley, p. 80
  2. I. J. Good, Maximum Entropy for Hypothesis Formulation, Especially for Multidimensional Contingency Table, Ann. of Math. Statistics, 1963
  3. The Mathematics of Information Coding, Extraction and Distribution, by George Cybenko, Dianne P. O'Leary, Jorma Rissanen, 1999, p. 82
  4. sklearn.metrics.log_loss
  5. Murphy, Kevin (2012). Machine Learning: A Probabilistic Perspective. MIT. ISBN 978-0262018029.


बाहरी संबंध