संयुक्त एन्ट्रापी

सूचना सिद्धांत में, संयुक्त एन्ट्रापी (सूचना सिद्धांत) यादृच्छिक चर के एक सेट से जुड़ी अनिश्चितता का एक माप है।

परिभाषा
दो असतत यादृच्छिक चर की संयुक्त शैनन एन्ट्रापी ( अंश ्स में)। $$X$$ और $$Y$$ छवियों के साथ $$\mathcal X$$ और $$\mathcal Y$$ परिभाषित किया जाता है

कहाँ $$x$$ और $$y$$ के विशेष मूल्य हैं $$X$$ और $$Y$$, क्रमश, $$P(x,y)$$ इन मूल्यों के एक साथ घटित होने की संयुक्त संभावना है, और $$P(x,y) \log_2[P(x,y)]$$ यदि 0 के रूप में परिभाषित किया गया है $$P(x,y)=0$$.

दो से अधिक यादृच्छिक चर के लिए $$X_1, ..., X_n$$ इसका विस्तार होता है

कहाँ $$x_1,...,x_n$$ के विशेष मूल्य हैं $$X_1,...,X_n$$, क्रमश, $$P(x_1, ..., x_n)$$ इन मानों के एक साथ घटित होने की प्रायिकता है, और $$P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)]$$ यदि 0 के रूप में परिभाषित किया गया है $$P(x_1, ..., x_n)=0$$.

गैर-नकारात्मकता
यादृच्छिक चर के एक सेट की संयुक्त एन्ट्रापी एक गैर-नकारात्मक संख्या है।


 * $$\Eta(X,Y) \geq 0$$
 * $$\Eta(X_1,\ldots, X_n) \geq 0$$

व्यक्तिगत एन्ट्रॉपी से अधिक
चरों के एक सेट की संयुक्त एन्ट्रॉपी, सेट में चरों की सभी व्यक्तिगत एन्ट्रॉपी की अधिकतम से अधिक या उसके बराबर होती है।


 * $$\Eta(X,Y) \geq \max \left[\Eta(X),\Eta(Y) \right]$$
 * $$\Eta \bigl(X_1,\ldots, X_n \bigr) \geq \max_{1 \le i \le n}

\Bigl\{ \Eta\bigl(X_i\bigr) \Bigr\}$$

व्यक्तिगत एन्ट्रॉपियों के योग से कम या उसके बराबर
चरों के एक सेट की संयुक्त एन्ट्रॉपी, सेट में चरों की व्यक्तिगत एन्ट्रॉपी के योग से कम या उसके बराबर होती है। यह उपादेयता का एक उदाहरण है. यह असमानता एक समानता है यदि और केवल यदि $$X$$ और $$Y$$ सांख्यिकीय रूप से स्वतंत्र हैं।


 * $$\Eta(X,Y) \leq \Eta(X) + \Eta(Y)$$
 * $$\Eta(X_1,\ldots, X_n) \leq \Eta(X_1) + \ldots + \Eta(X_n)$$

अन्य एन्ट्रापी उपायों से संबंध
संयुक्त एन्ट्रापी का उपयोग सशर्त एन्ट्रापी की परिभाषा में किया जाता है


 * $$\Eta(X|Y) = \Eta(X,Y) - \Eta(Y)\,$$,

और $$\Eta(X_1,\dots,X_n) = \sum_{k=1}^n \Eta(X_k|X_{k-1},\dots, X_1)$$इसका उपयोग आपसी जानकारी की परिभाषा में भी किया जाता है


 * $$\operatorname{I}(X;Y) = \Eta(X) + \Eta(Y) - \Eta(X,Y)\,$$

क्वांटम सूचना सिद्धांत में, संयुक्त एन्ट्रापी को संयुक्त क्वांटम एन्ट्रापी में सामान्यीकृत किया जाता है।

परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है और निरंतर यादृच्छिक चर के मामले में भी उतनी ही मान्य है। असतत संयुक्त एन्ट्रॉपी के निरंतर संस्करण को संयुक्त अंतर (या निरंतर) एन्ट्रॉपी कहा जाता है। होने देना $$X$$ और $$Y$$ संयुक्त संभाव्यता घनत्व फ़ंक्शन के साथ एक सतत यादृच्छिक चर बनें $$f(x,y)$$. विभेदक संयुक्त एन्ट्रापी $$h(X,Y)$$ परिभाषित किया जाता है

दो से अधिक सतत यादृच्छिक चर के लिए $$X_1, ..., X_n$$ परिभाषा को सामान्यीकृत किया गया है:

अभिन्न का सहारा लिया जाता है $$f$$. यह संभव है कि अभिन्न अस्तित्व में नहीं है जिस स्थिति में हम कहते हैं कि अंतर एन्ट्रापी परिभाषित नहीं है।

गुण
जैसा कि असतत मामले में यादृच्छिक चर के एक सेट की संयुक्त अंतर एन्ट्रॉपी व्यक्तिगत यादृच्छिक चर की एन्ट्रॉपी के योग से छोटी या बराबर होती है:
 * $$h(X_1,X_2, \ldots,X_n) \le \sum_{i=1}^n h(X_i)$$

निम्नलिखित श्रृंखला नियम दो यादृच्छिक चर के लिए लागू होता है:
 * $$h(X,Y) = h(X|Y) + h(Y)$$

दो से अधिक यादृच्छिक चर के मामले में इसे सामान्यीकृत किया जाता है:
 * $$h(X_1,X_2, \ldots,X_n) = \sum_{i=1}^n h(X_i|X_1,X_2, \ldots,X_{i-1})$$

संयुक्त अंतर एन्ट्रॉपी का उपयोग निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में भी किया जाता है:
 * $$\operatorname{I}(X,Y)=h(X)+h(Y)-h(X,Y)$$

संदर्भ
Bedingte Entropie