संयुक्त एन्ट्रापी

सूचना सिद्धांत में, संयुक्त एन्ट्रापी (सूचना सिद्धांत) यादृच्छिक चर के समुच्चय से जुड़ी अनिश्चितता का एक माप है।

परिभाषा
दो असतत यादृच्छिक चर की संयुक्त शैनन एन्ट्रापी ( बिट्स में)। $$X                                                                                                                                                                                                                 $$ और $$Y$$ छवियों के साथ $$\mathcal X                                                                                                                                                                                                        $$ और $$\mathcal Y                                                                                                                                                                                                  $$ परिभाषित किया जाता है

जहाँ $$x                                                                                                                                                                                                              $$ और $$y                                                                                                                                                                                                               $$ के विशेष मान $$X$$ और $$Y$$ हैं, क्रमश, $$P(x,y)$$ इन मानों के एक साथ घटित होने की संयुक्त संभावना है, और $$P(x,y) \log_2[P(x,y)]$$ को 0 के रूप में परिभाषित किया गया है यदि $$P(x,y)=0$$.

दो से अधिक यादृच्छिक चर के लिए $$X_1, ..., X_n$$ इसका विस्तार होता है

जहाँ $$x_1,...,x_n$$ के विशेष मान $$X_1,...,X_n$$ हैं, क्रमश, $$P(x_1, ..., x_n)$$ इन मानों के एक साथ घटित होने की प्रायिकता है, और $$P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)]$$ को 0 के रूप में परिभाषित किया गया है यदि $$P(x_1, ..., x_n)=0$$.

गैर-ऋणात्मक
यादृच्छिक चर के समुच्चय की संयुक्त एन्ट्रापी एक गैर-ऋणात्मक संख्या है।


 * $$\Eta(X,Y) \geq 0$$
 * $$\Eta(X_1,\ldots, X_n) \geq 0$$

विशिष्ट एन्ट्रॉपी से अधिक
चरों के समुच्चय की संयुक्त एन्ट्रॉपी, समुच्चय में चरों की सभी विशिष्ट एन्ट्रॉपी की अधिकतम से अधिक या उसके समान होती है।


 * $$\Eta(X,Y) \geq \max \left[\Eta(X),\Eta(Y) \right]$$
 * $$\Eta \bigl(X_1,\ldots, X_n \bigr) \geq \max_{1 \le i \le n}

\Bigl\{ \Eta\bigl(X_i\bigr) \Bigr\}$$

विशिष्ट एन्ट्रॉपियों के योग से कम या उसके समान
चरों के एक समुच्चय की संयुक्त एन्ट्रॉपी, समुच्चय में चरों की विशिष्ट एन्ट्रॉपी के योग से कम या उसके समान होती है। यह उपादेयता का एक उदाहरण है. यह असमानता एक समानता है यदि और केवल यदि $$X                                                                                                                                                                                                              $$ और $$Y                                                                                                                                                                                                               $$ सांख्यिकीय रूप से स्वतंत्र हैं।


 * $$\Eta(X,Y) \leq \Eta(X) + \Eta(Y)$$
 * $$\Eta(X_1,\ldots, X_n) \leq \Eta(X_1) + \ldots + \Eta(X_n)$$

अन्य एन्ट्रापी उपायों से संबंध
संयुक्त एन्ट्रापी का उपयोग सशर्त एन्ट्रापी की परिभाषा में किया जाता है


 * $$\Eta(X|Y) = \Eta(X,Y) - \Eta(Y)\,$$,

और$$\Eta(X_1,\dots,X_n) = \sum_{k=1}^n \Eta(X_k|X_{k-1},\dots, X_1)$$ इसका उपयोग आपसी जानकारी की परिभाषा में भी किया जाता है


 * $$\operatorname{I}(X;Y) = \Eta(X) + \Eta(Y) - \Eta(X,Y)\,$$

क्वांटम सूचना सिद्धांत में, संयुक्त एन्ट्रापी को संयुक्त क्वांटम एन्ट्रापी में सामान्यीकृत किया जाता है।

परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है और निरंतर यादृच्छिक चर के स्थिति में भी उतनी ही मान्य है। असतत संयुक्त एन्ट्रॉपी के निरंतर संस्करण को संयुक्त विभेदक (या निरंतर) एन्ट्रॉपी कहा जाता है। होने देना $$X$$ और $$Y$$ संयुक्त संभाव्यता घनत्व फलन के साथ एक सतत यादृच्छिक चर $$f(x,y)$$ बनें. विभेदक संयुक्त एन्ट्रापी $$h(X,Y)$$ परिभाषित किया जाता है

दो से अधिक सतत यादृच्छिक चर के लिए $$X_1, ..., X_n$$ परिभाषा को सामान्यीकृत किया गया है:

अविभाज्य को $$f$$ के समर्थन पर लिया गया है. यह संभव है कि अविभाज्य अस्तित्व में नहीं है जिस स्थिति में हम कहते हैं कि विभेदक एन्ट्रापी परिभाषित नहीं है।

गुण
जैसा कि असतत स्थिति में यादृच्छिक चर के एक समुच्चय की संयुक्त विभेदक एन्ट्रॉपी विशिष्ट यादृच्छिक चर की एन्ट्रॉपी के योग से छोटी या समान होती है:
 * $$h(X_1,X_2, \ldots,X_n) \le \sum_{i=1}^n h(X_i)$$

निम्नलिखित श्रृंखला नियम दो यादृच्छिक चर के लिए क्रियान्वित होता है:
 * $$h(X,Y) = h(X|Y) + h(Y)$$

दो से अधिक यादृच्छिक चर के स्थिति में इसे सामान्यीकृत किया जाता है:
 * $$h(X_1,X_2, \ldots,X_n) = \sum_{i=1}^n h(X_i|X_1,X_2, \ldots,X_{i-1})$$

संयुक्त विभेदक एन्ट्रॉपी का उपयोग निरंतर यादृच्छिक चर के मध्य पारस्परिक जानकारी की परिभाषा में भी किया जाता है:
 * $$\operatorname{I}(X,Y)=h(X)+h(Y)-h(X,Y)$$

संदर्भ
Bedingte Entropie