विशिष्ट समुच्चय

सूचना सिद्धांत में, विशिष्ट (टिपिकल) समुच्चय अनुक्रमों का एक समुच्चय होता है जिसकी प्रायिकता उनके स्रोत बंटन की एन्ट्रॉपी की ऋणात्मक घात से दो तक बढ़ जाती है। इस समुच्चय की कुल प्रायिकता एक के निकट होना स्पर्शोन्मुख (एसिम्प्टोटिक) समविभाजन गुण (एईपी) का परिणाम है जो बड़ी संख्याओं का एक प्रकार का नियम होता है। विशिष्टता की धारणा वास्तविक अनुक्रम से संबंधित नहीं है, जबकि यह केवल अनुक्रम की प्रायिकता से संबंधित होती है।

यह संपीड़न सिद्धांत में महत्वपूर्ण है क्योंकि यह सूचना को संपीड़ित करने के लिए एक सैद्धान्तिक व्यवस्था प्रदान करता है, जिससे हमें किसी भी अनुक्रम Xn को nH(X) बिट का औसत से प्रदर्शित करने की प्रायिकता होती है, और, इसलिए, एक स्रोत से सूचना की माप के रूप में एन्ट्रॉपी के उपयोग को स्वीकृति प्राप्त होती है।

एईपी को स्थिर अभ्यतिप्राय (एर्गोडिक) प्रक्रम बड़े वर्ग के लिए भी सिद्ध किया जा सकता है, जिससे अधिक सामान्य स्थितियों में विशिष्ट समुच्चय को परिभाषित किया जा सकता है।

(दुर्बल (वीकली)) विशिष्ट अनुक्रम (दुर्बल विशिष्टता, एन्ट्रॉपी विशिष्टता)
यदि किसी अनुक्रम x1, ..., xn को एक आई.आई.डी. वितरण X से निर्धारित एक सीमित वर्णमाला $$\mathcal{X}$$ पर से प्राप्त किया गया है, तो विशिष्ट समुच्चय, Aε(n)$$\in\mathcal{X}$$, उन सृष्टियों को परिभाषित करता है जो निम्नलिखित शर्तों को संतुष्ट करते हैं:



2^{-n( H(X)+\varepsilon)} \leqslant p(x_1, x_2, \dots, x_n) \leqslant 2^{-n( H(X)-\varepsilon)} $$ जहाँ


 * $$ H(X)  = - \sum_{x \isin \mathcal{X}}p(x)\log_2 p(x)  $$

X की सूचना एन्ट्रॉपी है। उपरोक्त प्रायिकता केवल 2n ε के कारक के अंतर्गत होनी चाहिए। सभी पक्षों पर लघुगणक लेने और -n से विभाजित करने पर, इस परिभाषा को समकक्ष रूप से कहा जा सकता है


 * $$ H(X) - \varepsilon \leq -\frac{1}{n}\log_2 p(x_1, x_2, \ldots, x_n) \leq H(X) + \varepsilon.$$

आई.आई.डी. अनुक्रम के लिए, चूँकि


 * $$p(x_1, x_2, \ldots, x_n) = \prod_{i=1}^n p(x_i),$$

हमें यह निम्लिखित और प्राप्त होता है
 * $$ H(X) - \varepsilon \leq -\frac{1}{n} \sum_{i=1}^n \log_2 p(x_i) \leq H(X) + \varepsilon.$$

बड़ी संख्याओं के नियम के अनुसार, पर्याप्त रूप से बड़े n के लिए


 * $$-\frac{1}{n} \sum_{i=1}^n \log_2 p(x_i) \rightarrow H(X).$$

गुणधर्म
विशिष्ट समुच्चय की एक आवश्यक विशेषता यह है कि यदि कोई व्यक्ति वितरण X से बड़ी संख्या n के स्वतंत्र यादृच्छिक सैंपल प्राप्त करता है, तो परिणाम स्वरूपी अनुक्रम (x1, x2, ..., xn) प्रायिकता से बहुत बड़े होने की प्रायिकता है कि विशिष्ट समुच्चय का घटक हो, हालांकि विशिष्ट समुच्चय सभी संभावित अनुक्रमों का केवल एक छोटा भाग होता है। औपचारिक रूप से, किसी भी $$\varepsilon>0$$ के लिए ऐसा चयन किया जा सकता है जिस प्रकार:
 * 1) X(n) से एक अनुक्रम Aε(n) से प्राप्त होने की प्रायिकता 1 - ε, अर्थात $$Pr[x^{(n)} \in A_\epsilon^{(n)}] \geq 1 - \varepsilon $$ से अधिक है
 * 2) $$\left| {A_\varepsilon}^{(n)} \right| \leqslant 2^{n(H(X)+\varepsilon)}$$
 * 3) $$\left| {A_\varepsilon}^{(n)} \right| \geqslant (1-\varepsilon)2^{n(H(X)-\varepsilon)}$$
 * 4) यदि $$\mathcal{X}$$ से अधिक वितरण एक समान नहीं है, तो अनुक्रमों का अंश जो सामान्य है
 * $$\frac{|A_\epsilon^{(n)}|}{|\mathcal{X}^{(n)}|} \equiv \frac{2^{nH(X)}}{2^{n\log_2|\mathcal{X}|}} = 2^{-n(\log_2|\mathcal{X}|-H(X))} \rightarrow 0 $$
 * चूँकि n बहुत बड़ा हो जाता है, $$H(X) < \log_2|\mathcal{X}|,$$ के पश्चात से जहाँ $$|\mathcal{X}|$$, $$\mathcal{X}$$ की गणनीयता (कार्डिनैलिटी) होती है।

सामान्य प्रसंभाव्य (स्टोकास्टिक) प्रक्रम {X(t)} के लिए, जिसमें एईपी होता है, (दुर्बल रूप से) विशिष्ट समुच्चय को समरूप रूप से परिभाषित किया जा सकता है, जिसमें p(x1, x2, ..., xn) को p(x0τ) से बदला जाता है (अर्थात, सम्पल के प्रायिक काल अंतराल [0, τ] तक सीमित होने की प्रायिकता), n प्रक्रिया की समय अंतराल में की गई स्वतंत्रता होती है और H(X) एन्ट्रॉपी दर होती है। यदि प्रक्रिया सतत मूल्यवान है, तो स्थानीय एन्ट्रॉपी का बजाय अवकल एन्ट्रॉपी का उपयोग किया जाता है।

उदाहरण
प्रति-सहज ज्ञान के विपरीत, सबसे संभावित अनुक्रम प्रायः विशिष्ट समुच्चय का घटक नहीं होता है। उदाहरण के लिए, मान लें कि X, p(0)=0.1 और p(1)=0.9 के साथ आई.आई.डी. बर्नौली यादृच्छिक चर है। n स्वतंत्र परीक्षणों में, चूँकि p(1)>p(0), परिणाम का सबसे संभावित क्रम सभी 1, (1,1,...,1) का अनुक्रम है। यहां X की एन्ट्रॉपी H(X)=0.469 है, जबकि


 * $$ -\frac{1}{n}\log_2 p\left(x^{(n)}=(1,1,\ldots,1)\right) = -\frac{1}{n}\log_2 (0.9^n) = 0.152$$

तो यह अनुक्रम विशिष्ट समुच्चय में नहीं है क्योंकि इसकी औसत लघुगामी प्रायिकता स्वयं की इक्षा अनुसार n की कितना भी बड़ा मान लें, यह कभी भी यादृच्छिक प्रतिस्थान X की एन्ट्रॉपी के निकट नहीं आ सकती है।

बर्नौली यादृच्छिक चर के लिए, विशिष्ट समुच्चय में n स्वतंत्र परीक्षणों में 0 और 1 की औसत संख्या वाले अनुक्रम होते हैं। इसे सरलता से प्रदर्शित किया जा सकता है: यदि p(1) = p और p(0) = 1-p, तो m 1 के साथ n परीक्षणों के लिए, हमें निम्नलिखित प्राप्त होता है
 * $$ -\frac{1}{n} \log_2 p(x^{(n)}) = -\frac{1}{n} \log_2 p^m (1-p)^{n-m} = -\frac{m}{n} \log_2 p - \left( \frac{n-m}{n} \right) \log_2 (1-p).$$

बर्नौली परीक्षणों के अनुक्रम में 1 की औसत संख्या m = np है। इस प्रकार, हमें निम्नलिखित प्राप्त होता है


 * $$ -\frac{1}{n} \log_2 p(x^{(n)}) = - p \log_2 p - (1-p) \log_2 (1-p) = H(X).$$

इस उदाहरण के लिए, यदि n=10, तो विशिष्ट समुच्चय में वे सभी अनुक्रम शामिल होते हैं जिनमें संपूर्ण अनुक्रम में एक 0 होता है। यदि p(0)=p(1)=0.5, तो प्रत्येक संभावित बाइनरी अनुक्रम विशिष्ट समुच्चय से संबंधित है।

दृढ़ विशिष्ट अनुक्रम (सशक्त विशिष्टता, अक्षर विशिष्टता)
यदि एक अनुक्रम x1, ..., xn एक परिमित या एक अनंत वर्णमाला $$\mathcal{X}$$ पर परिभाषित कुछ निर्दिष्ट संयुक्त वितरण से तैयार किया गया है, तो दृढ़ता से विशिष्ट समुच्चय, Aε,strong(n)$$\in\mathcal{X}$$ को अनुक्रमों के समुच्चय के रूप में परिभाषित किया गया है जो संतुष्ट करते हैं



\left|\frac{N(x_i)}{n}-p(x_i)\right| < \frac{\varepsilon}{\|\mathcal{X}\|}. $$ जहां $${N(x_i)}$$ अनुक्रम में किसी विशिष्ट प्रतीक की घटनाओं की संख्या है।

यह दिखाया जा सकता है कि दृढ़ता से विशिष्ट अनुक्रम भी दुर्बल रूप से विशिष्ट होते हैं (एक अलग स्थिरांक के साथ), और अतः इसका नाम दृढ़ विशिष्ट अनुक्रम रखा गया। हालाँकि, दोनों रूप समतुल्य नहीं हैं। स्मृतिहीन चैनलों के लिए प्रमेयों को सिद्ध करने के लिए सशक्त विशिष्टताओं के साथ काम करना प्रायः आसान होता है। हालाँकि, जैसा कि परिभाषा से स्पष्ट है, विशिष्टता का यह रूप केवल सीमित समर्थन वाले यादृच्छिक चर के लिए परिभाषित किया गया है।

संयुक्त रूप से विशिष्ट अनुक्रम
दो अनुक्रम $$x^n$$ और $$y^n$$ संयुक्त रूप से ε-विशिष्ट हैं यदि जोड़ी $$(x^n,y^n)$$ संयुक्त बंटन $$p(x^n,y^n)=\prod_{i=1}^n p(x_i,y_i)$$ के संबंध में ε-विशिष्ट है और $$x^n$$ और $$y^n$$ दोनों अपने सीमांत वितरण $$p(x^n)$$ और $$p(y^n)$$ के संबंध में ε-विशिष्ट हैं। अनुक्रम $$(x^n,y^n)$$ के ऐसे सभी युग्मों के समुच्चय को $$A_{\varepsilon}^n(X,Y)$$ द्वारा निरूपित किया जाता है। संयुक्त रूप से ε-विशिष्ट n-टपल अनुक्रमों को समान रूप से परिभाषित किया जाता है।

मान लीजिए $$\tilde{X}^n$$ और $$\tilde{Y}^n$$ समान सीमांत वितरण $$p(x^n)$$ और $$p(y^n)$$ के साथ यादृच्छिक चर के दो स्वतंत्र अनुक्रम हैं। फिर किसी भी ε>0 के लिए, पर्याप्त रूप से बड़े n के लिए, संयुक्त रूप से विशिष्ट अनुक्रम निम्नलिखित गुणों को संतुष्ट करते हैं:
 * 1) $$ P\left[ (X^n,Y^n) \in A_{\varepsilon}^n(X,Y) \right] \geqslant 1 - \epsilon $$
 * 2) $$ \left| A_{\varepsilon}^n(X,Y) \right| \leqslant 2^{n (H(X,Y) + \epsilon)} $$
 * 3) $$ \left| A_{\varepsilon}^n(X,Y) \right| \geqslant (1 - \epsilon) 2^{n (H(X,Y) - \epsilon)} $$
 * 4) $$ P\left[ (\tilde{X}^n,\tilde{Y}^n) \in A_{\varepsilon}^n(X,Y) \right] \leqslant 2^{-n (I(X;Y) - 3 \epsilon)} $$
 * 5) $$ P\left[ (\tilde{X}^n,\tilde{Y}^n) \in A_{\varepsilon}^n(X,Y) \right] \geqslant (1 - \epsilon) 2^{-n (I(X;Y) + 3 \epsilon)}$$

विशिष्ट समुच्चय एन्कोडिंग
सूचना सिद्धांत में, विशिष्ट समुच्चय एन्कोडिंग निश्चित लंबाई ब्लॉक कोड के साथ स्टोकेस्टिक स्रोत के विशिष्ट समुच्चय में केवल अनुक्रमों को एन्कोड करता है। चूँकि विशिष्ट समुच्चय का आकार लगभग 2nH(X) है, कोडिंग के लिए केवल nH(X) बिट्स की आवश्यकता होती है, जबकि साथ ही यह सुनिश्चित किया जाता है कि एन्कोडिंग त्रुटि की प्रायिकता ε तक सीमित है। असम्बद्ध रूप से, एईपी द्वारा, यह हानिरहित है और स्रोत की एन्ट्रॉपी दर के बराबर न्यूनतम दर प्राप्त करता है।

विशिष्ट समुच्चय डिकोडिंग
सूचना सिद्धांत में, विशिष्ट समुच्चय डिकोडिंग का उपयोग यादृच्छिक कोडिंग के साथ मिलकर संचरित संदेश का अनुमान लगाने के लिए किया जाता है, जो एक कोडवर्ड के साथ होता है जो अवलोकन के साथ संयुक्त रूप से ε-विशिष्ट होता है। अर्थात
 * $$\hat{w}=w \iff (\exists w)( (x_1^n(w),y_1^n)\in A_{\varepsilon}^n(X,Y)) $$

जहाँ $$\hat{w},x_1^n(w),y_1^n$$ क्रमशः संदेश अनुमान, संदेश $$w$$ का कोडवर्ड और अवलोकन हैं। $$A_{\varepsilon}^n(X,Y)$$ को संयुक्त वितरण $$p(x_1^n)p(y_1^n|x_1^n)$$ के संबंध में परिभाषित किया गया है जहां $$p(y_1^n|x_1^n)$$ संक्रमण प्रायिकता है जो चैनल आंकड़ों की विशेषता है, और $$p(x_1^n)$$ कुछ इनपुट वितरण है जो यादृच्छिक कोडबुक में कोडवर्ड उत्पन्न करने के लिए उपयोग किया जाता है।

यह भी देखें

 * एसिम्प्टोटिक समविभाजन संपत्ति
 * स्रोत कोडिंग प्रमेय
 * नॉइज़ी-चैनल कोडिंग प्रमेय

संदर्भ

 * C. E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
 * David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1
 * David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1