बाइनरी सममित चैनल

एक द्विआधारी सममित चैनल (या BSCp) एक सामान्य संचार चैनल  मॉडल है जिसका उपयोग  कोडिंग सिद्धांत  और  सूचना सिद्धांत  में किया जाता है। इस मॉडल में, एक ट्रांसमीटर एक  अंश  (एक शून्य या एक) भेजना चाहता है, और रिसीवर थोड़ा प्राप्त करेगा। बिट को 'पी' की क्रॉसओवर  संभावना  के साथ फ़्लिप किया जाएगा, और अन्यथा सही ढंग से प्राप्त किया जाएगा। यह मॉडल विभिन्न संचार चैनलों जैसे कि टेलीफोन लाइन या  डिस्क ड्राइव  स्टोरेज पर लागू किया जा सकता है।

शोर-चैनल कोडिंग प्रमेय BSC पर लागू होता हैp, यह कहते हुए कि सूचना को मनमाने ढंग से कम त्रुटि के साथ  चैनल क्षमता  तक किसी भी दर पर प्रसारित किया जा सकता है। चैनल क्षमता है $$1 - \operatorname H_\text{b}(p)$$ बिट्स, कहाँ $$\operatorname H_\text{b}$$  बाइनरी एन्ट्रापी फ़ंक्शन  है। फ़ॉर्नी के कोड सहित कोड पूरे चैनल में कुशलतापूर्वक सूचना प्रसारित करने के लिए डिज़ाइन किए गए हैं।

परिभाषा
क्रॉसओवर प्रायिकता वाला एक बाइनरी सममित चैनल $$p$$, BSC द्वारा चिह्नितp, बाइनरी इनपुट और बाइनरी आउटपुट और त्रुटि की संभावना वाला एक चैनल है $$p$$. यानी अगर $$X$$ संचरित यादृच्छिक चर है और $$Y$$ प्राप्त चर, तो चैनल सशर्त संभाव्यता  की विशेषता है:
 * $$\begin{align}

\operatorname {Pr} [ Y = 0 | X = 0 ] &= 1 - p \\ \operatorname {Pr} [ Y = 0 | X = 1 ] &= p \\ \operatorname {Pr} [ Y = 1 | X = 0 ] &= p \\ \operatorname {Pr} [ Y = 1 | X = 1 ] &= 1 - p \end{align}$$ यह मान लिया है कि $$0 \le p \le 1/2$$. यदि $$p > 1/2$$, तो रिसीवर आउटपुट स्वैप कर सकता है (1 की व्याख्या जब यह 0 देखता है, और इसके विपरीत) और क्रॉसओवर संभावना के साथ एक समकक्ष चैनल प्राप्त करता है $$1 - p \le 1/2$$.

क्षमता
बाइनरी सिमेट्रिक चैनल की चैनल क्षमता, बिट्स में है:
 * $$\ C_{\text{BSC}} = 1 - \operatorname H_\text{b}(p), $$

कहां $$\operatorname H_\text{b}(p)$$ बाइनरी एंट्रॉपी फ़ंक्शन है, जिसे परिभाषित किया गया है:
 * $$\operatorname H_\text{b}(x)=x\log_2\frac{1}{x}+(1-x)\log_2\frac{1}{1-x}$$
 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!Proof
 * The capacity is defined as the maximum mutual information between input and output for all possible input distributions $$p_X(x)$$:
 * The capacity is defined as the maximum mutual information between input and output for all possible input distributions $$p_X(x)$$:


 * $$ C = \max_{p_X(x)} \left \{\, I(X;Y)\, \right \} $$

The mutual information can be reformulated as


 * $$\begin{align}

I(X;Y) &= H(Y) - H(Y|X) \\ &= H(Y) - \sum_{x \in \{0,1\} }{p_X(x) H(Y|X=x)} \\ &= H(Y) - \sum_{x \in \{0,1\} }{p_X(x)} \operatorname H_\text{b}(p) \\ &= H(Y) - \operatorname H_\text{b}(p), \end{align}$$ where the first and second step follows from the definition of mutual information and conditional entropy respectively. The entropy at the output for a given and fixed input symbol ($$H(Y|X=x)$$) equals the binary entropy function, which leads to the third line and this can be further simplified.

In the last line, only the first term $$H(Y)$$ depends on the input distribution $$p_X(x)$$. The entropy of a binary variable is at most 1 bit, and equality is attained if its probability distribution is uniform. It therefore suffices to exhibit an input distribution that yields a uniform probability distribution for the output $$Y$$. For this, note that it is a property of any binary symmetric channel that a uniform probability distribution of the input results in a uniform probability distribution of the output. Hence the value $$H(Y)$$ will be 1 when we choose a uniform distribution for $$p_X(x)$$. We conclude that the channel capacity for our binary symmetric channel is $$C_{\text{BSC}}=1-\operatorname H_\text{b}(p)$$.
 * }

शोर-चैनल कोडिंग प्रमेय
शैनन का शोर-चैनल कोडिंग प्रमेय उस सूचना की दर के बारे में परिणाम देता है जिसे एक संचार चैनल के माध्यम से मनमाने ढंग से कम त्रुटि के साथ प्रेषित किया जा सकता है। हम के विशेष मामले का अध्ययन करते हैं $$\text{BSC}_p$$.

शोर $$e$$ यह विशेषता है $$\text{BSC}_{p}$$ एक यादृच्छिक चर है जिसमें n स्वतंत्र यादृच्छिक बिट्स होते हैं (n को नीचे परिभाषित किया गया है) जहां प्रत्येक यादृच्छिक बिट एक है $$1$$ संभावना के साथ $$p$$ और ए $$0$$ संभावना के साथ $$1-p$$. हम इसे लिखकर इंगित करते हैं$$e \in \text{BSC}_{p}$$.

इस प्रमेय का वास्तव में क्या अर्थ है, एक संदेश जब से चुना जाता है $$\{0,1\}^k$$, एक यादृच्छिक एन्कोडिंग फ़ंक्शन के साथ एन्कोड किया गया $$E$$, और एक शोर के पार भेजा गया $$\text{BSC}_{p}$$डिकोडिंग द्वारा मूल संदेश को पुनर्प्राप्त करने की बहुत अधिक संभावना है, यदि $$k$$ या प्रभाव में चैनल की दर प्रमेय में बताई गई मात्रा से बंधी होती है। डिकोडिंग त्रुटि की संभावना घातीय रूप से छोटी है।

प्रमाण
प्रमेय को सीधे संभाव्य विधि  से सिद्ध किया जा सकता है। एक एन्कोडिंग फ़ंक्शन पर विचार करें $$E: \{0,1\}^k \to \{0,1\}^n$$ जिसे यादृच्छिक रूप से चुना जाता है। इसका मतलब है कि प्रत्येक संदेश के लिए $$m \in \{0,1\}^k$$, महत्व $$E(m) \in \{0,1\}^n$$ यादृच्छिक रूप से (समान संभावनाओं के साथ) चुना जाता है। किसी दिए गए एन्कोडिंग फ़ंक्शन के लिए $$E$$, डिकोडिंग फ़ंक्शन $$D:\{0,1\}^n \to \{0,1\}^k$$ निम्नानुसार निर्दिष्ट किया गया है: कोई भी प्राप्त कोडवर्ड दिया गया है $$y \in \{0,1\}^n$$, हम संदेश पाते हैं $$m\in\{0,1\}^{k}$$ ऐसा  हैमिंग दूरी  $$\Delta(y, E(m))$$ जितना संभव हो उतना छोटा है (मनमाने ढंग से तोड़े गए संबंधों के साथ)। ($$D$$ डिकोडिंग विधियाँ # अधिकतम संभावना डिकोडिंग फ़ंक्शन कहा जाता है।)

कम से कम एक ऐसा विकल्प दिखा कर प्रमाण जारी है $$(E,D)$$ संभावनाओं पर एकीकरण द्वारा, प्रमेय के निष्कर्ष को संतुष्ट करता है। मान लीजिए $$p$$ और $$\epsilon$$ फिक्स किए गए हैं। पहले हम दिखाते हैं कि, एक निश्चित के लिए $$m \in \{0,1\}^{k}$$ और $$E$$ यादृच्छिक रूप से चुना गया, विफलता की संभावना खत्म हो गई $$\text{BSC}_p$$ एन में शोर घातीय रूप से छोटा है। इस बिंदु पर, प्रमाण एक निश्चित संदेश के लिए कार्य करता है $$m$$. आगे हम इस परिणाम को सभी संदेशों के लिए काम करने के लिए विस्तारित करते हैं $$m$$. हम कोड से आधे कोडवर्ड को इस तर्क के साथ हटाकर इसे प्राप्त करते हैं कि डिकोडिंग त्रुटि संभावना के लिए प्रमाण कम से कम आधे कोडवर्ड के लिए होता है। बाद वाली विधि को निष्कासन कहा जाता है। यह संपूर्ण प्रक्रिया को निष्कासन के साथ यादृच्छिक कोडिंग का नाम देता है।


 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!Continuation of proof (sketch)
 * Fix $$p$$ and $$\epsilon$$. Given a fixed message $$m \in \{0,1\}^{k}$$, we need to estimate the expected value of the probability of the received codeword along with the noise does not give back $$m$$ on decoding. That is to say, we need to estimate:
 * Fix $$p$$ and $$\epsilon$$. Given a fixed message $$m \in \{0,1\}^{k}$$, we need to estimate the expected value of the probability of the received codeword along with the noise does not give back $$m$$ on decoding. That is to say, we need to estimate:


 * $$\mathbb{E}_{E} \left [\Pr_{e \in \text{BSC}_p}[D(E(m) + e) \neq m] \right ].$$

Let $$y$$ be the received codeword. In order for the decoded codeword $$D(y)$$ not to be equal to the message $$m$$, one of the following events must occur:


 * $$y$$ does not lie within the Hamming ball of radius $$(p+\epsilon)n$$ centered at $$E(m)$$. This condition is mainly used to make the calculations easier.
 * There is another message $$m' \in \{0,1\}^k$$ such that $$\Delta(y, E(m')) \leqslant \Delta(y, E(m))$$. In other words, the errors due to noise take the transmitted codeword closer to another encoded message.

We can apply the Chernoff bound to ensure the non occurrence of the first event; we get:


 * $$Pr_{e \in \text{BSC}_p} [\Delta(y, E(m)) > (p+\epsilon)n] \leqslant 2^{-{\epsilon^2}n}.$$

This is exponentially small for large $$n$$ (recall that $$\epsilon$$ is fixed).

For the second event, we note that the probability that $$E(m') \in B(y,(p+\epsilon)n)$$ is $$\text{Vol}(B(y,(p+\epsilon)n)/2^n$$ where $$B(x, r)$$ is the Hamming ball of radius $$r$$ centered at vector $$x$$ and $$\text{Vol}(B(x, r))$$ is its volume. Using approximation to estimate the number of codewords in the Hamming ball, we have $$\text{Vol}(B(y,(p+\epsilon)n)) \approx 2^{H(p)n}$$. Hence the above probability amounts to $$2^{H(p)n}/2^n = 2^{H(p)n-n}$$. Now using the union bound, we can upper bound the existence of such an $$m' \in \{0,1\}^k$$ by $$\le 2^{k +H(p)n-n}$$ which is $$2^{-\Omega(n)}$$, as desired by the choice of $$k$$.
 * }
 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!Continuation of proof (detailed)
 * From the above analysis, we calculate the probability of the event that the decoded codeword plus the channel noise is not the same as the original message sent. We shall introduce some symbols here. Let $$p(y|E(m))$$ denote the probability of receiving codeword $$y$$ given that codeword $$E(m)$$ was sent. Let $$B_0$$ denote $$B(E(m),(p+\epsilon)n).$$
 * From the above analysis, we calculate the probability of the event that the decoded codeword plus the channel noise is not the same as the original message sent. We shall introduce some symbols here. Let $$p(y|E(m))$$ denote the probability of receiving codeword $$y$$ given that codeword $$E(m)$$ was sent. Let $$B_0$$ denote $$B(E(m),(p+\epsilon)n).$$


 * $$\begin{align}

\Pr_{e \in \text{BSC}_p}[D(E(m) + e) \neq m] &= \sum_{y \in \{0,1\}^{n}} p(y|E(m))\cdot 1_{D(y)\neq m} \\ &\leqslant \sum_{y \notin B_0} p(y|E(m)) \cdot 1_{D(y)\neq m} + \sum_{y \in B_0} p(y|E(m))\cdot 1_{D(y)\neq m} \\ &\leqslant 2^{-{\epsilon^2}n} + \sum_{y \in B_0} p(y|E(m)) \cdot 1_{D(y)\neq m} \end{align}$$

We get the last inequality by our analysis using the Chernoff bound above. Now taking expectation on both sides we have,


 * $$\begin{align}

\mathbb{E}_E \left [\Pr_{e \in \text{BSC}_p} [D(E(m) + e) \neq m] \right ] &\leqslant 2^{-{\epsilon^2}n} + \sum_{y \in B_0} p(y|E(m)) \mathbb{E}[1_{D(y)\neq m}] \\ &\leqslant 2^{-{\epsilon^2}n} + \sum_{y \in B_0} \mathbb{E}[1_{D(y)\neq m}] && \sum_{y \in B_0} p(y|E(m)) \leqslant 1 \\ &\leqslant 2^{-{\epsilon^2}n} + 2^{k +H(p + \epsilon)n-n} && \mathbb{E}[1_{D(y)\neq m}] \leqslant 2^{k +H(p + \epsilon)n-n} \text{ (see above)} \\ &\leqslant 2^{-\delta n} \end{align}$$

by appropriately choosing the value of $$\delta$$. Since the above bound holds for each message, we have


 * $$\mathbb{E}_m \left [\mathbb{E}_E \left [\Pr_{e \in \text{BSC}_p} \left [D(E(m) + e) \right ] \neq m \right ] \right ] \leqslant 2^{-\delta n}.$$

Now we can change the order of summation in the expectation with respect to the message and the choice of the encoding function $$E$$. Hence:


 * $$\mathbb{E}_E \left [\mathbb{E}_m \left [\Pr_{e \in \text{BSC}_p} \left [D(E(m) + e) \right ] \neq m \right ] \right ] \leqslant 2^{-\delta n}.$$

Hence in conclusion, by probabilistic method, we have some encoding function $$E^{*}$$ and a corresponding decoding function $$D^{*}$$ such that


 * $$\mathbb{E}_m \left [\Pr_{e \in \text{BSC}_p} \left [D^{*}(E^{*}(m) + e)\neq m \right ] \right ] \leqslant 2^{-\delta n}.$$

At this point, the proof works for a fixed message $$m$$. But we need to make sure that the above bound holds for all the messages $$m$$ simultaneously. For that, let us sort the $$2^k$$ messages by their decoding error probabilities. Now by applying Markov's inequality, we can show the decoding error probability for the first $$2^{k-1}$$ messages to be at most $$2\cdot 2^{-\delta n}$$. Thus in order to confirm that the above bound to hold for every message $$m$$, we could just trim off the last $$2^{k-1}$$ messages from the sorted order. This essentially gives us another encoding function $$E'$$ with a corresponding decoding function $$D'$$ with a decoding error probability of at most $$2^{-\delta n + 1}$$ with the same rate. Taking $$\delta'$$ to be equal to $$\delta - \tfrac{1}{n}$$ we bound the decoding error probability to $$2^{-\delta'n}$$. This expurgation process completes the proof.
 * }

शैनन की क्षमता प्रमेय का विलोम
क्षमता प्रमेय का विलोम अनिवार्य रूप से यह बताता है $$1 - H(p)$$ सर्वोत्तम दर है जिसे कोई बाइनरी सिमेट्रिक चैनल पर प्राप्त कर सकता है। औपचारिक रूप से प्रमेय कहता है:

हालांकि प्रमाण के पीछे का अंतर्ज्ञान त्रुटियों की संख्या को तेजी से बढ़ने के लिए दिखा रहा है क्योंकि दर चैनल क्षमता से परे बढ़ती है। विचार यह है कि प्रेषक आयाम के संदेश उत्पन्न करता है $$k$$, जबकि चैनल $$\text{BSC}_p$$ संचरण त्रुटियों का परिचय देता है। जब चैनल की क्षमता है $$H(p)$$, त्रुटियों की संख्या आम तौर पर होती है $$2^{H(p + \epsilon)n}$$ ब्लॉक लंबाई के एक कोड के लिए $$n$$. संदेशों की अधिकतम संख्या है $$2^{k}$$. दूसरी ओर चैनल का आउटपुट है $$2^{n}$$ संभावित मान। अगर किन्हीं दो संदेशों के बीच कोई भ्रम है, तो संभावना है कि $$2^{k}2^{H(p + \epsilon)n} \ge 2^{n}$$. इसलिए हमारे पास होगा $$k \geq \lceil (1 - H(p + \epsilon)n) \rceil$$, एक ऐसा मामला जिससे हम डिकोडिंग त्रुटि संभावना को घातीय रूप से छोटा रखने से बचना चाहेंगे।

कोड
हाल ही में, कई मानक संचार चैनलों की क्षमताओं को प्राप्त करने के लिए स्पष्ट त्रुटि-सुधार कोड डिजाइन करने के लिए बहुत काम किया गया है और किया जा रहा है। इस तरह के कोड को डिजाइन करने के पीछे की प्रेरणा कोड की दर को त्रुटियों के अंश से संबंधित करना है जिसे वह ठीक कर सकता है।

कोड के डिजाइन के पीछे का दृष्टिकोण जो चैनल की क्षमता को पूरा करता है $$\text{BSC}$$ या बाइनरी इरेज़र चैनल  $$\text{BEC}$$ उच्च संभावना के साथ कम संख्या में त्रुटियों को ठीक करना और उच्चतम संभव दर प्राप्त करना रहा है। शैनन का प्रमेय हमें वह सर्वोत्तम दर देता है जिसे प्राप्त किया जा सकता है a $$\text{BSC}_{p}$$, लेकिन यह हमें उस दर को प्राप्त करने वाले किसी भी स्पष्ट कोड का विचार नहीं देता है। वास्तव में इस तरह के कोड आमतौर पर त्रुटियों के केवल एक छोटे अंश को उच्च संभावना के साथ सही करने के लिए बनाए जाते हैं, लेकिन बहुत अच्छी दर प्राप्त करते हैं। इस तरह का पहला कोड 1966 में जॉर्ज डी. फॉर्नी के कारण था। कोड दो अलग-अलग प्रकार के कोडों को जोड़कर एक जुड़ा हुआ कोड है।

फ़ॉर्नी का कोड
फोर्नी ने एक समेकित कोड बनाया $$C^{*} = C_\text{out} \circ C_\text{in}$$ शोर-चैनल कोडिंग प्रमेय की क्षमता प्राप्त करने के लिए $$\text{BSC}_p$$. उनके कोड में,

बाहरी कोड के लिए $$C_\text{out}$$रीड-सोलोमन कोड दिमाग में आने वाला पहला कोड होता। हालाँकि, हम देखेंगे कि ऐसे कोड का निर्माण बहुपद समय में नहीं किया जा सकता है। यही कारण है कि एक बाइनरी रैखिक कोड  का उपयोग किया जाता है $$C_\text{out}$$.
 * बाहरी कोड $$C_\text{out}$$ ब्लॉक लंबाई का एक कोड है $$N$$ और दर $$1-\frac{\epsilon}{2}$$ मैदान के ऊपर $$F_{2^k}$$, और $$k = O(\log N)$$. इसके अतिरिक्त, हमारे पास एक कोड  एल्गोरिथम है $$D_\text{out}$$ के लिए $$C_\text{out}$$ तक ठीक किया जा सकता है $$\gamma$$ सबसे खराब स्थिति त्रुटियों का अंश और में चलता है $$t_\text{out}(N)$$ समय।
 * आंतरिक कोड $$C_\text{in}$$ ब्लॉक लंबाई का एक कोड है $$n$$, आयाम $$k$$, और की दर $$1 - H(p) - \frac{\epsilon}{2}$$. इसके अतिरिक्त, हमारे पास एक डिकोडिंग एल्गोरिदम है $$D_\text{in}$$ के लिए $$C_\text{in}$$ अधिकतम कोड त्रुटि संभावना के साथ $$\frac{\gamma}{2}$$ ऊपर $$\text{BSC}_p$$ और अंदर दौड़ता है $$t_\text{in}(N)$$ समय।

आंतरिक कोड के लिए $$C_\text{in}$$ ब्लॉक लंबाई के रैखिक कोड  से पूरी तरह से खोज कर हम एक रैखिक कोड पाते हैं $$n$$ और आयाम $$k$$, जिसकी दर क्षमता को पूरा करती है $$\text{BSC}_p$$शोर-चैनल कोडिंग प्रमेय द्वारा।

दर $$R(C^{*}) = R(C_\text{in}) \times R(C_\text{out}) = (1-\frac{\epsilon}{2}) ( 1 - H(p) - \frac{\epsilon}{2} ) \geq 1 - H(p)-\epsilon$$ जो लगभग मिलता है $$\text{BSC}_p$$ क्षमता। हम आगे ध्यान दें कि एन्कोडिंग और डिकोडिंग $$C^{*}$$ के संबंध में बहुपद समय में किया जा सकता है $$N$$. वास्तव में, एन्कोडिंग $$C^{*}$$ समय लेता है $$O(N^{2})+O(Nk^{2}) = O(N^{2})$$. इसके अलावा, वर्णित डिकोडिंग एल्गोरिदम में समय लगता है $$Nt_\text{in}(k) + t_\text{out}(N) = N^{O(1)} $$ जब तक कि $$t_\text{out}(N) = N^{O(1)}$$; और $$t_\text{in}(k) = 2^{O(k)}$$.

डिकोडिंग त्रुटि संभावना
के लिए एक प्राकृतिक डिकोडिंग एल्गोरिदम $$C^{*}$$ है:

ध्यान दें कि कोड के प्रत्येक ब्लॉक के लिए $$C_\text{in}$$ का प्रतीक माना जाता है $$C_\text{out}$$. अब किसी भी सूचकांक में त्रुटि की संभावना के बाद से $$i$$ के लिए $$D_\text{in}$$ अधिक से अधिक है $$\tfrac{\gamma}{2}$$ और त्रुटियों में $$\text{BSC}_p$$ स्वतंत्र हैं, त्रुटियों की अपेक्षित संख्या $$D_\text{in}$$ अधिक से अधिक है $$\tfrac{\gamma N}{2}$$ अपेक्षा की रैखिकता से। अब Chernoff बाध्य  लगाने पर, हमारे पास बाउंड एरर प्रायिकता से अधिक है $$\gamma N$$ होने वाली त्रुटियां $$e^\frac{-\gamma N}{6}$$. बाहरी कोड के बाद से $$C_\text{out}$$ ज्यादा से ज्यादा ठीक कर सकते हैं $$\gamma N$$ त्रुटियां, यह कोड त्रुटि की संभावना है $$C^{*}$$. यह जब स्पर्शोन्मुख शब्दों में व्यक्त किया जाता है, तो हमें त्रुटि की संभावना मिलती है $$2^{-\Omega(\gamma N)}$$. इस प्रकार प्राप्त डिकोडिंग त्रुटि की संभावना $$C^{*}$$ शोर-चैनल कोडिंग प्रमेय के रूप में चरघातांकी रूप से छोटा है।
 * मान लीजिए $$y_{i}^{\prime} = D_\text{in}(y_i), \quad i \in (0, N)$$ * अमल में लाना $$D_\text{out}$$ पर $$y^{\prime} = (y_1^{\prime} \ldots y_N^{\prime})$$

हमने निर्माण के लिए एक सामान्य तकनीक दी है $$C^{*}$$. अधिक विस्तृत विवरण के लिए $$C_\text{in}$$ और $$C_\text{out}$$ कृपया निम्नलिखित संदर्भ पढ़ें। क्षमताओं को प्राप्त करने के लिए हाल ही में कुछ अन्य कोड भी बनाए गए हैं। इस उद्देश्य के लिए एलडीपीसी  कोडों को उनके तेजी से डिकोडिंग समय के लिए माना गया है।

अनुप्रयोग
बाइनरी सममित चैनल मेमोरी स्टोरेज के लिए उपयोग किए जाने वाले डिस्क ड्राइव को मॉडल कर सकता है: चैनल इनपुट डिस्क पर लिखे जाने वाले बिट का प्रतिनिधित्व करता है और आउटपुट बाद में पढ़े जाने वाले बिट से मेल खाता है। मैग्नेटाइजेशन फ़्लिपिंग, बैकग्राउंड नॉइज़ या राइटिंग हेड द्वारा त्रुटि करने से त्रुटि उत्पन्न हो सकती है। अन्य वस्तुएं जो बाइनरी सममित चैनल मॉडल कर सकती हैं उनमें एक टेलीफोन या रेडियो संचार लाइन या कोशिका विभाजन  शामिल है, जिसमें से बेटी कोशिकाओं में उनके मूल सेल से  डीएनए  की जानकारी होती है। यह चैनल अक्सर सिद्धांतकारों द्वारा प्रयोग किया जाता है क्योंकि यह विश्लेषण करने के लिए सबसे सरल सिग्नल शोर  चैनलों में से एक है।  संचार सिद्धांत  में कई समस्याएं बीएससी में  कमी (जटिलता)  हो सकती हैं। इसके विपरीत, बीएससी पर प्रभावी ढंग से संचारित करने में सक्षम होने से अधिक जटिल चैनलों के समाधान में वृद्धि हो सकती है।

यह भी देखें

 * जेड-चैनल (सूचना सिद्धांत)

इस पेज में लापता आंतरिक लिंक की सूची

 * अनियमित परिवर्तनशील वस्तु
 * जुड़ा हुआ कोड

संदर्भ

 * G. David Forney. Concatenated Codes. MIT Press, Cambridge, MA, 1966.
 * Venkat Guruswamy's course on Error-Correcting Codes: Constructions and Algorithms], Autumn 2006.
 * Atri Rudra's course on Error Correcting Codes: Combinatorics, Algorithms, and Applications (Fall 2007), Lectures 9, 10, 29, and 30.
 * Madhu Sudan's course on Algorithmic Introduction to Coding Theory (Fall 2001), Lecture 1 and 2.
 * A mathematical theory of communication C. E Shannon, ACM SIGMOBILE Mobile Computing and Communications Review.
 * Modern Coding Theory by Tom Richardson and Rudiger Urbanke., Cambridge University Press
 * A mathematical theory of communication C. E Shannon, ACM SIGMOBILE Mobile Computing and Communications Review.
 * Modern Coding Theory by Tom Richardson and Rudiger Urbanke., Cambridge University Press