द्विपद वितरण

संभाव्यता सिद्धांत और सांख्यिकी में, n और p मापदंडों के साथ द्विपद वितरण n सांख्यिकीय स्वतंत्रता के रूप में प्रयोग किया जाता है तथा (प्रायिकता सिद्धांत) के क्रम में सफलताओं की संख्या का असतत संभाव्यता वितरण है, प्रत्येक हां-नहीं प्रश्न पूछ रहा है, और प्रत्येक अपने स्वयं के बूलियन-मूल्यवान फलन-मूल्यवान परिणाम (संभावना) के साथ: सफलता (संभावना के साथ p) या विफलता (संभाव्यता के साथ) ($$q=1-p$$). एकल सफलता/विफलता प्रयोग को बर्नौली परीक्षण या बर्नौली प्रयोग भी कहा जाता है, और परिणामों के अनुक्रम को बर्नौली प्रक्रिया कहा जाता है; एकल परीक्षण के लिए, अर्थात, n = 1, द्विपद वितरण बर्नौली वितरण है। तथा द्विपद वितरण सांख्यिकीय महत्व के लोकप्रिय द्विपद परीक्षण का आधार है। द्विपद वितरण का उपयोग अधिकांशतः आकार n की जनसंख्या से प्रतिस्थापन के साथ खींचे गए आकार n के नमूने में सफलताओं की संख्या को मॉडल करने के लिए किया जाता है। यदि नमूना प्रतिस्थापन के बिना किया जाता है, तब ड्रॉ स्वतंत्र नहीं होते हैं और इसलिए परिणामी वितरण एक हाइपरज्यामितीय होता है वितरण, द्विपद वितरण नहीं है। चूँकि, n से बहुत बड़े N के लिए, द्विपद वितरण एक अच्छा सन्निकटन बना हुआ है, और व्यापक रूप से उपयोग किया जाता है।

संभाव्यता द्रव्यमान फलन
सामान्यतः, यदि यादृच्छिक चर X पैरामीटर n ∈ $$\mathbb{N}$$ प्राकृतिक संख्या के साथ द्विपद वितरण का अनुसरण करता है और p ∈ [0,1], हम X ~ B(n, p) लिखते हैं। n स्वतंत्र बर्नौली परीक्षणों में बिल्कुल k सफलताएँ प्राप्त करने की प्रायिकता संभाव्यता द्रव्यमान फलन द्वारा दी गई है:


 * $$f(k,n,p) = \Pr(k;n,p) = \Pr(X = k) = \binom{n}{k}p^k(1-p)^{n-k}$$

k = 0, 1, 2, ..., n, जहां के लिए


 * $$\binom{n}{k} =\frac{n!}{k!(n-k)!}$$

द्विपद गुणांक है, इसलिए इसका नाम द्विपद वितरण है। सूत्र को इस प्रकार समझा जा सकता है: k सफलताएँ प्रायिकता pk के साथ होती हैं और n−k विफलताएँ संभाव्यता के साथ होती हैं $$(1-p)^{n-k}$$. चूँकि, k सफलताएँ n परीक्षणों के मध्य कहीं भी हो सकती हैं, और वहाँ हैं $$\tbinom{n}{k}$$ n परीक्षणों के क्रम में k सफलताओं को वितरित करने के विभिन्न विधियों ।

द्विपद वितरण संभाव्यता के लिए संदर्भ सारणी बनाने में, सामान्यतः तालिका को n/2 मानों तक भर दिया जाता है। ऐसा इसलिए है क्योंकि k > n/2 के लिए, प्रायिकता की गणना इसके पूरक के रूप में की जा सकती है


 * $$f(k,n,p)=f(n-k,n,1-p). $$

अभिव्यक्ति f(k, n, p) को k के फलन के रूप में देखते हुए, k मान है जो इसे अधिकतम करता है। यह k मान गणना करके पाया जा सकता है
 * $$ \frac{f(k+1,n,p)}{f(k,n,p)}=\frac{(n-k)p}{(k+1)(1-p)} $$

और इसकी तुलना 1 से करें। सदैव पूर्णांक M होता है जो संतुष्ट करता है
 * $$(n+1)p-1 \leq M < (n+1)p.$$

f(k, n, p) k < M के लिए मोनोटोन बढ़ रहा है और k > M के लिए मोनोटोन घट रहा है, उस स्थितियोंको छोड़कर जहां (n + 1)p पूर्णांक है। इस स्थितियों में, ऐसे दो मान हैं जिनके लिए f अधिकतम है: (n + 1)p और (n + 1)p − 1। है तथा M सबसे संभावित परिणाम है (अर्थात, सबसे अधिक संभावना है, चूंकि यह अभी भी असंभव हो सकता है कुल मिलाकर) बरनौली परीक्षण और इसे मोड (सांख्यिकी) भी कहा जाता है।

उदाहरण
मान लीजिए कि एक पक्षपाती सिक्का उछालने पर प्रायिकता 0.3 के साथ शीर्ष पर आता है। और 6 बार उछालने पर ठीक 4 सिर देखने की प्रायिकता है


 * $$f(4,6,0.3) = \binom{6}{4}0.3^4 (1-0.3)^{6-4}= 0.059535.$$

संचयी वितरण फलन
संचयी वितरण फलन के रूप में व्यक्त किया जा सकता है:


 * $$F(k;n,p) = \Pr(X \le k) = \sum_{i=0}^{\lfloor k \rfloor} {n\choose i}p^i(1-p)^{n-i},$$

जहाँ $$\lfloor k\rfloor$$ k के नीचे का तल है, अर्थात फर्श और छत k से कम या उसके सामान्तर फलन करता है।

इसे नियमित रूप से अपूर्ण बीटा फलन के संदर्भ में निम्नानुसार भी प्रदर्शित किया जा सकता है:
 * $$\begin{align}

F(k;n,p) & = \Pr(X \le k) \\ &= I_{1-p}(n-k, k+1) \\ & = (n-k) {n \choose k} \int_0^{1-p} t^{n-k-1} (1-t)^k \, dt. \end{align}$$ जो कि F-वितरण | के संचयी वितरण फलन के समतुल्य है$F$-वितरण:
 * $$F(k;n,p) = F_{F\text{-distribution}}\left(x=\frac{1-p}{p}\frac{k+1}{n-k};d_1=2(n-k),d_2=2(k+1)\right).$$

संचयी वितरण फलन के लिए कुछ सवृत-फ़ॉर्म बाउंड या टेल बाउंड दिए गए हैं.

अपेक्षित मूल्य और विचरण
यदि X ~ B(n, p), अर्थात, X द्विपद रूप से वितरित यादृच्छिक चर है, n प्रयोगों की कुल संख्या है और p प्रत्येक प्रयोग के सफल परिणाम देने की संभावना है, तब X का अपेक्षित मान है:
 * $$ \operatorname{E}[X] = np.$$

यह इस तथ्य के साथ-साथ अपेक्षित मूल्य की रैखिकता का अनुसरण करता है कि $X$ $n$ का योग है तथा समान बर्नौली यादृच्छिक चर, प्रत्येक अपेक्षित मूल्य $p$ के साथ है| दूसरे शब्दों में, यदि $$X_1, \ldots, X_n$$ पैरामीटर के $p$ साथ समान (और स्वतंत्र) बर्नौली यादृच्छिक चर हैं, तब $$X = X_1 + \cdots + X_n$$ और

$$\operatorname{E}[X] = \operatorname{E}[X_1 + \cdots + X_n] = \operatorname{E}[X_1] + \cdots + \operatorname{E}[X_n] = p + \cdots + p = np.$$

भिन्नता है:
 * $$ \operatorname{Var}(X) = npq = np(1 - p).$$

यह इसी तरह इस तथ्य से अनुसरण करता है कि स्वतंत्र यादृच्छिक चर के योग का विचरण भिन्नताओं का योग है।

उच्च क्षण
पहले 6 केंद्रीय क्षण, के रूप में परिभाषित $$ \mu _{c}=\operatorname {E} \left[(X-\operatorname {E} [X])^{c}\right] $$, द्वारा दिया गया है
 * $$\begin{align}

\mu_1 &= 0, \\ \mu_2 &= np(1-p),\\ \mu_3 &= np(1-p)(1-2p),\\ \mu_4 &= np(1-p)(1+(3n-6)p(1-p)),\\ \mu_5 &= np(1-p)(1-2p)(1+(10n-12)p(1-p)),\\ \mu_6 &= np(1-p)(1-30p(1-p)(1-4p(1-p))+5np(1-p)(5-26p(1-p))+15n^2 p^2 (1-p)^2). \end{align}$$ गैर-केंद्रीय क्षण संतुष्ट करते हैं
 * $$\begin{align}

\operatorname {E}[X] &= np, \\ \operatorname {E}[X^2] &= np(1-p)+n^2p^2, \end{align}$$ और सामान्यतः

\operatorname {E}[X^c] = \sum_{k=0}^c \left\{ {c \atop k} \right\} n^{\underline{k}} p^k, $$ कहाँ $$\textstyle \left\{{c\atop k}\right\}$$ दूसरी तरह की स्टर्लिंग संख्याएँ हैं, और $$n^{\underline{k}} = n(n-1)\cdots(n-k+1)$$ है $$k$$ वें अवरोही और आरोही क्रम गुणित $$n$$.एक साधारण बंधन प्वासों वितरण या उच्चतर क्षणों के माध्यम से द्विपद आघूर्णों को बाउंड करके अनुसरण करता है:

\operatorname {E}[X^c] \le \left(\frac{c}{\log(c/(np)+1)}\right)^c \le (np)^c \exp\left(\frac{c^2}{2np}\right). $$ इससे पता चलता है कि यदि $$c=O(\sqrt{np})$$, तब $$\operatorname {E}[X^c]$$ से अधिक से अधिक स्थिर कारक दूर है $$\operatorname {E}[X]^c$$

मोड
सामान्यतः द्विपद B(n,-p) वितरण का बहुलक $$\lfloor (n+1)p\rfloor$$ (सांख्यिकी) सामान्तर होता है, जहाँ  $$\lfloor\cdot\rfloor$$ फर्श फलन है। चूँकि, जब (n + 1)p पूर्णांक होता है और p न तो 0 होता है और न ही 1, तो वितरण के दो विधियों होते हैं: (n + 1)p और (n + 1)p − 1। जब p 0 के सामान्तर होता है या 1 होता है , तो मोड क्रमशः 0 और n होगा। इन स्थितियों को संक्षेप में निम्नानुसार किया जा सकता है:
 * $$\text{mode} =

\begin{cases} \lfloor (n+1)\,p\rfloor & \text{if }(n+1)p\text{ is 0 or a noninteger}, \\ (n+1)\,p\ \text{ and }\ (n+1)\,p - 1 &\text{if }(n+1)p\in\{1,\dots,n\}, \\ n & \text{if }(n+1)p = n + 1. \end{cases}$$ प्रमाण: चलो


 * $$f(k)=\binom nk p^k q^{n-k}.$$

$$p=0$$ के लिए केवल $$f(0)$$ के साथ शून्येतर मान है $$f(0)=1$$. के लिए $$p=1$$ हम देखतें है $$f(n)=1$$ और $$f(k)=0$$ के लिए $$k\neq n$$. इससे सिद्ध होता है कि बहुलक 0 है $$p=0$$ और $$n$$ के लिए $$p=1$$.

होने देना $$0 < p < 1$$. हम देखतें है


 * $$\frac{f(k+1)}{f(k)} = \frac{(n-k)p}{(k+1)(1-p)}$$.

इससे इस प्रकार है


 * $$\begin{align}

k > (n+1)p-1 \Rightarrow f(k+1) < f(k) \\ k = (n+1)p-1 \Rightarrow f(k+1) = f(k) \\ k < (n+1)p-1 \Rightarrow f(k+1) > f(k) \end{align}$$ तब कब जब $$(n+1)p-1$$ पूर्णांक है, तब $$(n+1)p-1$$ और $$(n+1)p$$ विधा है। उस स्थितियों में $$(n+1)p-1\notin \Z$$, सिर्फ तभी $$\lfloor (n+1)p-1\rfloor+1=\lfloor (n+1)p\rfloor$$ विधा है।

मध्य
सामान्यतः, द्विपद वितरण के लिए माध्यिका ज्ञात करने के लिए कोई एकल सूत्र नहीं होता है, और यह गैर-अद्वितीय भी हो सकता है। चूँकि, अनेक विशेष परिणाम स्थापित किए गए हैं:
 * यदि np पूर्णांक है, तब माध्य, माध्यिका और बहुलक संपाती हैं और np के सामान्तर हैं।
 * किसी भी माध्यिका m को अंतराल ⌊np⌋ ≤ m ≤ ⌈np⌉ के अंदर होना चाहिए।
 * माध्यिका m माध्य से बहुत दूर नहीं हो सकता: m − np.
 * माध्य अद्वितीय है और m = राउंडिंग (np) के सामान्तर है जब |m − np| ≤ मिनट {p, 1 − p} (स्थितियोंको छोड़कर जब p =$1⁄2$ और n विषम है)।
 * जब p परिमेय संख्या है (p = 1/2 और n विषम को छोड़कर) तब माध्य अद्वितीय होता है।
 * जब p = 1/2 और n विषम हो, तब अंतराल में कोई भी संख्या m $1⁄2$(n − 1) ≤ m ≤$1⁄2$(n + 1) द्विपद वितरण की माध्यिका है। यदि p = 1/2 और n सम है, तब m = n/2 अद्वितीय माध्यिका है।

ल बाउंड्स
k ≤ np के लिए, संचयी वितरण फलन $$F(k;n,p) = \Pr(X \le k)$$ की निचली पूंछ के लिए होता है जिससे ऊपरी सीमाएं प्राप्त की जा सकती हैं, संभावना है कि अधिक से अधिक k सफलताएँ हैं। चूँकि $$\Pr(X \ge k) = F(n-k;n,1-p) $$, इन सीमाओं को k ≥ np के संचयी वितरण फलन की ऊपरी पूंछ के लिए सीमाओं के रूप में भी देखा जा सकता है।

हॉफडिंग की असमानता से सरल सीमा प्राप्त होती है


 * $$ F(k;n,p) \leq \exp\left(-2 n\left(p-\frac{k}{n}\right)^2\right), \!$$

जो चूंकि ज्यादा टाइट नहीं है। विशेष रूप से, p = 1 के लिए, हमारे पास वह F(k;n,p) = 0 (स्थिर k के लिए, n के साथ k < n) है, किन्तु होफ़डिंग की सीमा धनात्मक स्थिरांक का मूल्यांकन करती है।

चेर्नॉफ़ बाउंड से शार्प बाउंड प्राप्त किया जा सकता है:
 * $$ F(k;n,p) \leq \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right) $$

जहां D ( a || p) कुल्बैक-लीब्लर डाइवर्जेंस है। a -सिक्का और p-सिक्का (अर्थात बर्नौली (a) और बर्नौली (p) वितरण के मध्य) के मध्य सापेक्ष एन्ट्रॉपी (या कुल्बैक-लीब्लर डाइवर्जेंस) है:


 * $$ D(a\parallel p)=(a)\log\frac{a}{p}+(1-a)\log\frac{1-a}{1-p}. \!$$

असम्बद्ध रूप से, यह सीमा यथोचित तंग है; देखना जानकारी के लिए।

कोई निचली सीमा भी प्राप्त कर सकता है $$F(k;n,p) $$, विरोधी एकाग्रता सीमा के रूप में जाना जाता है। स्टर्लिंग के सूत्र के साथ द्विपद गुणांक का अनुमान लगाकर यह दिखाया जा सकता है
 * $$ F(k;n,p) \geq \frac{1}{\sqrt{8n\tfrac{k}{n}(1-\tfrac{k}{n})}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right),$$

जिसका तात्पर्य सरल किन्तुशिथिल बाध्यता से है
 * $$ F(k;n,p) \geq \frac1{\sqrt{2n}} \exp\left(-nD\left(\frac{k}{n}\parallel p\right)\right).$$

p = 1/2 और k ≥ 3n/8 के लिए भी n के लिए, भाजक को स्थिर बनाना संभव है:
 * $$ F(k;n,\tfrac{1}{2}) \geq \frac{1}{15} \exp\left(- 16n \left(\frac{1}{2} -\frac{k}{n}\right)^2\right). \!$$

मापदंडों का अनुमान
जब n ज्ञात हो, तब सफलताओं के अनुपात का उपयोग करके पैरामीटर p का अनुमान लगाया जा सकता है:
 * $$ \widehat{p} = \frac{x}{n}.$$

यह अनुमानक अधिकतम संभावना अनुमानक और क्षणों की विधि (सांख्यिकी) का उपयोग करके पाया जाता है। यह अनुमानक अनुमानक का पूर्वाग्रह है और समान रूप से न्यूनतम-विचरण निष्पक्ष अनुमानक के साथ, लेहमैन-शेफ़े प्रमेय का उपयोग करके सिद्ध किया गया है, क्योंकि यह न्यूनतम पर्याप्त और पूर्णता (सांख्यिकी) आँकड़ा (अर्थात: x) पर आधारित है। यह संभाव्यता और माध्य चुकता त्रुटि दोनों में संगत अनुमानक भी है।

p के लिए सवृत रूप बेयस अनुमानक भी उपस्थित है जब बीटा वितरण को संयुग्मित पूर्व पूर्व वितरण के रूप में उपयोग किया जाता है। सामान्य का उपयोग करते समय $$\operatorname{Beta}(\alpha, \beta)$$ पूर्व के रूप में, बेयस अनुमानक या पोस्टीरियर माध्य अनुमानक है:
 * $$ \widehat{p}_b = \frac{x+\alpha}{n+\alpha+\beta}.$$

बायस आकलनकर्ता स्पर्शोन्मुख दक्षता (बायस) है और जैसे ही नमूना आकार अनंत (n → ∞) तक पहुंचता है, यह अधिकतम संभावना अनुमान समाधान तक पहुंचता है। बेयस अनुमानक अनुमानक का पूर्वाग्रह है (कितना पूर्ववर्तियों पर निर्भर करता है), बेयस अनुमानक या स्वीफलनता और संभाव्यता में लगातार अनुमानक।

गैर-सूचनात्मक पूर्व के रूप में मानक वर्दी वितरण का उपयोग करने के विशेष स्थितियों के लिए, $$\operatorname{Beta}(\alpha=1, \beta=1) = U(0,1)$$, पश्च माध्य अनुमानक बन जाता है:
 * $$ \widehat{p}_b = \frac{x+1}{n+2}.$$

(एक बेयस अनुमानक या पश्च मोड को केवल मानक अनुमानक तक ले जाना चाहिए।) इस पद्धति को उत्तराधिकार का नियम कहा जाता है, जिसे 18 वीं शताब्दी में पियरे-साइमन लाप्लास द्वारा प्रस्तुत किया गया था।

बहुत दुर्लभ घटनाओं और छोटे n के साथ p का आकलन करते समय (उदाहरण के लिए: यदि x = 0), तब मानक अनुमानक का उपयोग करने की ओर जाता है $$ \widehat{p} = 0,$$ जो कभी-कभी अवास्तविक और अवांछनीय होता है। ऐसे स्थितियों में विभिन्न वैकल्पिक आकलनकर्ता हैं। बेयस अनुमानक का उपयोग करने का विधि है, जिससे:
 * $$ \widehat{p}_b = \frac{1}{n+2}.$$

एक अन्य विधि तीन के नियम (सांख्यिकी) का उपयोग करके प्राप्त विश्वास अंतराल की ऊपरी सीमा का उपयोग करना है:
 * $$ \widehat{p}_{\text{rule of 3}} = \frac{3}{n}.$$

विश्वास अंतराल
यहां तक ​​कि n के अधिक बड़े मूल्यों के लिए, माध्य का वास्तविक वितरण महत्वपूर्ण रूप से असामान्य है। इस समस्या के कारण कॉन्फिडेंस इंटरवल का अनुमान लगाने के लिए अनेक विधियों प्रस्तावित किए गए हैं।

नीचे दिए गए कॉन्फ़िडेंस इंटरवल के समीकरणों में, वेरिएबल्स के निम्नलिखित अर्थ हैं:
 * n1, n में से सफलताओं की संख्या है, परीक्षणों की कुल संख्या
 * $$ \widehat{p\,} = \frac{n_1}{n}$$ सफलताओं का अनुपात है
 * $$z=1 - \tfrac{1}{2}\alpha$$ लक्ष्य त्रुटि दर के अनुरूप मानक सामान्य वितरण (अर्थात, प्रोबिट) का परिमाण है $$\alpha$$. उदाहरण के लिए, 95% विश्वास स्तर के लिए त्रुटि $$\alpha$$= 0.05, इसलिए $$1 - \tfrac{1}{2}\alpha$$= 0.975 और $$z$$ = 1.96.

वाल्ड विधि

 * $$ \widehat{p\,} \pm z \sqrt{ \frac{ \widehat{p\,} ( 1 -\widehat{p\,} )}{ n } } .$$

0.5/n का निरंतरता सुधार जोड़ा जा सकता है।

अग्रेस्ती-कूल विधि

 * $$ \tilde{p} \pm z \sqrt{ \frac{ \tilde{p} ( 1 - \tilde{p} )}{ n + z^2 } }$$

यहाँ p का अनुमान संशोधित किया गया है


 * $$ \tilde{p}= \frac{ n_1 + \frac{1}{2} z^2}{ n + z^2 } $$

यह विधि $$n>10$$ और $$n_1\neq 0,n$$ के लिए यह विधि अच्छा काम करता है. $$n\leq 10$$ के लिए यहां देखें. $$n_1 = 0,n$$ के लिए नीचे दी गई विल्सन (स्कोर) विधि का उपयोग करें।

आर्कसीन विधि

 * $$\sin^2 \left(\arcsin \left(\sqrt{\widehat{p\,}}\right) \pm \frac{z}{2\sqrt{n}} \right).$$

विल्सन (स्कोर) विधि
नीचे दिए गए सूत्र में अंकन पिछले सूत्रों से दो तरह से भिन्न है:
 * सबसे पहले, zx नीचे दिए गए सूत्र में इसकी थोड़ी अलग व्याख्या है: इसका सामान्य अर्थ '(1 − x)-th क्वांटाइल' के लिए शॉर्टहैंड होने के अतिरिक्त 'मानक सामान्य वितरण का xवां क्वांटाइल' है।
 * दूसरे, यह सूत्र दो सीमाओं को परिभाषित करने के लिए प्लस-माइनस का उपयोग नहीं करता है। इसके बजाय, कोई निचली सीमा पाने के लिए $$z = z_{\alpha / 2}$$ उपयोग कर सकता है या ऊपरी सीमा पाने के लिए। उपयोग करें $$z = z_{1 - \alpha/2}$$ उदाहरण के लिए: 95% कॉन्फिडेंस लेवल के लिए एरर $$\alpha$$= 0.05, इसलिए $$z = z_{\alpha/2} = z_{0.025} = - 1.96$$ उपयोग करने पर व्यक्ति को निचली सीमा मिलती है, और का $$z = z_{1 - \alpha/2} = z_{0.975} = 1.96$$ उपयोग करके ऊपरी सीमा प्राप्त होती है.


 * $$\frac{

\widehat{p\,} + \frac{z^2}{2n} + z   \sqrt{ \frac{\widehat{p\,}(1 - \widehat{p\,})}{n} + \frac{z^2}{4 n^2} } }{   1 + \frac{z^2}{n} }$$

तुलना
तथाकथित स्पष्ट (द्विपद अनुपात विश्वास अंतराल या क्लॉपर-पियर्सन अंतराल | क्लॉपर-पियर्सन) विधि सबसे रूढ़िवादी है। (स्पष्ट का मतलब पूरी तरह से स्पष्ट नहीं है; किंतु, यह इंगित करता है कि अनुमान सही मूल्य से कम रूढ़िवादी नहीं होंगे।)

वाल्ड विधि, चूंकि सामान्यतः पाठ्यपुस्तकों में अनुशंसित है, सबसे पक्षपाती है।

संबंधित वितरण

द्विपदों का योग
यदि X ~ B(n, p) और Y ~ B(m, p) समान प्रायिकता p वाले स्वतंत्र द्विपद चर हैं, तब X + Y फिर से द्विपद चर है; इसका वितरण Z=X+Y ~ B(n+m, p) है:
 * $$\begin{align}

\operatorname P(Z=k) &= \sum_{i=0}^k\left[\binom{n}i p^i (1-p)^{n-i}\right]\left[\binom{m}{k-i} p^{k-i} (1-p)^{m-k+i}\right]\\ &= \binom{n+m}k p^k (1-p)^{n+m-k} \end{align}$$ एक द्विपद वितरित यादृच्छिक चर X ~ B(n, p) को n बर्नौली वितरित यादृच्छिक चर के योग के रूप में माना जा सकता है। तब दो द्विपद वितरित यादृच्छिक चर X ~ B(n, p) और Y ~ B(m, p) का योग n + m बर्नौली वितरित यादृच्छिक चर के योग के सामान्तर है, जिसका अर्थ है Z=X+Y ~ B( n + m, p)। यह अतिरिक्त नियम का उपयोग करके भी सीधे सिद्ध किया जा सकता है।

चूँकि, यदि X और Y में समान प्रायिकता p नहीं है, तब योग का विचरण $$B(n+m, \bar{p}).\,$$ द्विपद योग विचरण असमानता के रूप में वितरित किया जाएगा

पोइसन द्विपद वितरण
द्विपद वितरण प्वासों द्विपद वितरण का विशेष स्तिथियाँ है, जो n स्वतंत्र गैर-समरूप बर्नौली परीक्षणों के योग B(pi). का वितरण है  

दो द्विपद बंटनों का अनुपात
यह परिणाम पहली बार 1978 में काट्ज़ और सह-लेखकों द्वारा प्राप्त किया गया था।

चलो x~ ~ b(n, p1) और y~ b(m,p2) स्वतंत्र रहें। चलो टी = (x/n)/(y/m)।

फिर लॉग (T) लगभग सामान्य रूप से औसत लॉग (p1/p2) और विचरण ((1/p1) − 1)/n + ((1/p2) − 1)/मी. के साथ वितरित किया जाता है

सशर्त द्विपद
यदि X ~ B(n, p) और Y | X ~ B(X, q) (Y का सशर्त वितरण, दिया गया X), तब Y वितरण Y ~ B(n, pq) के साथ सरल द्विपद यादृच्छिक चर है।

उदाहरण के लिए, n गेंदों को एक टोकरी UX में फेंकने और उन गेंदों को लेने की कल्पना करें जो हिट होती हैं और उन्हें दूसरी टोकरी UY में फेंक देती हैं। यदि p, UX से टकराने की संभावना है तब X ~ B(n, p) UX से टकराने वाली गेंदों की संख्या है। यदि q, UY से टकराने की संभावना है तो UY से टकराने वाली गेंदों की संख्या Y ~ B(X, q) है और इसलिए Y ~ B(n, pq) है।

तब से $$ X \sim B(n, p) $$ और $$ Y \sim B(X, q) $$, कुल संभाव्यता के कानून द्वारा,
 * $$\begin{align}

\Pr[Y = m] &= \sum_{k = m}^{n} \Pr[Y = m \mid X = k] \Pr[X = k] \\[2pt] &= \sum_{k=m}^n \binom{n}{k} \binom{k}{m} p^k q^m (1-p)^{n-k} (1-q)^{k-m} \end{align}$$ तब से $$\tbinom{n}{k} \tbinom{k}{m} = \tbinom{n}{m} \tbinom{n-m}{k-m},$$ उपरोक्त समीकरण के रूप में व्यक्त किया जा सकता है
 * $$ \Pr[Y = m] = \sum_{k=m}^{n} \binom{n}{m} \binom{n-m}{k-m} p^k q^m (1-p)^{n-k} (1-q)^{k-m} $$

फैक्टरिंग $$ p^k = p^m p^{k-m} $$ और उन सभी शर्तों को खींच रहा है जिन पर निर्भर नहीं है $$ k $$ योग से बाहर अब पैदावार
 * $$\begin{align}

\Pr[Y = m] &= \binom{n}{m} p^m q^m \left( \sum_{k=m}^n \binom{n-m}{k-m} p^{k-m} (1-p)^{n-k} (1-q)^{k-m} \right) \\[2pt] &= \binom{n}{m} (pq)^m \left( \sum_{k=m}^n \binom{n-m}{k-m} \left(p(1-q)\right)^{k-m} (1-p)^{n-k} \right) \end{align}$$ प्रतिस्थापित करने के बाद $$ i = k - m $$ उपरोक्त अभिव्यक्ति में, हम प्राप्त करते हैं
 * $$ \Pr[Y = m] = \binom{n}{m} (pq)^m \left( \sum_{i=0}^{n-m} \binom{n-m}{i} (p - pq)^i (1-p)^{n-m - i} \right) $$

ध्यान दें कि योग (कोष्ठक में) ऊपर के बराबर है $$ (p - pq + 1 - p)^{n-m} $$ द्विपद प्रमेय द्वारा। अंत में उपज में इसे प्रतिस्थापित करना
 * $$\begin{align}

\Pr[Y=m] &= \binom{n}{m} (pq)^m (p - pq + 1 - p)^{n-m}\\[4pt] &= \binom{n}{m} (pq)^m (1-pq)^{n-m} \end{align}$$ और इस तरह $$ Y \sim B(n, pq) $$ जैसी इच्छा थी।

बरनौली वितरण
बर्नौली वितरण द्विपद वितरण का विशेष स्तिथियाँ है, जहां n = 1. सांकेतिक रूप से, X ~ B(1, p) का वही अर्थ है जो X ~ बरनौली(p) का है। इसके विपरीत, कोई भी द्विपद वितरण, B(n, p), n स्वतंत्र बर्नौली परीक्षणों के योग का वितरण है, बरनौली(p), प्रत्येक की समान प्रायिकता p है।

सामान्य सन्निकटन
यदि n अधिक बड़ा है, तब वितरण का तिरछा बहुत बड़ा नहीं है। इस स्थितियों में सामान्य वितरण द्वारा B(n, p) के लिए उचित सन्निकटन दिया जाता है


 * $$ \mathcal{N}(np,\,np(1-p)),$$

और उपयुक्त निरंतरता सुधार का उपयोग करके इस मूलभूत सन्निकटन को सरल विधियों के द्वारा से सुधारा जा सकता है। मूलभूत सन्निकटन सामान्यतः n बढ़ने (कम से कम 20) के रूप में उत्तम होता है और उत्तम होता है जब p 0 या 1 के करीब नहीं होता है। अंगूठे के विभिन्न नियमों का उपयोग यह तय करने के लिए किया जा सकता है कि n अधिक बड़ा है, और p 0 या k चरम से अधिक दूर है:


 * एक नियम यह है कि n > 5 के लिए सामान्य सन्निकटन पर्याप्त है यदि तिरछापन का पूर्ण मान सख्ती से 0.3 से कम है; वह है, यदि
 * $$\frac{|1-2p|}{\sqrt{np(1-p)}}=\frac1{\sqrt{n}}\left|\sqrt{\frac{1-p}p}-\sqrt{\frac{p}{1-p}}\,\right|<0.3.$$

इसे बेरी-एस्सेन प्रमेय का उपयोग करके स्पष्ट बनाया जा सकता है।


 * एक शक्तिशाली नियम बताता है कि सामान्य सन्निकटन तभी उचित है जब इसके माध्य के 3 मानक विचलन के अंदर सब कुछ संभावित मूल्यों की सीमा के अंदर हो; वह है, केवल यदि
 * $$\mu\pm3\sigma=np\pm3\sqrt{np(1-p)}\in(0,n).$$
 * यह 3-मानक-विचलन नियम निम्नलिखित शर्तों के समतुल्य है, जो उपरोक्त पहले नियम को भी प्रयुक्त करता है।
 * $$n>9 \left(\frac{1-p}{p} \right)\quad\text{and}\quad n>9\left(\frac{p}{1-p}\right).$$

नियम $$ np\pm3\sqrt{np(1-p)}\in(0,n)$$ अनुरोध करने के लिए पूरी तरह से समकक्ष है
 * $$np-3\sqrt{np(1-p)}>0\quad\text{and}\quad np+3\sqrt{np(1-p)}3\sqrt{np(1-p)}\quad\text{and}\quad n(1-p)>3\sqrt{np(1-p)}.$$

तब से $$09 \left(\frac{1-p}p\right) \quad\text{and}\quad n>9 \left(\frac{p}{1-p}\right).$$

ध्यान दें कि ये शर्तें स्वचालित रूप से इसका अर्थ लगाती हैं $$n>9$$. दूसरी ओर, वर्गमूल को फिर से लागू करें और 3 से विभाजित करें,
 * $$\frac{\sqrt{n}}3>\sqrt{\frac{1-p}p}>0 \quad \text{and} \quad \frac{\sqrt{n}}3 > \sqrt{\frac{p}{1-p}}>0.$$

पहले वाले से असमानताओं के दूसरे सेट को घटाना:
 * $$\frac{\sqrt{n}}3>\sqrt{\frac{1-p}p}-\sqrt{\frac{p}{1-p}}>-\frac{\sqrt{n}}3;$$

और इसलिए, वांछित पहला नियम संतुष्ट है,
 * $$\left|\sqrt{\frac{1-p}p}-\sqrt{\frac{p}{1-p}}\,\right|<\frac{\sqrt{n}}3.$$


 * एक और सामान्यतः उपयोग किया जाने वाला नियम यह है कि दोनों मान $$np$$ और $$n(1-p)$$ 5 से अधिक या उसके सामान्तर होना चाहिए। चूँकि, विशिष्ट संख्या स्रोत से स्रोत में भिन्न होती है, और यह इस बात पर निर्भर करता है कि कोई सन्निकटन कितना अच्छा चाहता है। विशेष रूप से, यदि कोई 5 के अतिरिक्त 9 का उपयोग करता है, तो नियम का तात्पर्य पिछले पैराग्राफ में बताए गए परिणामों से है।

मान लें कि दोनों मान $$np$$ और $$n(1-p)$$ 9 से अधिक हैं। चूंकि $$0< p<1$$, हमारे पास वह आसानी से है
 * $$np\geq9>9(1-p)\quad\text{and}\quad n(1-p)\geq9>9p.$$

अब हमें केवल संबंधित कारकों द्वारा विभाजित करना है $$p$$ और $$1-p$$, 3-मानक-विचलन नियम के वैकल्पिक रूप को निकालने के लिए:
 * $$n>9 \left(\frac{1-p}p\right) \quad\text{and}\quad n>9 \left(\frac{p}{1-p}\right).$$

निरंतरता सुधार प्रयुक्त करने का उदाहरण निम्नलिखित है। मान लीजिए कि द्विपद यादृच्छिक चर X के लिए Pr(X ≤ 8) की गणना करना चाहता है। यदि Y का वितरण सामान्य सन्निकटन द्वारा दिया गया है, तब Pr(X ≤ 8) Pr(Y ≤ 8.5) द्वारा अनुमानित है। 0.5 का जोड़ निरंतरता सुधार है; असंशोधित सामान्य सन्निकटन अधिक स्पष्ट परिणाम देता है।

यह सन्निकटन, डी मोइवर-लाप्लास प्रमेय के रूप में जाना जाता है, हाथ से गणना करते समय विशाल समय बचाने वाला होता है (बड़े n के साथ स्पष्ट गणना बहुत कठिन होती है); ऐतिहासिक रूप से, यह सामान्य वितरण का पहला प्रयोग था, जिसे 1738 में अब्राहम डी मोइवरे की पुस्तक संभावना का सिद्धांत में प्रस्तुत किया गया था। आजकल, इसे केंद्रीय सीमा प्रमेय के परिणाम के रूप में देखा जा सकता है क्योंकि B(n, p) का योग है n स्वतंत्र, समान रूप से वितरित बरनौली वितरण पैरामीटर p के साथ है । यह तथ्य सामान्य परीक्षण आंकड़ों में x/n, नमूना अनुपात और p के अनुमानक का उपयोग करके p के मूल्य के लिए परिकल्पना परीक्षण, अनुपात z-परीक्षण का आधार है।

उदाहरण के लिए, मान लीजिए कि बड़ी जनसंख्या से बेतरतीब ढंग से n लोगों का नमूना लेता है और उनसे पूछता है कि क्या वे निश्चित कथन से सहमत हैं। सहमत होने वाले लोगों का अनुपात निश्चित रूप से नमूने पर निर्भर करेगा। यदि n लोगों के समूहों को बार-बार और सही मायने में बेतरतीब ढंग से नमूना लिया गया था, तब अनुपात जनसंख्या में समझौते के वास्तविक अनुपात p के सामान्तर और मानक विचलन के साथ लगभग सामान्य वितरण का पालन करेगा।
 * $$\sigma = \sqrt{\frac{p(1-p)}{n}}$$

पोइसन सन्निकटन
द्विपद वितरण प्वासों वितरण की ओर अभिसरण करता है क्योंकि परीक्षणों की संख्या अनंत तक जाती है जबकि उत्पाद np सीमित सीमा तक अभिसरण करता है। इसलिए, पैरामीटर λ = np के साथ प्वासों वितरण को द्विपद वितरण के सन्निकटन के रूप में उपयोग किया जा सकता है यदि n पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। अंगूठे के दो नियमों के अनुसार, यह सन्निकटन अच्छा है यदि n ≥ 20 और p ≤ 0.05, या यदि n ≥ 100 और np ≤ 10।

पॉइसन सन्निकटन की सटीकता के संबंध में, नोवाक, अध्याय देखें। 4, और उसमें संदर्भ।

वितरण सीमित करना

 * पोइसन सीमा प्रमेय: चूंकि n ∞ तक पहुंचता है, उत्पाद np को स्थिर रखा जाता है और p 0 तक पहुंचता है,, द्विपद (n, p) वितरण अपेक्षित मान λ = np के साथ पॉइसन वितरण तक पहुंचता है।
 * डी मोइवर-लाप्लास प्रमेय: जैसा कि n ∞ तक पहुंचता है जबकि p स्थिर रहता है, इसका वितरण


 * $$\frac{X-np}{\sqrt{np(1-p)}}$$
 * अपेक्षित मान 0 और विचरण 1 के साथ सामान्य वितरण तक पहुंचता है। इस परिणाम को कभी-कभी यह कहते हुए शिथिल रूप से कहा जाता है कि X का वितरण अपेक्षित मान 0 और विचरण 1 के साथ स्पर्शोन्मुख सामान्यता है। यह परिणाम केंद्रीय सीमा प्रमेय का विशिष्ट स्तिथियाँ है।

बीटा वितरण
द्विपद वितरण और बीटा वितरण दोहराए गए बर्नौली परीक्षणों के मॉडल के अलग-अलग विचार हैं। द्विपद वितरण का संभाव्यता द्रव्यमान फलन है द्विपद वितरण n स्वतंत्र घटनाओं को देखते हुए  सफलताओं का PMF है, जिनमें से प्रत्येक में सफलता की संभावना p है। गणितीय रूप से, कब $α = k + 1$ और $β = n &minus; k + 1$, बीटा वितरण और द्विपद वितरण $n + 1$ के कारक से संबंधित हैं|
 * $$\operatorname{Beta}(p;\alpha;\beta) = (n+1)B(k;n;p)$$

बीटा वितरण भी बायेसियन अनुमान में द्विपद वितरण के लिए पूर्व वितरण का परिवार प्रदान करते हैं: :

$$P(p;\alpha,\beta) = \frac{p^{\alpha-1}(1-p)^{\beta-1}}{\operatorname{Beta}(\alpha,\beta)}.$$

एक समान पूर्व को देखते हुए, k देखी गई सफलताओं के साथ n स्वतंत्र घटनाओं को देखते हुए सफलता की संभावना p के लिए पश्च वितरण एक बीटा वितरण है।

यादृच्छिक संख्या पीढ़ी
यादृच्छिक संख्या पीढ़ी के विधियों जहां सीमांत वितरण द्विपद वितरण है, अच्छी तरह से स्थापित हैं। एक द्विपद वितरण से यादृच्छिक भिन्न नमूने उत्पन्न करने का विधि व्युत्क्रम एल्गोरिथम का उपयोग करना है। ऐसा करने के लिए, किसी को संभावना की गणना करनी चाहिए कि 0 से n तक सभी मान k के लिए Pr(X = k) है।(इन संभावनाओं को पूरे नमूना स्थान को सम्मिलित करने के लिए मूल्य के करीब होना चाहिए।) फिर 0 और 1 के मध्य समान रूप से नमूने उत्पन्न करने के लिए छद्म यादृच्छिक संख्या जनरेटर का उपयोग करके, परिकलित नमूनों को असतत संख्याओं में परिवर्तित कर सकते हैं। संभावनाओं की गणना पहले चरण में की जाती है।

इतिहास
यह वितरण जैकब बर्नौली द्वारा प्राप्त किया गया था। उन्होंने उस स्थितियोंपर विचार किया जहां p = r/(r + s) जहां p सफलता की संभावना है तथा r और s धनात्मक पूर्णांक हैं। ब्लेज़ पास्कल ने पहले उस स्थितियोंपर विचार किया था जहां p = 1/2 होता है |

यह भी देखें

 * संभार तन्त्र परावर्तन
 * बहुपद वितरण
 * ऋणात्मक द्विपद वितरण
 * बीटा-द्विपद वितरण
 * द्विपद माप, मल्टीफ्रैक्टल प्रणाली माप (गणित) का उदाहरण।
 * सांख्यिकीय यांत्रिकी
 * पाइलिंग-अप लेम्मा, परिणामी प्रायिकता जब एक्सओआर-आईएनजी स्वतंत्र बूलियन चर

बाहरी संबंध

 * Interactive graphic: Univariate Distribution Relationships
 * Binomial distribution formula calculator
 * Difference of two binomial variables: X-Y or |X-Y|
 * Querying the binomial probability distribution in WolframAlpha