सशर्त संभाव्यता

संभाव्यता सिद्धांत में, सशर्त संभाव्यता एक घटना (संभाव्यता सिद्धांत) के होने की संभावना का एक उपाय है, यह देखते हुए कि एक और घटना (धारणा, अनुमान, अभिकथन या साक्ष्य द्वारा) पहले ही घटित हो चुकी है। यह विशेष विधि घटना B पर निर्भर करती है जो किसी अन्य घटना A के साथ किसी प्रकार के संबंध के साथ घटित होती है। इस घटना में, घटना B का A के संबंध में एक सशर्त संभाव्यता द्वारा विश्लेषण किया जा सकता है। यदि रुचि की घटना है $A$ और घटना $B$ जाना जाता है या माना जाता है, की सशर्त संभावना $A$ दिया गया $B$, या की संभावना $A$ शर्त के तहत $B$, आमतौर पर लिखा जाता है $P(A|B)$ या कभी कभी $PB(A)$. इसे प्रायिकता B के अंश के रूप में भी समझा जा सकता है जो A के साथ प्रतिच्छेद करता है: $$P(A \mid B) = \frac{P(A \cap B)}{P(B)}$$. उदाहरण के लिए, किसी भी व्यक्ति को किसी भी दिन खांसी होने की संभावना केवल 5% हो सकती है। लेकिन अगर हम जानते हैं या मान लेते हैं कि वह व्यक्ति बीमार है, तो उन्हें खांसी होने की संभावना बहुत अधिक होती है। उदाहरण के लिए, किसी के अस्वस्थ (बीमार) के खांसने की सशर्त संभावना 75% हो सकती है, जिस स्थिति में हमारे पास वह होगा $P(Cough)$ = 5% और $P(Cough|Sick)$ = 75%। यद्यपि बीच संबंध है $A$ और $B$ इस उदाहरण में, इस तरह के संबंध या निर्भरता के बीच $A$ और $B$ आवश्यक नहीं है, न ही उन्हें एक साथ घटित होना है।

$P(A|B)$ के बराबर हो भी सकता है और नहीं भी $P(A)$ (बिना शर्त की संभावना $A$). अगर $P(A|B) = P(A)$, फिर ईवेंट $A$ और $B$ को स्वतंत्रता कहा जाता है (संभावना सिद्धांत) # दो घटनाएँ: ऐसे मामले में, किसी भी घटना के बारे में ज्ञान एक दूसरे की संभावना को नहीं बदलता है। $P(A|B)$ (सशर्त संभाव्यता $A$ दिया गया $B$) विशिष्ट रूप से भिन्न होता है $P(B|A)$. उदाहरण के लिए, यदि किसी व्यक्ति को डेंगू बुखार है, तो उस व्यक्ति के रोग के लिए सकारात्मक परीक्षण किए जाने की 90% संभावना हो सकती है। इस मामले में, जो मापा जा रहा है वह यह है कि if event $B$ (डेंगू होना) हुआ है, की संभावना है $A$ (सकारात्मक के रूप में परीक्षण किया गया) दिया गया है $B$ हुआ 90%, बस लिख रहा है $P(A|B)$ = 90%। वैकल्पिक रूप से, यदि किसी व्यक्ति का डेंगू बुखार के लिए सकारात्मक परीक्षण किया जाता है, तो उच्च झूठी सकारात्मक दरों के कारण उनके पास वास्तव में इस दुर्लभ बीमारी के होने की केवल 15% संभावना हो सकती है। इस मामले में, घटना की संभावना $B$ (डेंगू होना) उस घटना को देखते हुए $A$ (सकारात्मक परीक्षण) 15% या हुआ है $P(B|A)$ = 15%। अब यह स्पष्ट हो जाना चाहिए कि दो संभावनाओं को गलत तरीके से समान करने से तर्क की विभिन्न त्रुटियां हो सकती हैं, जो आमतौर पर आधार दर की गिरावट के माध्यम से देखी जाती हैं।

जबकि सशर्त संभावनाएं बेहद उपयोगी जानकारी प्रदान कर सकती हैं, सीमित जानकारी अक्सर आपूर्ति की जाती है या हाथ में होती है। इसलिए, बेयस प्रमेय का उपयोग करके एक सशर्त संभावना को उल्टा या परिवर्तित करना उपयोगी हो सकता है: $$P(A\mid B) = {{P(B\mid A) P(A)}\over{P(B)}}$$. एक अन्य विकल्प घटनाओं के बीच संबंध को स्पष्ट करने के लिए सशर्त संभावना तालिका में सशर्त संभावनाओं को प्रदर्शित करना है।

परिभाषा






एंड्री कोलमोगोरोव परिभाषा
दी गई दो घटनाएँ (संभाव्यता सिद्धांत) $1$ और $2$ संभावना स्थान के सिग्मा-फ़ील्ड से, सीमांत संभावना के साथ $3$ शून्य से अधिक होना (अर्थात, $P(B) > 0)$, की सशर्त संभावना $A$ दिया गया $B$ ($$P(A \mid B)$$) A के घटित होने की संभावना है यदि B हुआ है या माना जाता है। ए को एक प्रयोग या यादृच्छिक परीक्षण के सभी संभावित परिणामों का सेट माना जाता है जिसमें प्रतिबंधित या कम नमूना स्थान होता है। सशर्त संभाव्यता घटनाओं के संयुक्त प्रतिच्छेदन की संभावना के भागफल द्वारा पाई जा सकती है $B$ और $A$ ($$P(A \cap B)$$) - संभावना जिस पर ए और बी एक साथ होते हैं, हालांकि जरूरी नहीं कि एक ही समय में हो - और की संभावना $B$:
 * $$P(A \mid B) = \frac{P(A \cap B)}{P(B)}$$.

समान संभावना परिणामों वाले एक नमूना स्थान के लिए, घटना A की संभावना को नमूना स्थान में सभी परिणामों की संख्या में A में परिणामों की संख्या के अंश के रूप में समझा जाता है। फिर, इस समीकरण को समुच्चय के अंश के रूप में समझा जाता है $$A \cap B$$ सेट बी के लिए। ध्यान दें कि उपरोक्त समीकरण एक परिभाषा है, न कि केवल एक सैद्धांतिक परिणाम। हम मात्रा निरूपित करते हैं $$\frac{P(A \cap B)}{P(B)}$$ जैसा $$P(A\mid B)$$ और इसे सशर्त संभाव्यता कहते हैं $A$ दिया गया $B$.

संभाव्यता के स्वयंसिद्ध के रूप में
कुछ लेखक, जैसे कि ब्रूनो डी फिनेची, सशर्त प्रायिकता को प्रायिकता स्वयंसिद्ध के रूप में प्रस्तुत करना पसंद करते हैं:


 * $$P(A \cap B) = P(A \mid B)P(B)$$.

सशर्त संभाव्यता के लिए यह समीकरण, हालांकि गणितीय रूप से समतुल्य है, सहज रूप से समझने में आसान हो सकता है। इसे ए की संभावना से गुणा किए जाने वाले बी की संभावना के रूप में व्याख्या की जा सकती है, बशर्ते कि बी हुआ हो, ए और बी की एक साथ होने की संभावना के बराबर है, हालांकि एक ही समय में जरूरी नहीं है। इसके अतिरिक्त, इसे दार्शनिक रूप से पसंद किया जा सकता है; प्रमुख संभाव्यता व्याख्याओं के तहत, जैसे कि व्यक्तिपरक संभाव्यता, सशर्त संभाव्यता को आदिम इकाई माना जाता है। इसके अलावा, यह गुणा नियम संभावना की गणना करने में व्यावहारिक रूप से उपयोगी हो सकता है $$A \cap B$$ और पोंकारे सूत्र के लिए सारांश अभिगृहीत के साथ एक समरूपता का परिचय देता है:


 * $$P(A \cup B) = P(A) + P(B) - P(A \cap B)$$
 * इस प्रकार समीकरणों का एक नया प्रतिनिधित्व खोजने के लिए जोड़ा जा सकता है:
 * $$ P(A \cap B)= P(A) + P(B) - P(A \cup B) = P(A \mid B)P(B)

$$
 * $$  P(A \cup B)=  {P(A) + P(B) - P(A \mid B){P(B)}}

$$

एक सशर्त घटना की संभावना के रूप में
सशर्त संभाव्यता को सशर्त घटना की संभावना के रूप में परिभाषित किया जा सकता है $$A_B$$. गुडमैन-गुयेन-वान फ्रैसेन बीजगणित | गुडमैन-गुयेन-वान फ्रासेन सशर्त घटना को इस प्रकार परिभाषित किया जा सकता है:


 * $$A_B =

\bigcup_{i \ge 1} \left( \bigcap_{j<i} \overline{B}_j, A_i B_i \right) $$, कहाँ $$A_i $$ और $$B_i $$ ए या बी के राज्यों या तत्वों का प्रतिनिधित्व करते हैं। यह दिखाया जा सकता है


 * $$P(A_B)= \frac{P(A \cap B)}{P(B)}$$

जो सशर्त संभाव्यता की कोलमोगोरोव परिभाषा को पूरा करता है।

प्रायिकता शून्य
की घटना पर कंडीशनिंग अगर $$ P(B)=0 $$, फिर परिभाषा के अनुसार, $$ P(A \mid B) $$ परिभाषित और अपरिभाषित है।

सबसे बड़ी रुचि का मामला एक यादृच्छिक चर का है $B$, एक सतत यादृच्छिक चर पर सशर्त $A$ जिसके परिणामस्वरूप एक विशेष परिणाम होता है $B$. समारोह $$B = \{ X = x \}$$ संभाव्यता शून्य है और, इस प्रकार, पर सशर्त नहीं किया जा सकता है।

कंडीशनिंग के बजाय $Y$ ठीक होना $X$, हम इसे दूरी की तुलना में निकट होने पर शर्त लगा सकते हैं $$\epsilon$$ से दूर $x$. समारोह $$B = \{ x-\epsilon < X < x+\epsilon \}$$ आम तौर पर गैर-शून्य संभावना होगी और इसलिए, इस पर वातानुकूलित किया जा सकता है। फिर हम सीमा (गणित) ले सकते हैं
 * $$\lim_{\epsilon \to 0} P(A \mid x-\epsilon < X < x+\epsilon).$$

उदाहरण के लिए, यदि दो सतत यादृच्छिक चर $X$ और $x$ का संयुक्त घनत्व है $$f_{X,Y}(x,y)$$, फिर L'Hôpital के नियम और लाइबनिज इंटीग्रल नियम द्वारा, के संबंध में भेदभाव पर $$\epsilon$$:

\begin{aligned} \lim_{\epsilon \to 0} P(Y \in U \mid x_0-\epsilon < X < x_0+\epsilon) &= \lim_{\epsilon \to 0} \frac{\int_{x_0-\epsilon}^{x_0+\epsilon} \int_U f_{X, Y}(x, y) \mathrm{d}y \mathrm{d}x}{\int_{x_0-\epsilon}^{x_0+\epsilon} \int_\mathbb{R} f_{X, Y}(x, y) \mathrm{d}y \mathrm{d}x} \\ &= \frac{\int_U f_{X, Y}(x_0, y) \mathrm{d}y}{\int_\mathbb{R} f_{X, Y}(x_0, y) \mathrm{d}y}. \end{aligned} $$ परिणामी सीमा का सशर्त प्रायिकता बंटन है $x$ दिया गया $X$ और जब भाजक, प्रायिकता घनत्व मौजूद होता है $$f_X(x_0)$$, सख्ती से सकारात्मक है।

अपरिभाषित संभाव्यता को परिभाषित करना आकर्षक है $$P(A \mid X=x)$$ इस सीमा का उपयोग करते हुए, लेकिन यह एक सुसंगत तरीके से नहीं किया जा सकता। विशेष रूप से, यादृच्छिक चर खोजना संभव है $Y$ और $Y$ और मान $X$, $X$ जैसे कि घटनाएँ $$\{X = x\}$$ और $$\{W = w\}$$ समान हैं लेकिन परिणामी सीमाएँ नहीं हैं:
 * $$\lim_{\epsilon \to 0} P(A \mid x-\epsilon \le X \le x+\epsilon) \neq \lim_{\epsilon \to 0} P(A \mid w-\epsilon \le W \le w+\epsilon).$$

बोरेल-कोल्मोगोरोव विरोधाभास इसे एक ज्यामितीय तर्क के साथ प्रदर्शित करता है।

असतत यादृच्छिक चर
पर कंडीशनिंग

होने देना $W$ असतत यादृच्छिक चर हो और इसके संभावित परिणाम निरूपित हों $x$. उदाहरण के लिए, यदि $w$ तब लुढ़के हुए पासे के मान का प्रतिनिधित्व करता है $X$ समुच्चय है $$\{ 1, 2, 3, 4, 5, 6 \}$$. आइए प्रस्तुति के लिए मान लें कि $V$ एक असतत यादृच्छिक चर है, ताकि प्रत्येक मान में $X$ की अशून्य संभावना है।

एक मूल्य के लिए $V$ में $X$ और एक घटना $V$, सशर्त संभावना द्वारा दिया गया है $$ P(A \mid X=x) $$. लिखना
 * $$c(x,A) = P(A \mid X=x)$$

संक्षेप में, हम देखते हैं कि यह दो चरों का एक फलन है, $x$ और $V$.

एक निश्चित के लिए $A$, हम यादृच्छिक चर बना सकते हैं $$ Y = c(X, A) $$. यह के एक परिणाम का प्रतिनिधित्व करता है $$ P(A \mid X=x) $$ जब भी कोई मान $x$ का $A$ देखा जाता है।

की सशर्त संभावना $A$ दिया गया $x$ इस प्रकार एक यादृच्छिक चर के रूप में माना जा सकता है $X$ अंतराल में परिणामों के साथ $$[0,1]$$. कुल संभाव्यता के नियम से, इसका अपेक्षित मूल्य की बिना शर्त संभावना के बराबर है $A$.

आंशिक सशर्त संभावना
आंशिक सशर्त संभावना $$P(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m)$$ घटना की संभावना के बारे में है $$A$$ यह देखते हुए कि प्रत्येक शर्त घटना $$B_i$$ हद तक हुआ है $$b_i$$ (विश्वास की डिग्री, अनुभव की डिग्री) जो 100% से भिन्न हो सकती है। बार-बार, आंशिक सशर्त संभाव्यता समझ में आती है, यदि उपयुक्त लंबाई के प्रयोग दोहराव में स्थितियों का परीक्षण किया जाता है $$n$$. ऐसा $$n$$सीमित आंशिक सशर्त संभाव्यता को घटना की सशर्त अपेक्षा औसत घटना के रूप में परिभाषित किया जा सकता है $$A$$ लंबाई के टेस्टबेड में $$n$$ जो सभी संभाव्यता विनिर्देशों का पालन करता है $$B_i \equiv b_i$$, अर्थात:


 * $$P^n(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m)=

\operatorname E(\overline{A}^n\mid\overline{B}^n_1=b_1, \ldots, \overline{B}^n_m=b_m) $$

उसके आधार पर, आंशिक सशर्त संभाव्यता को इस प्रकार परिभाषित किया जा सकता है

P(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m) = \lim_{n\to\infty} P^n(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m),$$ कहाँ $$ b_i n \in \mathbb{N}$$

कट्टरपंथी संभाव्यता आंशिक सशर्त संभाव्यता का एक विशेष मामला है, जिसमें स्थिति घटनाओं को एक सेट का विभाजन बनाना चाहिए:



P(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m) = \sum^m_{i=1} b_i P(A\mid B_i) $$

उदाहरण
मान लीजिए कि कोई व्यक्ति गुप्त रूप से दो निष्पक्ष छह-पक्षीय पासा फेंकता है, और हम इस संभावना की गणना करना चाहते हैं कि पहले का फेस-अप मान 2 है, यह जानकारी दी गई है कि उनका योग 5 से अधिक नहीं है।
 * चलो डी1 पासा 1 पर लुढ़का हुआ मान हो।
 * चलो डी2 पासा 2 पर लुढ़का हुआ मूल्य हो।

संभावना कि डी1= 2

तालिका 1 दो डाइस के रोल किए गए मानों के 36 संयोजनों का नमूना स्थान दिखाती है, जिनमें से प्रत्येक संभाव्यता 1/36 के साथ होता है, लाल और गहरे भूरे रंग के सेल में प्रदर्शित संख्याओं के साथ D1 + डी2.

डी1= 36 परिणामों में से ठीक 6 में 2; इस प्रकार पी (डी1 = 2) = $X$ = $Y$:


 * {| class="wikitable" style="background:silver; text-align:center; width:300px"

! rowspan=2 colspan=2 | + ! colspan=6 | D2 ! scope="col" | 1 ! scope="col" | 2 ! scope="col" | 3 ! scope="col" | 4 ! scope="col" | 5 ! scope="col" | 6 ! rowspan=6 scope="row" | D1 ! scope="row" | 1 ! scope="row" | 2 ! scope="row" | 3 ! scope="row" | 4 ! scope="row" | 5 ! scope="row" | 6 संभावना कि डी1+ डी2≤ 5
 * + Table 1
 * 2 || 3 || 4 || 5 || 6 || 7
 * - style="background: red;"
 * 3 || 4 || 5 || 6 || 7 || 8
 * 4 || 5 || 6 || 7 || 8 || 9
 * 5 || 6 || 7 || 8 || 9 || 10
 * 6 || 7 || 8 || 9 || 10 || 11
 * 7 || 8 || 9 || 10 || 11 || 12
 * }

तालिका 2 से पता चलता है कि डी1+ डी236 परिणामों में से ठीक 10 के लिए ≤ 5, इस प्रकार P(D1+ डी2 ≤ 5) = $A$:


 * {| class="wikitable" style="background:silver; text-align:center; width:300px"

! rowspan=2 colspan=2 | + ! colspan=6 | D2 ! scope="col" | 1 ! scope="col" | 2 ! scope="col" | 3 ! scope="col" | 4 ! scope="col" | 5 ! scope="col" | 6 ! rowspan=6 scope="row" | D1 ! 1 ! scope="row" | 2 ! scope="row" | 3 ! scope="row" | 4 ! scope="row" | 5 ! scope="row" | 6 संभावना कि डी1= 2 दिया गया है कि डी1+ डी2≤ 5
 * + Table 2
 * style="background:red;" | 2 || style="background:red;" | 3 || style="background:red;" | 4 || style="background:red;" | 5 || 6 || 7
 * style="background:red;" | 3 || style="background:red;" | 4 || style="background:red;" | 5 || 6 || 7 || 8
 * style="background:red;" | 4 || style="background:red;" | 5 || 6 || 7 || 8 || 9
 * style="background:red;" | 5 || 6 || 7 || 8 || 9 || 10
 * 6 || 7 || 8 || 9 || 10 || 11
 * - style="background: red;"
 * 7 || 8 || 9 || 10 || 11 || 12
 * - style="background: red;"
 * }

तालिका 3 से पता चलता है कि इन 10 परिणामों में से 3 के लिए, डी1= 2।

इस प्रकार, सशर्त प्रायिकता P(D1= 2 | डी1+ डी2 ≤ 5) = $6/36$ = 0.3:


 * {| class="wikitable" style="text-align:center; width:300px"

! rowspan=2 colspan=2 | + ! colspan=6 | D2 ! scope="col" | 1 ! scope="col" | 2 ! scope="col" | 3 ! scope="col" | 4 ! scope="col" | 5 ! scope="col" | 6 ! rowspan=6 scope="row" | D1 ! 1 ! scope="row" | 2 ! scope="row" | 3 ! scope="row" | 4 ! scope="row" | 5 ! scope="row" | 6 यहां, सशर्त संभाव्यता की परिभाषा के लिए पहले के अंकन में, कंडीशनिंग घटना बी वह डी है1+ डी2≤ 5, और घटना A, D है1= 2. हमारे पास है $$P(A\mid B)=\tfrac{P(A \cap B)}{P(B)} = \tfrac{3/36}{10/36}=\tfrac{3}{10},$$ जैसा कि तालिका में देखा गया है।
 * + Table 3
 * style="background:silver;" | 2 || style="background:silver;" | 3 || style="background:silver;" | 4 || style="background:silver;" | 5 || 6 || 7
 * style="background:red;" | 3 || style="background:red;" | 4 || style="background:red;" | 5 || 6 || 7 || 8
 * style="background:silver;" | 4 || style="background:silver;" | 5 || 6 || 7 || 8 || 9
 * style="background:silver;" | 5 || 6 || 7 || 8 || 9 || 10
 * 6 || 7 || 8 || 9 || 10 || 11
 * 7 || 8 || 9 || 10 || 11 || 12
 * }

अनुमान में प्रयोग करें
सांख्यिकीय अनुमान में, सशर्त संभाव्यता नई जानकारी के आधार पर एक घटना (संभाव्यता सिद्धांत) की संभावना का अद्यतन है। नई जानकारी को निम्नानुसार शामिल किया जा सकता है:


 * मान लीजिए कि रुचि की घटना नमूना समष्टि में है, मान लीजिए (X,P)।
 * घटना A का घटित होना यह जानते हुए कि घटना B हुई है या घटित होगी, का अर्थ है A का घटित होना क्योंकि यह B तक ही सीमित है, अर्थात $$A \cap B$$.
 * बी की घटना के ज्ञान के बिना, ए की घटना के बारे में जानकारी केवल पी (ए) होगी
 * A के यह जानने की प्रायिकता कि घटना B घटित हुई है या होगी, की प्रायिकता होगी $$A \cap B$$ P(B) के सापेक्ष, संभावना है कि B घटित हुआ है।
 * इस में यह परिणाम $P(A \mid B) = P(A \cap B)/P(B)$ जब कभी P(B) > 0 और 0 अन्यथा।

यह दृष्टिकोण एक संभाव्यता माप में परिणत होता है जो मूल संभाव्यता माप के अनुरूप होता है और सभी संभाव्यता स्वयंसिद्धों को संतुष्ट करता है। यह सशर्त संभाव्यता माप भी यह मानने के परिणामस्वरूप हो सकता है कि X के संबंध में A की संभावना का सापेक्ष परिमाण B के संबंध में संरक्षित रहेगा (cf. #Formal_derivation नीचे)।

शब्दों के साक्ष्य या सूचना का उपयोग आम तौर पर बायेसियन संभाव्यता में किया जाता है। अनुबंधन घटना की व्याख्या वातानुकूलित घटना के साक्ष्य के रूप में की जाती है। अर्थात्, P(A) साक्ष्य E के लिए लेखांकन से पहले A की संभावना है, और P(A|E) साक्ष्य E के लिए या P(A) को अद्यतन करने के बाद A की संभावना है। यह लगातारवादी व्याख्या के अनुरूप है, जो ऊपर दी गई पहली परिभाषा है।

उदाहरण
जब मोर्स कोड प्रसारित होता है, तो एक निश्चित संभावना होती है कि जो डॉट या डैश प्राप्त हुआ था वह गलत है। इसे अक्सर संदेश के प्रसारण में हस्तक्षेप के रूप में लिया जाता है। इसलिए, डॉट भेजते समय विचार करना महत्वपूर्ण है, उदाहरण के लिए, डॉट प्राप्त होने की संभावना। इसके द्वारा दर्शाया गया है: $$P(dot \ sent \mid dot \ received) = P(dot \ received \mid dot \ sent) \frac{P(dot \ sent)}{P(dot \ received)}.$$ मोर्स कोड में, भेजने के बिंदु पर डॉट्स और डैश का अनुपात 3:4 है, इसलिए डॉट और डैश की संभावना है $$P(dot \ sent) = \frac {3}{7} \ and \  P(dash \ sent) = \frac {4}{7}$$. यदि यह मान लिया जाए कि डॉट के डैश के रूप में प्रसारित होने की संभावना 1/10 है, और संभावना है कि डैश के डॉट के रूप में प्रसारित होने की संभावना 1/10 है, तो गणना करने के लिए बेज़ के नियम का उपयोग किया जा सकता है $$P(dot \ received)$$.

$$P(dot \ received) = P(dot \ received \ \cap \ dot \ sent ) + P(dot \ received \ \cap \ dash \ sent)$$

$$P(dot \ received) = P(dot \ received \mid dot \ sent)P(dot \ sent) + P(dot \ received \mid dash \ sent)P(dash \ sent)$$

$$P(dot \ received) = \frac{9}{10}\times\frac{3}{7} + \frac{1}{10}\times\frac{4}{7} = \frac{31}{70}$$ अब, $$P(dot \ sent \mid dot \ received)$$ गणना की जा सकती है:

$$P(dot \ sent \mid dot \ received) = P(dot \ received \mid dot \ sent) \frac{P(dot \ sent)}{P(dot \ received)} = \frac{9}{10}\times \frac{\frac{3}{7}}{\frac{31}{70}} = \frac{27}{31}$$

सांख्यिकीय स्वतंत्रता
घटनाओं ए और बी को स्वतंत्रता (संभाव्यता सिद्धांत) के रूप में परिभाषित किया गया है यदि ए और बी के प्रतिच्छेदन की संभावना ए और बी की संभावनाओं के उत्पाद के बराबर है:


 * $$P(A \cap B) = P(A) P(B).$$

यदि P(B) शून्य नहीं है, तो यह उस कथन के समतुल्य है


 * $$P(A\mid B) = P(A).$$

इसी प्रकार, यदि P(A) शून्य नहीं है, तब


 * $$P(B\mid A) = P(B)$$

भी समतुल्य है। हालांकि व्युत्पन्न रूप अधिक सहज लग सकते हैं, वे पसंदीदा परिभाषा नहीं हैं क्योंकि सशर्त संभावनाएं अपरिभाषित हो सकती हैं, और पसंदीदा परिभाषा ए और बी में सममित है। स्वतंत्रता एक अलग घटना का उल्लेख नहीं करती है। यह भी ध्यान दिया जाना चाहिए कि स्वतंत्र घटना जोड़ी [ए बी] और एक घटना सी दी गई है, जोड़ी को सशर्त स्वतंत्रता के रूप में परिभाषित किया गया है यदि उत्पाद सही है:

$$P(AB \mid C) = P(A \mid C)P(B \mid C)$$ यह प्रमेय उन अनुप्रयोगों में उपयोगी हो सकता है जहां कई स्वतंत्र घटनाएं देखी जा रही हैं।

स्वतंत्र घटनाएँ बनाम परस्पर अनन्य घटनाएँ

परस्पर स्वतंत्र घटनाओं और परस्पर अनन्य घटनाओं की अवधारणाएं अलग और विशिष्ट हैं। निम्न तालिका दो मामलों के परिणामों के विपरीत है (बशर्ते कि कंडीशनिंग घटना की संभावना शून्य न हो)। वास्तव में, पारस्परिक रूप से अनन्य घटनाएँ सांख्यिकीय रूप से स्वतंत्र नहीं हो सकती हैं (जब तक कि दोनों असंभव न हों), क्योंकि यह जानना कि एक होता है, दूसरे के बारे में जानकारी देता है (विशेष रूप से, कि बाद वाला निश्चित रूप से घटित नहीं होगा)।

सामान्य भ्रम

 * इन भ्रांतियों को रॉबर्ट के. शोप के 1978 सशर्त भ्रम के साथ भ्रमित नहीं होना चाहिए, जो प्रश्न पूछने वाले प्रतितथ्यात्मक उदाहरणों से संबंधित है।

मान लें कि सशर्त प्रायिकता इसके व्युत्क्रम
के समान आकार की है

सामान्य तौर पर, यह नहीं माना जा सकता है कि P(A|B) ≈ P(B|A). यह उन लोगों के लिए भी एक घातक त्रुटि हो सकती है जो आंकड़ों से अत्यधिक परिचित हैं। P(A|B) और P(B|A) के बीच संबंध बेयस प्रमेय द्वारा दिया गया है:


 * $$\begin{align}

P(B\mid A) &= \frac{P(A\mid B) P(B)}{P(A)}\\ \Leftrightarrow \frac{P(B\mid A)}{P(A\mid B)} &= \frac{P(B)}{P(A)} \end{align}$$ यानी, P(A|B) ≈ P(B|A) केवल अगर P(B)/P(A) ≈ 1, या समकक्ष, P(A) ≈ P(B)।

मानते हुए सीमांत और सशर्त संभावनाएं समान आकार की हैं
सामान्यतः, यह नहीं माना जा सकता है कि P(A) ≈ P(A|B). ये संभावनाएं कुल संभावना के कानून के माध्यम से जुड़ी हुई हैं:
 * $$P(A) = \sum_n P(A \cap B_n) = \sum_n P(A\mid B_n)P(B_n).$$

जहां घटनाएं $$(B_n)$$ के एक सेट का एक गणनीय विभाजन बनाते हैं $$\Omega$$.

चयन पूर्वाग्रह के माध्यम से यह गिरावट उत्पन्न हो सकती है। उदाहरण के लिए, एक चिकित्सा दावे के संदर्भ में, एस$1/6$ परिस्थिति (गंभीर स्थिति) सी के परिणाम के रूप में उत्तर (पुरानी बीमारी) एस होने की घटना हो। एच को घटना होने दें कि एक व्यक्ति चिकित्सा सहायता चाहता है। मान लीजिए कि ज्यादातर मामलों में, C, S का कारण नहीं बनता है (ताकि P(S$10/36$) नीचे है)। यह भी मान लीजिए कि चिकित्सकीय ध्यान केवल तभी मांगा जाता है जब एस सी के कारण हुआ हो। रोगियों के अनुभव से, एक डॉक्टर गलत तरीके से निष्कर्ष निकाल सकता है कि पी (एस)$3/10$) उच्च है। डॉक्टर द्वारा देखी गई वास्तविक संभावना P(S$P(B|A) P(A)⁄P(B)$|एच).

ओवर- या अंडर-वेटिंग प्राइर्स
पूर्व संभाव्यता को आंशिक या पूर्ण रूप से ध्यान में नहीं रखना आधार दर उपेक्षा कहलाता है। विपरीत, पूर्व संभावना से अपर्याप्त समायोजन रूढ़िवाद (बायेसियन) है।

औपचारिक व्युत्पत्ति
औपचारिक रूप से, P(A | B) को नमूना स्थान पर एक नए प्रायिकता फ़ंक्शन के अनुसार A की संभावना के रूप में परिभाषित किया गया है, जैसे कि B में नहीं होने वाले परिणामों की प्रायिकता 0 है और यह सभी मूल संभावना उपायों के अनुरूप है। चलो Ω प्रारंभिक घटनाओं {ω} के साथ एक असतत नमूना स्थान हो, और P को Ω के σ-बीजगणित के संबंध में प्रायिकता माप होने दें। मान लीजिए कि हमें बताया जाता है कि घटना B ⊆ Ω घटित हुई है। इसे दर्शाने के लिए {ω} पर एक नया संभाव्यता वितरण (सशर्त संकेतन द्वारा दर्शाया गया) निर्दिष्ट किया जाना है। सभी घटनाएं जो बी में नहीं हैं, नए वितरण में शून्य संभावना होगी। बी में घटनाओं के लिए, दो शर्तें पूरी होनी चाहिए: बी की संभावना एक है और संभावनाओं के सापेक्ष परिमाण को संरक्षित रखा जाना चाहिए। संभाव्यता अभिगृहीतों द्वारा पूर्व की आवश्यकता होती है, और बाद वाला इस तथ्य से उपजा है कि नए संभाव्यता माप को P का अनुरूप होना चाहिए जिसमें B की संभावना एक है - और प्रत्येक घटना जो B में नहीं है, इसलिए, एक है शून्य संभावना। इसलिए, कुछ पैमाने के कारक α के लिए, नए वितरण को संतुष्ट होना चाहिए:

α का चयन करने के लिए 1 और 2 को 3 में प्रतिस्थापित करना:
 * 1) $$\omega \in B : P(\omega\mid B) = \alpha P(\omega)$$
 * 2) $$\omega \notin B : P(\omega\mid B) = 0$$
 * 3) $$\sum_{\omega \in \Omega} {P(\omega\mid B)} = 1.$$


 * $$\begin{align}

1 &= \sum_{\omega \in \Omega} {P(\omega \mid B)} \\ &= \sum_{\omega \in B} {P(\omega\mid B)} + \cancelto{0}{\sum_{\omega \notin B} P(\omega\mid B)} \\ &= \alpha \sum_{\omega \in B} {P(\omega)} \\[5pt] &= \alpha \cdot P(B) \\[5pt] \Rightarrow \alpha &= \frac{1}{P(B)} \end{align}$$ तो नया संभाव्यता वितरण है

अब एक सामान्य घटना A के लिए,
 * 1) $$\omega \in B: P(\omega\mid B) = \frac{P(\omega)}{P(B)}$$
 * 2) $$\omega \notin B: P(\omega\mid B) = 0$$


 * $$\begin{align}

P(A\mid B) &= \sum_{\omega \in A \cap B} {P(\omega \mid B)} + \cancelto{0}{\sum_{\omega \in A \cap B^c} P(\omega\mid B)} \\ &= \sum_{\omega \in A \cap B} {\frac{P(\omega)}{P(B)}} \\[5pt] &= \frac{P(A \cap B)}{P(B)} \end{align}$$

यह भी देखें

 * बेयस प्रमेय
 * बायेसियन ज्ञानमीमांसा
 * बोरेल-कोल्मोगोरोव विरोधाभास
 * श्रृंखला नियम (संभावना)
 * वर्ग सदस्यता संभावनाएं
 * सशर्त स्वतंत्रता
 * सशर्त संभाव्यता वितरण
 * कंडीशनिंग (संभावना)
 * संयुक्त संभाव्यता वितरण
 * मोंटी हॉल समस्या
 * जोड़ीदार स्वतंत्रता
 * अतीत से संभावना
 * नियमित सशर्त संभावना

बाहरी संबंध

 * Visual explanation of conditional probability
 * Visual explanation of conditional probability