बायेसियन निष्कर्ष

बायेसियन अनुमान सांख्यिकीय अनुमान की एक विधि है जिसमें अधिक प्रमाण या जानकारी उपलब्ध होने पर परिकल्पना की संभावना को अद्यतन करने के लिए बेयस प्रमेय का उपयोग किया जाता है। बायेसियन अनुमान सांख्यिकी और विशेषकर गणितीय सांख्यिकी में एक महत्वपूर्ण तकनीक होती है। डेटा के अनुक्रम के अनुक्रमिक विश्लेषण में बायेसियन अद्यतनीकरण विशेष रूप से महत्वपूर्ण है। बायेसियन अनुमान को विज्ञान, अभियांत्रिकी, दर्शन, चिकित्सा, खेल और कानून सहित गतिविधियों की एक विस्तृत श्रृंखला में अनुप्रयोग पाया है। निर्णय सिद्धांत के दर्शन में, बायेसियन अनुमान व्यक्तिपरक संभाव्यता से निकटता से संबंधित होता है, जिसे अधिकांशतः "बायेसियन संभाव्यता" कहा जाता है।

औपचारिक व्याख्या
बायेसियन अनुमान दो पूर्ववृत्तों के परिणामस्वरूप पश्च के रूप में संभाव्यता को प्राप्त करता है: एक पूर्व संभाव्यता और एक "संभावना फलन " जो देखे गए डेटा के लिए एक सांख्यिकीय मॉडल से प्राप्त होता है। बायेसियन अनुमान, बायेस प्रमेय के अनुसार पश्च संभाव्यता की गणना करता है: $$P(H \mid E) = \frac{P(E \mid H) \cdot P(H)}{P(E)},$$ जहाँ
 * $$H$$ किसी भी परिकल्पना को दर्शाता है जिसकी संभावना डेटा से प्रभावित हो सकती है (जिसे नीचे प्रमाण दिया गया है)। अधिकांशतः प्रतिस्पर्धी परिकल्पनाएँ होती हैं, और कार्य यह निर्धारित करना है कि कौन सी सबसे अधिक संभावित होती है।
 * $$P(H)$$, पूर्व संभाव्यता, परिकल्पना की संभाव्यता का अनुमान होता है $$H$$ डेटा से पहले $$E$$, वर्तमान प्रमाण, मनाया जाता है।
 * $$E$$, प्रमाण, नए डेटा से मेल खाता है जिसका उपयोग पूर्व संभाव्यता की गणना में नहीं किया गया था।
 * $$P(H \mid E)$$, पश्च संभाव्यता, की प्रायिकता है $$H$$ दिया गया, अर्थात, $$E$$, के बाद $$E$$ देखा जाता है। हम यही जानना चाहते हैं: प्रेक्षित साक्ष्यों को देखते हुए एक परिकल्पना की संभावना होती है।
 * $$P(E \mid H)$$ अवलोकन की संभावना होती है $$E$$ दिया गया और $$H$$ को संभाव्यता कहा जाता है। एक समारोह के रूप में $$E$$ के साथ $$H$$ निश्चित, यह दी गई परिकल्पना के साथ साक्ष्य की अनुकूलता को इंगित करता है। संभाव्यता फलन साक्ष्य का एक फलन होता है, $$E$$, जबकि $$H$$ पश्च संभाव्यता परिकल्पना का एक फलन होता है।
 * $$P(E)$$ कभी-कभी सीमांत संभावना या "मॉडल साक्ष्य" कहा जाता है। यह कारक विचार की जा रही सभी संभावित परिकल्पनाओं के लिए समान है (जैसा कि इस तथ्य से स्पष्ट है कि परिकल्पना अन्य सभी कारकों के विपरीत, $$H$$ प्रतीक में कहीं भी प्रकट नहीं होता है) और इसलिए यह विभिन्न परिकल्पनाओं की सापेक्ष संभावनाओं को निर्धारित करने में कारक नहीं होता है।

के विभिन्न मूल्यों के लिए $$H$$, केवल कारक $$P(H)$$ और $$P(E \mid H)$$, दोनों अंश में, दोनों अंश में, के मान को प्रभावित करते हैं $$P(H \mid E)$$ – एक परिकल्पना की पिछली संभावना इसकी पूर्व संभावना (इसकी अंतर्निहित संभावना) और नई अर्जित संभावना (नए देखे गए साक्ष्य के साथ इसकी संगतता) के समानुपाती होती है।

बेज़ के नियम को इस प्रकार भी लिखा जा सकता है:$$\begin{align} P(H \mid E) &= \frac{P(E \mid H) P(H)}{P(E)} \\ &= \frac{P(E \mid H) P(H)}{P(E \mid H) P(H) + P(E \mid \neg H) P(\neg H)} \\ &= \frac{1}{1 + \left(\frac{1}{P(H)} - 1\right) \frac{P(E \mid \neg H)}{P(E \mid H)} } \end{align}$$ क्योंकि $$ P(E) = P(E \mid H) P(H) + P(E \mid \neg H) P(\neg H) $$ और $$ P(H) + P(\neg H) = 1, $$ जहाँ $$\neg H$$ क्या नहीं है $$H$$, का तार्किक निषेध $$H$$

समीकरण को याद रखने का एक त्वरित और आसान विधि सशर्त संभाव्यता का उपयोग करना होगा संभाव्यता के अभिगृहीतीय के रूप में: $$P(E \cap H) = P(E \mid H) P(H) = P(H \mid E) P(E).$$

बायेसियन अद्यतनीकरण के विकल्प
बेयसियन अद्यतन व्यापक रूप से उपयोग किया जाता है और कम्प्यूटेशनल रूप से सुविधाजनक होता है। चूँकि, यह एकमात्र अद्यतन नियम नहीं है जिसे तर्कसंगत माना जा सकता है।

इयान हैकिंग इयान हैकिंग ने नोट किया कि पारंपरिक "डच पुस्तक" तर्कों ने बायेसियन अद्यतन को निर्दिष्ट नहीं किया : उन्होंने संभावना को खुला छोड़ दिया कि गैर-बायेसियन अद्यतन नियम डच पुस्तकों से बच सकते हैं। हैकिंग ने लिखा: और न तो डच पुस्तक तर्क और न ही संभाव्यता अभिगृहीतीयों के प्रमाणों के वैयक्तिकीय आयुधागार में कोई अन्य गतिशील धारणा पर जोर देता है। कोई भी बायेसियनवाद को सम्मलित नहीं करता है। इसलिए वैयक्तिकीय को बायेसियन होने के लिए गतिशील धारणा की आवश्यकता होती है। यह सच है कि निरंतरता में एक व्यक्तिवादी अनुभव से सीखने के बायेसियन मॉडल को त्याग सकता है। नमक अपना स्वाद खो सकता है।"

वास्तव में, ऐसे गैर-बायेसियन अद्यतन नियम हैं जो रिचर्ड सी. जेफरी के नियम के प्रकाशन के बाद डच पुस्तकों (जैसा कि "संभाव्यता कीनेमेटीक्स" पर साहित्य में चर्चा की गई है) जो बेयस के नियम को उस स्थिति में लागू करता है जहां साक्ष्य को स्वयं एक संभावना दी गई है। बायेसियन अद्यतन की विशिष्ट आवश्यकता के लिए आवश्यक अतिरिक्त परिकल्पनाओं को पर्याप्त, जटिल और असंतोषजनक माना गया है।

विशिष्ट और व्यापक संभावनाओं पर अनुमान
यदि साक्ष्य का उपयोग एक साथ विशिष्ट और संपूर्ण प्रस्तावों के समुच्चय पर को अद्यतन करने के लिए किया जाता है, तो बायेसियन अनुमान को समग्र रूप से इस प्रत्यय विभाजन पर कार्य करने के रूप में माना जा सकता है।

सामान्य सूत्रीकरण


मान लीजिए कि एक प्रक्रिया स्वतंत्र और समान रूप से वितरित वृत्तांत को उत्पन्न करती है $$E_n,\ n = 1, 2, 3, \ldots$$, किन्तु संभाव्यता विभाजन अज्ञात होता है। वृत्तांत रेखांतर $$\Omega$$ इस प्रक्रिया की धारा अवस्था का प्रतिनिधित्व करते हैं। प्रत्येक मॉडल को वृत्तांत द्वारा दर्शाया जाता है $$M_m$$ सशर्त संभावनाएँ $$P(E_n \mid M_m)$$ मॉडल को परिभाषित करने के लिए निर्दिष्ट होते हैं। $$P(M_m)$$ में डिग्री होती है $$M_m$$ पहले अनुमान चरण से पहले, $$\{P(M_m)\}$$प्रारंभिक पूर्व संभावनाओं का एक समुच्चय होता है। इनका योग 1 होना चाहिए, अन्यथा ये यादृच्छिक होते है।

मान लीजिए कि प्रक्रिया को उत्पन्न करने के लिए मनाया जाता है $$E \in \{E_n\}$$ प्रत्येक के लिए $$M \in \{M_m\}$$, पूर्व $$P(M)$$ को पीछे की ओर अद्यतन किया गया है $$P(M \mid E)$$ बेयस प्रमेय से:

अतिरिक्त प्रमाण देखने पर, इस प्रक्रिया को पुनरावृत्त किया जा सकता है।

गुणज अवलोकन
स्वतंत्र और समान रूप से वितरित अवलोकनों के अनुक्रम के लिए $$\mathbf{E} = (e_1, \dots, e_n)$$, यह प्रेरण यह दर्शाया जा सकता है कि उपरोक्त का बार-बार प्रयोग समतुल्य होता है $$P(M \mid \mathbf{E}) = \frac{P(\mathbf{E} \mid M)}{\sum_m {P(\mathbf{E} \mid M_m) P(M_m)}} \cdot P(M),$$ जहाँ $$P(\mathbf{E} \mid M) = \prod_k{P(e_k \mid M)}$$

पैरामीट्रिक सूत्रीकरण: औपचारिक विवरण को प्रेरित करना
मॉडलों के समष्टि को पैरामीटराइज़ करके, सभी मॉडलों में एक ही चरण में अद्यतन किया जा सकता है। मॉडल समष्टि पर पैरामीटर विभाजन मे मान्यता के रूप में माना जा सकता है। इस खंड में वियोजन को निरंतर के रूप में व्यक्त किया जाता है, जो संभाव्यता घनत्व द्वारा दर्शाया जाता है, क्योंकि यह सामान्य स्थिति है। चूँकि, यह तकनीक अलग-अलग विभाजन ों पर समान रूप से लागू होती है।

मान लीजिए सदिश $$\boldsymbol{\theta}$$ पैरामीटर स्पेस का विस्तार करें। प्रारंभिक पूर्व विभाजन समाप्त होने पर $$\boldsymbol{\theta}$$ जहां $$p(\boldsymbol{\theta} \mid \boldsymbol{\alpha})$$, जहाँ $$\boldsymbol{\alpha}$$ पूर्व के पैरामीटरों का एक समुच्चय, या हाइपरपैरामीटर होते है। मान लेते है $$\mathbf{E} = (e_1, \dots, e_n)$$ स्वतंत्र और समान रूप से वितरित यादृच्छिक चर अवलोकनों का एक क्रम हो, जहां सभी, $$e_i$$ के रूप में वितरित किया जाता है $$p(e \mid \boldsymbol{\theta})$$ बेयस प्रमेय को उत्‍तरबंटन ज्ञात करने के लिए लागू किया जाता है $$\boldsymbol{\theta}$$:

$$\begin{align} p(\boldsymbol{\theta} \mid \mathbf{E}, \boldsymbol{\alpha}) &= \frac{p(\mathbf{E} \mid \boldsymbol{\theta}, \boldsymbol{\alpha})}{p(\mathbf{E} \mid \boldsymbol{\alpha})} \cdot p(\boldsymbol{\theta} \mid \boldsymbol{\alpha}) \\ &= \frac{p(\mathbf{E} \mid \boldsymbol{\theta}, \boldsymbol{\alpha})}{\int p(\mathbf{E} \mid \boldsymbol{\theta}, \boldsymbol{\alpha}) p(\boldsymbol{\theta} \mid \boldsymbol{\alpha}) \, d\boldsymbol{\theta}} \cdot p(\boldsymbol{\theta} \mid \boldsymbol{\alpha}), \end{align}$$ जहाँ $$p(\mathbf{E} \mid \boldsymbol{\theta}, \boldsymbol{\alpha}) = \prod_k p(e_k \mid \boldsymbol{\theta})$$

परिभाषाएं

 * $$x$$, सामान्य रूप से एक डेटा बिंदु यह वास्तव में मूल्यों का एक यादृच्छिक सदिश हो सकता है।
 * $$\theta$$, डेटा बिंदु के विभाजन का अर्थात, पैरामीटर, अर्थात , $x \sim p(x \mid \theta)$ यह प्राचलों का एक यादृच्छिक सदिश हो सकता है।
 * $$\alpha$$, पैरामीटर विभाजन का हाइपरपरमीटर, अर्थात, $\theta \sim p(\theta \mid \alpha)$ यह हाइपरपरमेटर्स का एक यादृच्छिक सदिश हो सकता है।
 * $$\mathbf{X}$$ नमूना है, एक समुच्चय का $$n$$ अवलोकन किए गए डेटा बिंदु, अर्थात, $$x_1, \ldots, x_n$$
 * $$\tilde{x}$$, एक नया डेटा बिंदु जिसके विभाजन की प्रागुक्त की जानी होती है।

बायेसियन अनुमान
= \frac{p(\mathbf{X} \mid \theta,\alpha) p(\theta \mid \alpha)}{p(\mathbf{X} \mid \alpha)} \propto p(\mathbf{X} \mid \theta,\alpha) p(\theta \mid \alpha).$$ इसे शब्दों में इस प्रकार व्यक्त किया जाता है, "पोस्टीरियर पूर्व संभावना समय के समानुपाती होता है", या कभी-कभी "पोस्टीरियर = संभावना समय पूर्व, साक्ष्य से अधिक" के रूप में व्यक्त किया जाता है।
 * पूर्व विभाजन किसी भी डेटा के देखे जाने से पहले पैरामीटर का विभाजन होता है, अर्थात $$p(\theta \mid \alpha)$$ पूर्व वितरण आसानी से निर्धारित नहीं किया जा सकता है;; ऐसे स्थिति में, एक संभावना यह हो सकती है कि नए अवलोकनों के साथ इसे अद्यतन करने से पहले पूर्व विभाजन प्राप्त करने के लिए जेफ़रीज़ का उपयोग किया जाता है।
 * नमूना वितरण अपने मापदंडों पर सशर्त देखे गए डेटा का वितरण है, अर्थात। $p(\mathbf{X} \mid \theta)$ इसे प्रायिकता फलन भी कहा जाता है, विशेष रूप से जब पैरामीटर के रूप में देखा जाता है, कभी-कभी लिखा जाता है $$\operatorname{L}(\theta \mid \mathbf{X}) = p(\mathbf{X} \mid \theta)$$
 * सीमांत संभावना (कभी-कभी प्रमाण भी कहा जाता है) पैरामीटर पर देखे गए प्रेक्षित डेटा का वितरण होता है, अर्थात। $$p(\mathbf{X} \mid \alpha) = \int p(\mathbf{X} \mid \theta) p(\theta \mid \alpha) d\theta.$$ यह एक ज्यामितीय अर्थ में डेटा और विशेषज्ञ की राय के बीच समझौते को ज्यामितीय अर्थ में मापता है, जिसे त्रुटिहीन बनाया जा सकता है।
 * प्रेक्षित डेटा को ध्यान में रखने के बाद पश्च वितरण पैरामीटर का वितरण होता है। यह बेयस नियम द्वारा निर्धारित किया जाता है, जो बायेसियन अनुमान का केंद्र बनता है:$$p(\theta \mid \mathbf{X},\alpha) = \frac{p(\theta,\mathbf{X},\alpha)}{p(\mathbf{X},\alpha)} = \frac{p(\mathbf{X}\mid\theta,\alpha)p(\theta,\alpha)}{p(\mathbf{X}\mid\alpha)p(\alpha)}
 * व्यवहारतः, मशीन लर्निंग में उपयोग किए जाने वाले लगभग सभी जटिल बायेसियन मॉडल के लिए, उत्‍तरबंटन $$p(\theta \mid \mathbf{X},\alpha)$$ एक बंद रूप मे प्राप्त नहीं होता है, क्योंकि मुख्यतः इसके लिए पैरामीटर समष्टि $$\theta$$ बहुत अधिक हो सकता है, या बायेसियन मॉडल अवलोकनों से तैयार की गई कुछ पदानुक्रमित संरचना को प्रतिधारित रखता है $$\mathbf{X}$$ और पैरामीटर $$\theta$$ ऐसी स्थितियों में, हमें सन्निकटन तकनीकों का सहारा लेना होगा।

बायेसियन पूर्वाभास
बायेसियन सिद्धांत भविष्य कहनेवाला अनुमान लगाने के लिए पश्च भविष्यवाणिय विभाजन के उपयोग के लिए कहता है, अर्थात, एक नए, अप्रमाणित डेटा बिंदु के विभाजन की पूर्वाभास करने के लिए। अर्थात्, पूर्वाभास के रूप में एक निश्चित बिंदु के बजाय, संभावित बिंदुओं पर विभाजन लौटाया जाता है। केवल इस तरह से उपयोग किए गए पैरामीटर (ओं) का संपूर्ण उत्‍तरबंटन है। तुलनात्मक रूप से, फ़्रीक्वेंटिस्ट आँकड़ों में पूर्वाभास में अधिकांशतः पैरामीटर (ओं) का एक इष्टतम बिंदु अनुमान लगाना सम्मलित होता है - उदाहरण के लिए, अधिकतम संभावना या अधिकतम पश्चगामी अनुमान (एमएपी) - और फिर इस अनुमान को डेटा बिंदु के विभाजन के सूत्र में प्लग करना. इसका नुकसान यह है कि यह पैरामीटर के मूल्य में किसी भी अनिश्चितता के लिए जिम्मेदार नहीं है, और इसलिए अनुमानित विभाजन के भिन्नता को कम करके आंका जाएगा।
 * पिछला प्रागुक्तीय विभाजन एक नए डेटा बिंदु का वितरण होता है जो पूर्वसूचना के रूप में उपांतिकीकृत पर होता है: $$p(\tilde{x} \mid \mathbf{X},\alpha) = \int p(\tilde{x} \mid \theta) p(\theta \mid \mathbf{X},\alpha) d\theta$$
 * पूर्व पूर्वानुमानित विभाजन एक नए डेटा बिंदु का विभाजन है, जो पूर्व की तुलना में हाशिए पर है: $$p(\tilde{x} \mid \alpha) = \int p(\tilde{x} \mid \theta) p(\theta \mid \alpha) d\theta$$

कुछ उदाहरणों में, फ़्रीक्वेंटिस्ट आँकड़े इस समस्या को हल कर सकते हैं। उदाहरण के लिए, प्रत्यय ्यता अंतराल और प्रागुक्‍तिअंतराल फ्रिक्वेन्टिन सांख्यिकी में जब अज्ञात माध्य और प्रसरण के साथ एक सामान्य विभाजन से निर्मित होते हैं तो एक छात्र के टी-वितरण का उपयोग करके निर्मित होते हैं। यह सही ढंग से भिन्नता का अनुमान लगाता है, इस तथ्य के कारण कि (1) सामान्य रूप से वितरित रैंडम चर का औसत भी सामान्य रूप से वितरित किया जाता है, और (2) अज्ञात माध्य और भिन्नता के साथ सामान्य रूप से वितरित डेटा बिंदु का भविष्य कहनेवाला विभाजन, संयुग्मित या गैर-सूचनात्मक पूर्ववर्तियों का उपयोग करता है , के पास विद्यार्थी का t-विभाजन है। बायेसियन आंकड़ों में, चूँकि , पश्च भविष्यवाणिय विभाजन को त्रुटिहीन रूप से निर्धारित किया जा सकता है - या कम से कम यादृच्छिक स्तर पर जब संख्यात्मक विधियों का उपयोग किया जाता है।

दोनों प्रकार के भविष्यवाणिय विभाजन में एक यौगिक संभाव्यता विभाजन का रूप होता है (जैसा कि सीमांत संभावना है)। वास्तव में, यदि पूर्व विभाजन एक संयुग्मित पूर्व है, जैसे कि पूर्व और उत्‍तरबंटन एक ही श्रेणी से आते हैं, तो यह देखा जा सकता है कि पूर्व और पश्च भविष्यवाणिय विभाजन भी यौगिक विभाजन के एक ही श्रेणी से आते हैं। अंतर केवल इतना है कि पोस्टीरियर पूर्वानुमानित वितरण हाइपरपरमेटर्स के अपडेटेड वैल्यूज (संयुग्म पूर्व लेख में दिए गए बायेसियन अपडेट नियमों को लागू करते हुए) का उपयोग करता है, जबकि पूर्व पूर्वानुमानित वितरण उन हाइपरपैरामीटर्स के मूल्यों का उपयोग करता है जो पूर्व विभाजन में दिखाई देते हैं।

कारक की व्याख्या
$ \frac{P(E \mid M)}{P(E)} > 1 \Rightarrow P(E \mid M) > P(E)$. अर्थात्, यदि मॉडल सत्य थे, तो प्रमाण की वर्तमान स्थिति की पूर्वाभास की तुलना में अधिक होने की संभावना होगी। विपरीत प्रत्यय में कमी के लिए लागू होता है। यदि प्रत्यय  नहीं बदलता है, $ \frac{P(E \mid M)}{P(E)} = 1 \Rightarrow P(E \mid M) = P(E)$. अर्थात प्रमाण मॉडल से स्वतंत्र है। यदि मॉडल सत्य थे, तो प्रमाण ठीक उसी तरह की संभावना होगी जैसा कि प्रत्यय की वर्तमान स्थिति द्वारा पूर्वाभास की गई थी।

क्रॉमवेल का नियम
यदि $$P(M) = 0$$ तब $$P(M \mid E) = 0$$. यदि $$P(M) = 1$$, तब $$P(M|E) = 1$$ इसका अर्थ यह निकाला जा सकता है कि दोषसिद्धि प्रति-साक्ष्य के प्रति असंवेदनशील होती है।

पूर्व सीधे बेयस प्रमेय से अनुसरण करता है। उत्तरार्द्ध को $$M$$ के बाद वाले वृत्तांत को पहले नियम मे लागू करके प्राप्त नहीं किया जा सकता है, यदि $$1 - P(M) = 0$$, तब $$1 - P(M \mid E) = 0$$ जिससे परिणाम तुरंत सामने आता है।

पश्च भाग का स्पर्शोन्मुख व्यवहार
एक प्रत्यय विभाजन के व्यवहार पर विचार करें क्योंकि यह स्वतंत्र और समान रूप से वितरित परीक्षणों के साथ बड़ी संख्या में, पोस्टीरियर गाऊसी विभाजन में परिवर्तित हो जाता है, जो कि कुछ शर्तों के अनुसार प्रारंभिक पूर्व से स्वतंत्र होता है, जो सबसे पहले जोसेफ एल द्वारा उल्लिखित और कठोर रूप से सिद्ध होता है। 1948 में डूब, अर्थात् यदि विचाराधीन यादृच्छिक चर में परिमित संभाव्यता समष्टि है। अधिक सामान्य परिणाम बाद में सांख्यिकीविद् डेविड ए. फ्रीडमैन (सांख्यिकीविद) | डेविड ए. फ्रीडमैन द्वारा प्राप्त किए गए, जिन्होंने 1963 में दो मौलिक शोध पत्रों में प्रकाशित किया और 1965 कब और किन परिस्थितियों में पोस्टीरियर के स्पर्शोन्मुख व्यवहार की गारंटी है। उनका 1963 का पेपर, दूब (1949) की तरह परिमित स्थिति मानता है और एक संतोषजनक निष्कर्ष पर पहुंचता है। चूँकि, यदि यादृच्छिक चर में एक अनंत किन्तु गणनीय प्रायिकता समष्टि है (अर्थात, अनंत कई चेहरों के साथ मरने के अनुरूप) 1965 का पेपर दर्शाता है कि घने उपसमुच्चय के लिए बर्नस्टीन-वॉन मिज़ प्रमेय लागू नहीं होता है। इस स्थिति में लगभग निश्चित रूप से कोई स्पर्शोन्मुख अभिसरण नहीं है। बाद में 1980 और 1990 के दशक में डेविड ए. फ्रीडमैन (सांख्यिकीविद्) और फारसी डीकन ने अनंत गणनीय संभावना वाले समष्टिों के स्थिति पर काम करना जारी रखा। संक्षेप में, प्रारंभिक पसंद के प्रभावों को दबाने के लिए अपर्याप्त परीक्षण हो सकते हैं, और विशेष रूप से बड़े (किन्तु परिमित) सिस्टम के लिए अभिसरण बहुत धीमा हो सकता है।

संयुग्म पूर्व
प्राचलित रूप में, पूर्व विभाजन को अधिकांशतः विभाजन के एक श्रेणी से माना जाता है जिसे संयुग्मित कहा जाता है। संयुग्म पूर्व की उपयोगिता यह है कि संबंधित उत्‍तरबंटन एक ही श्रेणी में होगा, और गणना बंद-रूप अभिव्यक्ति में व्यक्त की जा सकती है।

मापदंडों और पूर्वानुमानों का अनुमान
किसी पैरामीटर या चर का अनुमान लगाने के लिए अधिकांशतः उत्‍तरबंटन का उपयोग करना वांछित होता है। बायेसियन आकलन के कई विधि उत्‍तरबंटन से केंद्रीय प्रवृत्ति का चयन करते हैं।

एक आयामी समस्याओं के लिए, व्यावहारिक निरंतर समस्याओं के लिए एक अद्वितीय माध्यिका उपस्थित है। पश्च माध्यिका एक मजबूत आँकड़ों के रूप में आकर्षक है। यदि उत्‍तरबंटन के लिए एक परिमित माध्य उपस्थित है, तो पश्च माध्य अनुमान की एक विधि होती है। $$\tilde \theta = \operatorname{E}[\theta] = \int \theta \, p(\theta \mid \mathbf{X},\alpha) \, d\theta$$ अधिकतम प्रायिकता वाला मान लेने से अधिकतम पोस्टीरियोरी अनुमान मैक्सिमम ए पोस्टीरियोरी (एमएपी) अनुमान परिभाषित होता है: $$\{ \theta_{\text{MAP}}\} \subset \arg \max_\theta p(\theta \mid \mathbf{X},\alpha) $$ ऐसे उदाहरण हैं जहां कोई अधिकतम प्राप्त नहीं हुआ है, इस स्थिति में एमएपी अनुमानों का समुच्चय खाली समुच्चय होता है।

आकलन के अन्य विधि हैं जो नुकसान के कार्य के संबंध में पश्च (अपेक्षित-पश्च हानि) को कम करते हैं, और ये नमूनाकरण विभाजन (लगातार आंकड़े) का उपयोग करके सांख्यिकीय निर्णय सिद्धांत के लिए रुचि रखते हैं। एक नए अवलोकन का पश्च भविष्य कहनेवाला विभाजन $$\tilde{x}$$ (जो पिछली टिप्पणियों से स्वतंत्र है) द्वारा निर्धारित किया जाता है $$p(\tilde{x}|\mathbf{X},\alpha) = \int p(\tilde{x},\theta \mid \mathbf{X},\alpha) \, d\theta = \int p(\tilde{x} \mid \theta) p(\theta \mid \mathbf{X},\alpha) \, d\theta .$$

एक परिकल्पना की संभावना
मान लीजिए कि कुकीज़ से भरे दो कटोरे हैं। बाउल #1 में 10 चॉकलेट चिप और 30 प्लेन कुकीज हैं, जबकि बाउल #2 में प्रत्येक में 20 चॉकलेट हैं। हमारा मित्र फ्रेड यादृच्छिक रूप से एक कटोरा चुनता है, और फिर यादृच्छिक रूप से एक कुकी चुनता है। हम मान सकते हैं कि यह मानने का कोई कारण नहीं है कि फ्रेड एक कटोरी को दूसरे से अलग मानता है, इसी तरह कुकीज़ के लिए भी। कुकी एक सादा निकली। यह कितना संभव है कि फ्रेड ने इसे #1 कटोरे से बाहर निकाला?

सहज रूप से, यह स्पष्ट प्रतीत होता है कि उत्तर आधे से अधिक होना चाहिए, क्योंकि कटोरी #1 में अधिक सादे कुकीज़ हैं। बेयस प्रमेय द्वारा त्रुटिहीन उत्तर दिया गया है। होने देना $$H_1$$ कटोरा #1 के अनुरूप है, और $$H_2$$ #2 गेंदबाजी करने के लिए। यह दिया गया है कि कटोरे फ्रेड के दृष्टिकोण से समान हैं, इस प्रकार $$P(H_1)=P(H_2)$$, और दोनों का योग 1 होना चाहिए, इसलिए दोनों 0.5 के बराबर हैं। समारोह $$E$$ एक सादे कुकी का अवलोकन है। कटोरे की सामग्री से हम यह जानते हैं $$P(E \mid H_1) = 30/40 = 0.75$$ और $$P(E \mid H_2) = 20/40 = 0.5.$$ बेयस का सूत्र तब उपजता है $$\begin{align} P(H_1 \mid E) &= \frac{P(E \mid H_1)\,P(H_1)}{P(E \mid H_1)\,P(H_1)\;+\;P(E \mid H_2)\,P(H_2)} \\ \\ \ & = \frac{0.75 \times 0.5}{0.75 \times 0.5 + 0.5 \times 0.5} \\ \\ \ & = 0.6 \end{align}$$ इससे पहले कि हम कुकी का अवलोकन करते, हमने फ्रेड के लिए चुनी हुई कटोरी #1 के लिए जो प्रायिकता निर्धारित की थी, वह पूर्व प्रायिकता थी, $$P(H_1)$$, जो 0.5 था। कुकी का अवलोकन करने के बाद, हमें संभावना को संशोधित करना चाहिए $$P(H_1 \mid E)$$, जो 0.6 है।

पूर्वसूचना देना
एक पुरातत्वविद् 11वीं शताब्दी से 16वीं शताब्दी के बीच मध्यकाल के माने जाने वाले समष्टि पर काम कर रहा है। चूँकि, यह अनिश्चित है कि इस अवधि में साइट कब बसी हुई थी। मिट्टी के बर्तनों के टुकड़े मिले हैं, जिनमें से कुछ चमकीले हैं और कुछ अलंकृत हैं। यह उम्मीद की जाती है कि यदि यह स्थल प्रारंभिक मध्यकाल में बसा हुआ था, तो 1% मिट्टी के बर्तनों को चमकाया जाएगा और इसके 50% क्षेत्र को सजाया जाएगा, जबकि यदि यह मध्यकालीन काल के अंत में बसा हुआ था, तो 81% चमकीला होगा और इसके 5% क्षेत्र को सजाया गया है। पुरातत्त्ववेत्ता निवास की तिथि में कितना आश्वस्त हो सकता है क्योंकि टुकड़ों का पता लगाया गया है?

निरंतर चर में प्रत्यय की डिग्री $$C$$ (शताब्दी) की गणना घटनाओं के असतत समुच्चय के साथ की जानी है $$\{GD,G \bar D, \bar G D, \bar G \bar D\}$$ प्रमाण के रूप में। समय के साथ शीशा लगाना और सजावट की रैखिक भिन्नता मानते हुए, और ये चर स्वतंत्र हैं,

$$P(E=GD \mid C=c) = (0.01 + \frac{0.81-0.01}{16-11}(c-11))(0.5 - \frac{0.5-0.05}{16-11}(c-11))$$ $$P(E=G \bar D \mid C=c) = (0.01 + \frac{0.81-0.01}{16-11}(c-11))(0.5 + \frac{0.5-0.05}{16-11}(c-11))$$ $$P(E=\bar G D \mid C=c) = ((1-0.01) - \frac{0.81-0.01}{16-11}(c-11))(0.5 - \frac{0.5-0.05}{16-11}(c-11))$$ $$P(E=\bar G \bar D \mid C=c) = ((1-0.01) - \frac{0.81-0.01}{16-11}(c-11))(0.5 + \frac{0.5-0.05}{16-11}(c-11))$$ पहले एक वर्दी मान लें $ f_C(c) = 0.2$, और यह कि परीक्षण स्वतंत्र और समान रूप से वितरित हैं। जब प्रकार का एक नया टुकड़ा $$e$$ की खोज की जाती है, प्रत्येक के लिए प्रत्यय डिग्री को अद्यतन करने के लिए बेयस प्रमेय लागू किया जाता है $$c$$: $$f_C(c \mid E=e) = \frac{P(E=e \mid C=c)}{P(E=e)}f_C(c) = \frac{P(E=e \mid C=c)}{\int_{11}^{16}{P(E=e \mid C=c)f_C(c)dc}}f_C(c)$$ 50 टुकड़ों के रूप में बदलते प्रत्यय एक कंप्यूटर सिमुलेशन ग्राफ़ पर दिखाया गया है। सतत तंत्रमें, साइट 1420 के आसपास बसी हुई थी, या $$c=15.2$$. 50 परीक्षणों के लिए ग्राफ के प्रासंगिक हिस्से के अनुसार क्षेत्र की गणना करके, पुरातत्वविद कह सकते हैं कि व्यावहारिक रूप से कोई संभावना नहीं है कि साइट 11वीं और 12वीं शताब्दी में बसी हुई थी, लगभग 1% संभावना है कि यह 13वीं शताब्दी के समय बसी हुई थी, 63 14वीं सदी के समय  % मौका और 15वीं सदी के समय  36%। बर्नस्टीन-वॉन मिसेस प्रमेय | बर्नस्टीन-वॉन मिसेस प्रमेय यहाँ सच्चे विभाजन के लिए स्पर्शोन्मुख अभिसरण का दावा करता है क्योंकि घटनाओं के असतत समुच्चय के अनुरूप प्रायिकता समष्टि $$\{GD,G \bar D, \bar G D, \bar G \bar D\}$$ परिमित है (पीछे के स्पर्शोन्मुख व्यवहार पर उपरोक्त अनुभाग देखें)।

फ़्रीक्वेंटिस्ट सांख्यिकी और निर्णय सिद्धांत में
एक सांख्यिकीय निर्णय सिद्धांत | बायेसियन अनुमान के उपयोग का निर्णय-सिद्धांत संबंधी औचित्य अब्राहम का जन्म हुआ द्वारा दिया गया था, जिन्होंने प्रमाणित किया कि प्रत्येक अद्वितीय बायेसियन प्रक्रिया स्वीकार्य निर्णय नियम है। इसके विपरीत, प्रत्येक स्वीकार्य निर्णय नियम सांख्यिकीय प्रक्रिया या तो बायेसियन प्रक्रिया है या बायेसियन प्रक्रियाओं की एक सीमा है। वाल्ड ने स्वीकार्य प्रक्रियाओं को बायेसियन प्रक्रियाओं (और बायेसियन प्रक्रियाओं की सीमाएं) के रूप में चित्रित किया, जिससे बायेसियन औपचारिकता पैरामीटर अनुमान, परिकल्पना परीक्षण और कंप्यूटिंग प्रत्यय अंतराल जैसे फ़्रीक्वेंटिस्ट अनुमान के ऐसे क्षेत्रों में एक केंद्रीय तकनीक बन गई।   उदाहरण के लिए:
 * कुछ शर्तों के अनुसार, सभी स्वीकार्य प्रक्रियाएं या तो बेयस प्रक्रियाएं हैं या बेयस प्रक्रियाओं की सीमाएं हैं (विभिन्न अर्थों में)। कम से कम अपने मूल रूप में ये उल्लेखनीय परिणाम अनिवार्य रूप से वाल्ड के कारण हैं। वे उपयोगी हैं क्योंकि स्वीकार्यता की तुलना में बेयस होने की संपत्ति का विश्लेषण करना आसान है। * निर्णय सिद्धांत में, स्वीकार्यता प्रमाणित करने के लिए एक अधिक सामान्य विधि में एक अद्वितीय बेयस समाधान के रूप में एक प्रक्रिया को प्रदर्शित करना सम्मलित है।
 * इस काम के पहले अध्यायों में, परिमित समर्थन के साथ पूर्व विभाजन और संबंधित बेयस प्रक्रियाओं का प्रयोग प्रयोगों की तुलना से संबंधित कुछ मुख्य प्रमेयों को स्थापित करने के लिए किया गया था। अधिक सामान्य पूर्व विभाजन ों के संबंध में बेयस की प्रक्रियाओं ने सांख्यिकी के विकास में बहुत महत्वपूर्ण भूमिका निभाई है, जिसमें इसके स्पर्शोन्मुख सिद्धांत भी सम्मलित हैं। ऐसी कई समस्याएँ हैं जहाँ उपयुक्त पूर्ववर्तियों के लिए उत्‍तरबंटन ों पर एक नज़र डालने से तुरंत रोचक जानकारी प्राप्त होती है। साथ ही, अनुक्रमिक विश्लेषण में इस तकनीक से शायद ही बचा जा सकता है।
 * एक उपयोगी तथ्य यह है कि पूरे पैरामीटर समष्टि पर उचित पूर्व लेने के द्वारा प्राप्त कोई भी बेयस निर्णय नियम स्वीकार्य होना चाहिए
 * स्वीकार्यता के विचारों के विकास में जांच का एक महत्वपूर्ण क्षेत्र पारंपरिक नमूनाकरण-सिद्धांत प्रक्रियाओं का रहा है, और कई दिलचस्प परिणाम प्राप्त हुए हैं।

मॉडल चयन
बायेसियन कार्यप्रणाली भी मॉडल चयन में एक भूमिका निभाती है जहां उद्देश्य प्रतिस्पर्धी मॉडल के एक समुच्चय से एक मॉडल का चयन करना है जो अंतर्निहित प्रक्रिया का सबसे बारीकी से प्रतिनिधित्व करता है जो प्रेक्षित डेटा उत्पन्न करता है। बायेसियन मॉडल तुलना में, दिए गए डेटा के उच्चतम पश्च संभाव्यता वाले मॉडल का चयन किया जाता है। एक मॉडल की पिछली संभावना प्रमाण, या सीमांत संभावना पर निर्भर करती है, जो इस संभावना को दर्शाती है कि मॉडल द्वारा डेटा उत्पन्न किया गया है, और मॉडल की पूर्व संभावना पर। जब दो प्रतिस्पर्धी मॉडल को एक प्राथमिकता माना जाता है, तो उन्हें समसामयिक माना जाता है, उनकी पश्च संभावनाओं का अनुपात बेयस कारक से मेल खाता है। चूंकि बायेसियन मॉडल की तुलना उच्चतम पश्च संभाव्यता वाले मॉडल का चयन करने के उद्देश्य से की जाती है, इसलिए इस पद्धति को अधिकतम पोस्टीरियरी (एमएपी) चयन नियम भी कहा जाता है। या एमएपी संभाव्यता नियम।

संभाव्य प्रोग्रामिंग
जबकि वैचारिक रूप से सरल, बायेसियन विधियाँ गणितीय और संख्यात्मक रूप से चुनौतीपूर्ण हो सकती हैं। संभाव्य प्रोग्रामिंग लैंग्वेज (PPLs) कुशल स्वचालित अनुमान विधियों के साथ बायेसियन मॉडल को आसानी से बनाने के लिए कार्यों को लागू करती हैं। यह मॉडल निर्माण को अनुमान से अलग करने में मदद करता है, जिससे चिकित्सकों को उनकी विशिष्ट समस्याओं पर ध्यान केंद्रित करने और पीपीएल को उनके लिए कम्प्यूटेशनल विवरण को संभालने की अनुमति मिलती है।

सांख्यिकीय डेटा विश्लेषण
बायेसियन सांख्यिकी पर अलग विकिपीडिया प्रविष्टि देखें, विशेष रूप से उस पृष्ठ में बायेसियन सांख्यिकी#सांख्यिकीय मॉडलिंग अनुभाग।

कंप्यूटर अनुप्रयोग
बायेसियन इंट्रेंस में कृत्रिम होशियारी और विशेषज्ञ प्रणालियों में अनुप्रयोग हैं। 1950 के दशक के उत्तरार्ध से बायेसियन अनुमान तकनीक कम्प्यूटरीकृत पैटर्न पहचान तकनीकों का एक मूलभूत हिस्सा रही है। बायेसियन विधियों और सिमुलेशन-आधारित मोंटे कार्लो विधि तकनीकों के बीच एक निरंतर बढ़ता संबंध भी है क्योंकि जटिल मॉडल को बायेसियन विश्लेषण द्वारा बंद रूप में संसाधित नहीं किया जा सकता है, जबकि एक ग्राफिकल मॉडल संरचना गिब्स नमूनाकरण और अन्य जैसे कुशल सिमुलेशन एल्गोरिदम के लिए अनुमति दे सकती है। मेट्रोपोलिस-हेस्टिंग्स एल्गोरिथम योजनाएँ। हाल ही में बायेसियन अनुमान ने इन कारणों से फाइलोजेनेटिक्स समुदाय के बीच लोकप्रियता उपलब्ध किया की है; कई अनुप्रयोग एक साथ कई जनसांख्यिकीय और विकासवादी मापदंडों का अनुमान लगाने की अनुमति देते हैं।

जैसा कि सांख्यिकीय वर्गीकरण पर लागू किया गया है, ईमेल स्पैम की पहचान करने के लिए एल्गोरिदम विकसित करने के लिए बायेसियन अनुमान का उपयोग किया गया है। स्पैम फ़िल्टरिंग के लिए बायेसियन अनुमान का उपयोग करने वाले अनुप्रयोगों में सीआरएम114 (प्रोग्राम), डीएसपीएएम, बोगोफिल्टर, स्पैमएसासिन, स्पैमबेयस, मोज़िला, एक्स ईएएमएस, और अन्य सम्मलित होती हैं। बेयस वर्गीकरणकर्ता पर लेख में स्पैम वर्गीकरण पर अधिक विस्तार से विचार किया गया है।

सोलोमोनॉफ का आगमनात्मक निष्कर्ष का सिद्धांत|सोलोमोनॉफ का आगमनात्मक अनुमान टिप्पणियों के आधार पर पूर्वाभास का सिद्धांत है; उदाहरण के लिए, प्रतीकों की दी गई श्रृंखला के आधार पर अगले प्रतीक की पूर्वाभास करना। एकमात्र धारणा यह है कि पर्यावरण कुछ अज्ञात किन्तु संगणनीय संभाव्यता विभाजन का अनुसरण करता है। यह एक औपचारिक आगमनात्मक ढांचा है जो आगमनात्मक अनुमान के दो अच्छी तरह से अध्ययन किए गए सिद्धांतों को जोड़ता है: बायेसियन सांख्यिकी और ओकाम का रेजर। सोलोमनॉफ की सार्वभौम प्रायिकता किसी संगणनीय अनुक्रम x के किसी उपसर्ग p की सभी प्रोग्रामों (एक सार्वभौम कंप्यूटर के लिए) की प्रायिकता का योग है जो p से प्रारंभ होने वाली किसी चीज़ की गणना करता है। कुछ पी और किसी भी गणना योग्य किन्तु अज्ञात संभाव्यता विभाजन को देखते हुए जिससे एक्स का नमूना लिया गया है, सार्वभौमिक पूर्व और बेयस प्रमेय का उपयोग इष्टतम फैशन में एक्स के अभी तक अनदेखे भागों की पूर्वाभास करने के लिए किया जा सकता है।

जैव सूचना विज्ञान और स्वास्थ्य संबंधी अनुप्रयोग
विभिन्न जैव सूचना विज्ञान अनुप्रयोगों में बायेसियन अनुमान लागू किया गया है, जिसमें विभेदक जीन अभिव्यक्ति विश्लेषण भी सम्मलित है। बायेसियन इंट्रेंस का उपयोग एक सामान्य कैंसर जोखिम मॉडल में भी किया जाता है, जिसे सतत व्यक्तिगत जोखिम सूचकांक (कंटीन्यूअस इंडिविजुअलाइज्ड रिस्क इंडेक्स) कहा जाता है, जहां बायेसियन मॉडल को अपडेट करने के लिए सीरियल माप सम्मलित किए जाते हैं जो मुख्य रूप से पूर्व ज्ञान से निर्मित होते हैं।

अदालत में
बायेसियन अनुमान का उपयोग जुआरियों द्वारा एक प्रतिवादी के लिए और उसके खिलाफ सुसंगत रूप से प्रमाण जमा करने के लिए किया जा सकता है, और यह देखने के लिए किया जा सकता है कि समग्रता में, यह 'उचित संदेह से परे' के लिए उनकी व्यक्तिगत सीमा को पूरा करता है या नहीं।  बेयस प्रमेय प्रस्तुत किए गए सभी प्रमाण ों पर क्रमिक रूप से लागू होता है, जिसमें एक चरण से पश्च भाग अगले के लिए पूर्व बन जाता है। बेयसियन दृष्टिकोण का लाभ यह है कि यह जूरर को प्रमाण के संयोजन के लिए एक निष्पक्ष, तर्कसंगत तंत्र प्रदान करता है। बेयस के नियम में जुआरियों को बेयस प्रमेय की व्याख्या करना उचित हो सकता है, क्योंकि सट्टेबाजी की संभावनाएं को संभावनाओं की तुलना में अधिक व्यापक रूप से समझा जाता है। वैकल्पिक रूप से, एक जुआ और सूचना सिद्धांत, गुणा को जोड़ के साथ बदलना, जूरी के लिए संभालना आसान हो सकता है।

यदि अपराध का अस्तित्व संदेह में नहीं है, केवल अपराधी की पहचान है, तो यह सुझाव दिया गया है कि योग्यता जनसंख्या पर पूर्व एक समान होना चाहिए। उदाहरण के लिए, यदि 1,000 लोग अपराध कर सकते थे, तो अपराध की पूर्व संभावना 1/1000 होगी।

जुआरियों द्वारा बेयस प्रमेय का प्रयोग विवादास्पद है। यूनाइटेड किंगडम में, एक रक्षा विशेषज्ञ गवाह ने रेजिना बनाम डेनिस जॉन एडम्स में जूरी को बेयस प्रमेय समझाया। जूरी ने दोषी ठहराया, किन्तु स्थिति इस आधार पर अपील करने गया कि ज्यूरी सदस्यों के लिए प्रमाण जमा करने का कोई साधन उपलब्ध नहीं कराया गया था जो बेयस प्रमेय का उपयोग नहीं करना चाहते थे। अपील की अदालत ने दोषसिद्धि को बरकरार रखा, किन्तु यह भी राय दी कि एक आपराधिक मुकदमे में बेयस प्रमेय, या इसी तरह की किसी भी विधि को प्रस्तुत करने के लिए जूरी को सिद्धांत और जटिलता के अनुचित और अनावश्यक दायरे में डाल दिया जाता है, जिससे वे अपने उचित कार्य से विमुख हो जाते हैं।

गार्डनर-मेडविन तर्क देता है कि एक आपराधिक मुकदमे में फैसला जिस मानदंड पर आधारित होना चाहिए वह अपराध की संभावना नहीं है, बल्कि प्रमाण की संभावना है, यह देखते हुए कि प्रतिवादी निर्दोष है (लगातारवादी पी-मूल्य के समान)। उनका तर्क है कि यदि दोष की पिछली संभावना की गणना बेयस प्रमेय द्वारा की जानी है, तो दोष की पूर्व संभावना ज्ञात होनी चाहिए। यह अपराध की घटना पर निर्भर करेगा, जो एक आपराधिक मुकदमे में विचार करने के लिए प्रमाण का एक असामान्य टुकड़ा है। निम्नलिखित तीन प्रस्तावों पर विचार करें:


 * 'क' प्रतिवादी के दोषी होने पर ज्ञात तथ्य और गवाही उत्पन्न हो सकती थी
 * 'बी' ज्ञात तथ्य और गवाही उत्पन्न हो सकती थी यदि प्रतिवादी निर्दोष है
 * 'ग' प्रतिवादी दोषी है।

गार्डनर-मेडविन का तर्क है कि दोषी ठहराने के लिए जूरी को ए और बी नहीं दोनों पर प्रत्यय करना चाहिए। A और नहीं-B का तात्पर्य C के सत्य से है, किन्तु इसका उल्टा सत्य नहीं है। यह संभव है कि बी और सी दोनों सच हों, किन्तु इस स्थिति में उनका तर्क है कि एक जूरी को बरी कर देना चाहिए, चूँकि वे जानते हैं कि वे कुछ दोषी लोगों को मुक्त कर देंगे। लिंडले का विरोधाभास भी देखें।

बायेसियन ज्ञानमीमांसा
बायेसियन ज्ञानमीमांसा एक आंदोलन है जो आगमनात्मक तर्क के नियमों को उचित ठहराने के साधन के रूप में बायेसियन अनुमान की वकालत करता है।

कार्ल पॉपर और डेविड मिलर (दार्शनिक) ने बायेसियन तर्कवाद के विचार को खारिज कर दिया है, अर्थात ज्ञानमीमांसीय निष्कर्ष निकालने के लिए बायेस नियम का उपयोग किया है: यह किसी भी अन्य औचित्यवाद औचित्यवादी ज्ञानमीमांसा के समान ही दुष्चक्र से प्रवण होता है, क्योंकि यह पूर्व निर्धारित करता है कि यह क्या औचित्य देने का प्रयास करता है। इस दृष्टिकोण के अनुसार, बायेसियन अनुमान की एक तर्कसंगत व्याख्या इसे केवल मिथ्याकरण के एक संभाव्य संस्करण के रूप में देखेगी, जो सामान्यतः बायेसियन द्वारा आयोजित प्रत्यय को खारिज कर दिया जाता है, कि बायेसियन अपडेट की एक श्रृंखला द्वारा प्राप्त उच्च संभावना किसी भी उचित संदेह से परे परिकल्पना को प्रमाणित करेगी। या 0 से अधिक संभावना के साथ भी होती है।

अन्य

 * वैज्ञानिक पद्धति की व्याख्या कभी-कभी बायेसियन अनुमान के अनुप्रयोग के रूप में की जाती है। इस दृष्टि से, बेयस का नियम नई टिप्पणियों या प्रयोगों पर सशर्त परिकल्पना के बारे में संभावनाओं को अद्यतन करने के लिए मार्गदर्शन करता है (या मार्गदर्शन करना चाहिए)। कै एट अल द्वारा अधूरी जानकारी के साथ स्टोकेस्टिक शेड्यूलिंग समस्याओं के इलाज के लिए बायेसियन अनुमान भी लागू किया गया है। (2009)।
 * बायेसियन खोज सिद्धांत का उपयोग खोई हुई वस्तुओं की खोज के लिए किया जाता है।
 * फाइलोजेनी में बायेसियन निष्कर्ष
 * मेथिलिकरण विश्लेषण के लिए बायेसियन उपकरण
 * ब्रेन फंक्शन के लिए बायेसियन दृष्टिकोण बायेसियन मैकेनिज्म के रूप में मस्तिष्क की जांच करता है।
 * पारिस्थितिक अध्ययन में बायेसियन निष्कर्ष
 * बायेसियन इंट्रेंस का उपयोग स्टोचैस्टिक केमिकल काइनेटिक मॉडल में मापदंडों का अनुमान लगाने के लिए किया जाता है
 * मुद्रा या शेयर बाजार की पूर्वाभास के लिए अर्थभौतिकी में बायेसियन अनुमान
 * विपणन में बायेसियन निष्कर्ष
 * मोटर सीखने में बायेसियन निष्कर्ष
 * संख्यात्मक समस्याओं को हल करने के लिए संभाव्य संख्यात्मक में बायेसियन अनुमान का उपयोग किया जाता है

बेयस और बायेसियन अनुमान
बेयस द्वारा अपने निबंध के प्रस्ताव 9 में विचार की गई समस्या, संभावना के सिद्धांत में एक समस्या को हल करने की दिशा में एक निबंध, द्विपद बंटन के पैरामीटर a (सफलता दर) के लिए उत्‍तरबंटन है।

इतिहास
बायेसियन शब्द थॉमस बेयस (1701-1761) को संदर्भित करता है, जिन्होंने प्रमाणित किया कि अज्ञात वृत्तांत पर संभाव्य सीमाएं रखी जा सकती हैं। चूँकि, यह पियरे-साइमन लाप्लास (1749-1827) थे जिन्होंने (सिद्धांत VI के रूप में) प्रस्तुत किया जिसे अब बेयस प्रमेय कहा जाता है और इसे आकाशीय यांत्रिकी, चिकित्सा सांख्यिकी, विश्वस्तता (सांख्यिकी) और न्यायशास्त्र में समस्याओं का समाधान करने के लिए उपयोग किया जाता है। प्रारंभिक बायेसियन अनुमान, जिसमें लैपलेस के अपर्याप्त कारण के सिद्धांत का पालन करते हुए एकसमान उपयोग किया गया था, को व्युत्क्रम संभाव्यता कहा जाता था (क्योंकि यह प्रेक्षणों से मापदंडों तक, या प्रभावों से कारणों तक आगमनात्मक तर्कों को पीछे की ओर ले जाता है। ) 1920 के दशक के बाद, "विपरीत संभाव्यता" को बड़े पैमाने पर विधियों  के एक संग्रह द्वारा प्रतिस्थापित कर दिया गया, जिसे फ़्रीक्वेंटिस्ट सांख्यिकी कहा जाने लगा है।

20वीं शताब्दी में, लाप्लास के विचारों को दो अलग-अलग दिशाओं में विकसित किया गया, जिससे बायेसियन अभ्यास में वस्तुनिष्ठ और व्यक्तिपरक धाराओं को जन्म मिला। वस्तुनिष्ठ या गैर-सूचनात्मक वर्तमान में, सांख्यिकीय विश्लेषण केवल ग्रहण किए गए मॉडल पर निर्भर करता है, डेटा का विश्लेषण किया जाता है, और पूर्व को असाइन करने की विधि, जो एक उद्देश्य बायेसियन व्यवसायी से दूसरे में भिन्न होती है। व्यक्तिपरक या सूचनात्मक वर्तमान में, पूर्व का विनिर्देश प्रत्यय निर्भर करता है (अर्थात, प्रस्ताव जिस पर विश्लेषण कार्य करने के लिए तैयार किया जाता है), जो विशेषज्ञों, पिछले अध्ययनों आदि से जानकारी को संक्षेप में प्रस्तुत कर सकता है।

1980 के दशक में, बायेसियन विधियों के अनुसंधान और अनुप्रयोगों में एक नाटकीय वृद्धि हुई, जिसका श्रेय ज्यादातर मार्कोव चेन मोंटे कार्लो विधियों की खोज को जाता है, जिसने कई कम्प्यूटेशनल समस्याओं को दूर किया, और गैर-मानक, जटिल अनुप्रयोगों में बढ़ती रुचि। बेयसियन अनुसंधान के विकास के अतिरिक्त, अधिकांश स्नातक शिक्षण अभी भी लगातार आँकड़ों पर आधारित है। बायेसियन विधियों को व्यापक रूप से स्वीकार और उपयोग किया जाता है, उदाहरण के लिए यंत्र अधिगम के क्षेत्र में होता है।

यह भी देखें
• Bayesian approaches to brain function

• Credibility theory

• Epistemology

• Free energy principle

• Inductive probability

• Information field theory

• Principle of maximum entropy

स्रोत

 * एस्टर, रिचर्ड; बोरचर्स, ब्रायन और थर्बर, क्लिफर्ड (2012)। पैरामीटर अनुमान और उलटा समस्याएं, दूसरा संस्करण, एल्सेवियर। ISBN 0123850487, ISBN 978-0123850485
 * जॉर्ज ई.पी. बॉक्स|बॉक्स, जी.ई.पी. और जॉर्ज टियाओ|टियाओ, जी.सी. (1973) सांख्यिकीय विश्लेषण में बायेसियन अनुमान, विली, ISBN 0-471-57428-7
 * एडविन थॉम्पसन जेनेस|जेन्स ई.टी. (2003) प्रायिकता सिद्धांत: विज्ञान का तर्क, सीयूपी। ISBN 978-0-521-59271-0 (मार्च 1996 के खंडित संस्करण का लिंक)।
 * एडविन थॉम्पसन जेनेस|जेन्स ई.टी. (2003) प्रायिकता सिद्धांत: विज्ञान का तर्क, सीयूपी। ISBN 978-0-521-59271-0 (मार्च 1996 के खंडित संस्करण का लिंक)।
 * एडविन थॉम्पसन जेनेस|जेन्स ई.टी. (2003) प्रायिकता सिद्धांत: विज्ञान का तर्क, सीयूपी। ISBN 978-0-521-59271-0 (मार्च 1996 के खंडित संस्करण का लिंक)।
 * एडविन थॉम्पसन जेनेस|जेन्स ई.टी. (2003) प्रायिकता सिद्धांत: विज्ञान का तर्क, सीयूपी। ISBN 978-0-521-59271-0 (मार्च 1996 के खंडित संस्करण का लिंक)।

अग्रिम पठन

 * For a full report on the history of Bayesian statistics and the debates with frequentists approaches, read

प्राथमिक
निम्नलिखित पुस्तकें संभाव्य परिष्कार के आरोही क्रम में सूचीबद्ध हैं:
 * स्टोन, जेवी (2013), बेयस रूल: ए ट्यूटोरियल इंट्रोडक्शन टू बायेसियन एनालिसिस, यहां पहला अध्याय डाउनलोड करें, सेबटेल प्रेस, इंग्लैंड।
 * बोल्सटैड, विलियम एम. (2007) इंट्रोडक्शन टू बायेसियन सांख्यिकी: दूसरा संस्करण, जॉन विली ISBN 0-471-27020-2
 * अद्यतित क्लासिक पाठ्यपुस्तक। बायेसियन सिद्धांत स्पष्ट रूप से प्रस्तुत किया गया।
 * ली, पीटर एम. बायेसियन सांख्यिकी: एक परिचय। चौथा संस्करण (2012), जॉन विली ISBN 978-1-1183-3257-3
 * बोल्सटैड, विलियम एम. (2007) इंट्रोडक्शन टू बायेसियन सांख्यिकी: दूसरा संस्करण, जॉन विली ISBN 0-471-27020-2
 * अद्यतित क्लासिक पाठ्यपुस्तक। बायेसियन सिद्धांत स्पष्ट रूप से प्रस्तुत किया गया।
 * ली, पीटर एम. बायेसियन सांख्यिकी: एक परिचय। चौथा संस्करण (2012), जॉन विली ISBN 978-1-1183-3257-3
 * ली, पीटर एम. बायेसियन सांख्यिकी: एक परिचय। चौथा संस्करण (2012), जॉन विली ISBN 978-1-1183-3257-3

इंटरमीडिएट या उन्नत

 * मॉरिस एच. डेग्रोट|डीग्रोट, मॉरिस एच., इष्टतम सांख्यिकीय निर्णय। विली क्लासिक्स लाइब्रेरी। 2004. (मूल रूप से प्रकाशित (1970) मैकग्रा-हिल द्वारा।) ISBN 0-471-68029-X.
 * Jaynes, E. T. (1998) संभाव्यता सिद्धांत: विज्ञान का तर्क।
 * ओ'हागन, ए. और फ़ोर्स्टर, जे. (2003) केंडल्स एडवांस्ड थ्योरी ऑफ़ सांख्यिकी, खंड 2बी: बायेसियन अनुमान। अर्नोल्ड, न्यूयॉर्क। ISBN 0-340-52922-9.
 * ग्लेन शेफर और जूडिया पर्ल|पर्ल, जुडिया, एड। (1988) प्रोबेबिलिस्टिक रीजनिंग इन इंटेलिजेंट सिस्टम्स, सैन मेटो, सीए: मॉर्गन कॉफमैन।
 * पियरे बेसीयर एट अल। (2013), बायेसियन प्रोग्रामिंग, सीआरसी प्रेस। ISBN 9781439880326
 * फ्रांसिस्को जे. सैमैनिएगो (2010), ए कम्पेरिज़न ऑफ़ द बायेसियन एंड फ़्रीक्वेंटिस्ट अप्रोचेज़ टू एस्टीमेशन स्प्रिंगर, न्यू यॉर्क, ISBN 978-1-4419-5940-9
 * ग्लेन शेफर और जूडिया पर्ल|पर्ल, जुडिया, एड। (1988) प्रोबेबिलिस्टिक रीजनिंग इन इंटेलिजेंट सिस्टम्स, सैन मेटो, सीए: मॉर्गन कॉफमैन।
 * पियरे बेसीयर एट अल। (2013), बायेसियन प्रोग्रामिंग, सीआरसी प्रेस। ISBN 9781439880326
 * फ्रांसिस्को जे. सैमैनिएगो (2010), ए कम्पेरिज़न ऑफ़ द बायेसियन एंड फ़्रीक्वेंटिस्ट अप्रोचेज़ टू एस्टीमेशन स्प्रिंगर, न्यू यॉर्क, ISBN 978-1-4419-5940-9
 * फ्रांसिस्को जे. सैमैनिएगो (2010), ए कम्पेरिज़न ऑफ़ द बायेसियन एंड फ़्रीक्वेंटिस्ट अप्रोचेज़ टू एस्टीमेशन स्प्रिंगर, न्यू यॉर्क, ISBN 978-1-4419-5940-9

बाहरी संबंध

 * Bayesian Statistics from Scholarpedia.
 * Introduction to Bayesian probability from Queen Mary University of London
 * Mathematical Notes on Bayesian Statistics and Markov Chain Monte Carlo
 * Bayesian reading list, categorized and annotated by Tom Griffiths
 * A. Hajek and S. Hartmann: Bayesian Epistemology, in: J. Dancy et al. (eds.), A Companion to Epistemology. Oxford: Blackwell 2010, 93–106.
 * S. Hartmann and J. Sprenger: Bayesian Epistemology, in: S. Bernecker and D. Pritchard (eds.), Routledge Companion to Epistemology. London: Routledge 2010, 609–620.
 * Stanford Encyclopedia of Philosophy: "Inductive Logic"
 * Bayesian Confirmation Theory (PDF)
 * What is Bayesian Learning?
 * What is Bayesian Learning?