गिब्स सैंपलिंग

आंकड़ों में, गिब्स प्रतिचयन या गिब्स प्रतिदर्शी एक मार्कोव शृंखला मोंटे कार्लो (एमसीएमसी) कलन विधि है, जो अवलोकनों का एक क्रम प्राप्त करने के लिए होता है, तथा जो तब एक निर्दिष्ट बहुभिन्नरूपी संभाव्यता वितरण से अनुमानित होता है, जब प्रत्यक्ष प्रतिचयन कठिन होता है। इस अनुक्रम का उपयोग संयुक्त वितरण को अनुमानित करने के लिए किया जा सकता है (उदाहरण के लिए, वितरण का आयत चित्र उत्पन्न करने के लिए), किसी एक चर, या चर के कुछ उपसमुच्चय (उदाहरण के लिए, अज्ञात प्राचल या अंतर्निहित चर) के सीमांत वितरण का अनुमान लगाने के लिए, या एक अभिन्न की गणना करने के लिए (जैसे चर में से एक का प्रत्याशित मान)। आमतौर पर, कुछ चर उन टिप्पणियों के अनुरूप होते हैं जिनके मान ज्ञात होते हैं, और इसलिए उन्हें प्रतिरूप लेने की आवश्यकता नहीं होती है।

गिब्स प्रतिचयन आमतौर पर सांख्यिकीय अनुमिती यानी विशेष रूप से बेजअनुमिति के साधन के रूप में प्रयोग किया जाता है। यह एक यादृच्छिक कलन विधि है (अर्थात एक कलन विधि जो यादृच्छिक संख्याओं का उपयोग करता है), और अपेक्षा-अधिकतमकरण कलन विधि (ईएम) जैसे सांख्यिकीय अनुमिती के लिए नियतात्मक कलन विधि का एक विकल्प है।

अन्य एमसीएमसी कलन विधि के साथ, गिब्स प्रतिचयन प्रतिरूप की मार्कोव श्रृंखला उत्पन्न करता है, जिनमें से प्रत्येक पास के प्रतिरूप से सहसंबंधित है। नतीजतन, अगर स्वतंत्र प्रतिरूप वांछित हैं तो देखभाल की जानी चाहिए। आम तौर पर, श्रृंखला की शुरुआत ("अमिट होने की अवधि") से प्रतिरूप वांछित वितरण का सटीक रूप से प्रतिनिधित्व नहीं कर सकते हैं और आमतौर पर पदच्युत कर दिए जाते हैं।

परिचय
प्रतिचयन कलन विधि और सांख्यिकीय भौतिकी के बीच समानता के संदर्भ में, गिब्स प्रतिचयन का नाम भौतिक विज्ञानी जोशियाह विलार्ड गिब्स के नाम पर रखा गया है। गिब्स की मृत्यु के लगभग आठ दशक बाद 1984 में दो भाइयों स्टुअर्ट जेमन और डोनाल्ड जेमन द्वारा कलन विधि का वर्णन किया गया था। और सीमांत प्रायिकता वितरण, विशेष रूप से पश्च वितरण की गणना के लिए सांख्यिकी समुदाय में लोकप्रिय हो गया।

अपने मूल संस्करण में, गिब्स प्रतिचयन मेट्रोपोलिस-हेस्टिंग्स कलन विधि की एक विशेष स्थिति है। हालांकि, इसके विस्तारित संस्करणों (नीचे देखें) में, इसे प्रत्येक चर (या कुछ स्थितयो में, चर के प्रत्येक समूह) को बदले में प्रतिचयित करके चर के एक बड़े सेट से प्रतिरूप के लिए एक सामान्य रूपरेखा माना जा सकता है, और प्रतिचयन के एक या अधिक चरणों को लागू करने के लिए मेट्रोपोलिस-हेस्टिंग्स कलन विधि (या अंशअ प्रतिचयन जैसी विधियाँ) को सम्मिलित कर सकते हैं।

गिब्स प्रतिचयन तब लागू होता है जब संयुक्त वितरण स्पष्ट रूप से ज्ञात नहीं होता है या प्रत्यक्ष रूप से प्रतिरूप लेना मुश्किल होता है, लेकिन प्रत्येक चर का सशर्त वितरण ज्ञात होता है और प्रतिरूप के लिए आसान (या कम से कम, आसान) होता है। गिब्स प्रतिचयन कलन विधि बदले में प्रत्येक चर के वितरण से एक अन्य चर के वर्तमान मूल्यों पर सशर्त उदाहरण उत्पन्न करता है। यह दिखाया जा सकता है कि प्रतिरूपो का अनुक्रम एक मार्कोव श्रृंखला का गठन करता है, और उस मार्कोव श्रृंखला का स्थिर वितरण केवल वांछित संयुक्त वितरण है।

गिब्स प्रतिचयन विशेष रूप से बायेसियन नेटवर्क के पश्च वितरण के प्रतिरूप के लिए अनुकूलित है, क्योंकि बायेसियन नेटवर्क आमतौर पर सशर्त वितरण के संग्रह के रूप में निर्दिष्ट होते हैं।

कार्यान्वयन
गिब्स प्रतिचयन, अपने मूल अवतार में, मेट्रोपोलिस-हेस्टिंग्स कलन विधि की एक विशेष स्थिति है। गिब्स प्रतिचयन का मुद्दा यह है कि एक बहुचर वितरण को देखते हुए एक संयुक्त वितरण पर एकीकृत करके सीमांत वितरण की तुलना में एक सशर्त वितरण से प्रतिरूप लेना आसान है। मान लीजिए हम एक संयुक्त वितरण $$ p(x_1, \dots, x_n) $$ से   $$\mathbf{X} = (x_1, \dots, x_n)$$ के $$\left.k\right.$$ प्रतिरूप प्राप्त करना चाहते हैं।  $$i$$वें प्रतिरूप को $$\mathbf{X}^{(i)} = \left(x_1^{(i)}, \dots, x_n^{(i)}\right)$$से निरूपित करें। हम निम्नानुसार आगे बढ़ते हैं,


 * 1) हम कुछ प्रारंभिक मान $$\mathbf{X}^{(0)}$$ से शुरू करते हैं।
 * 2) हम अगला प्रतिरूप चाहते हैं। इस अगले प्रतिरूप को $$\mathbf{X}^{(i+1)}$$कहते है। चूँकि $$\mathbf{X}^{(i+1)} = \left(x_1^{(i+1)}, x_2^{(i+1)}, \dots, x_n^{(i+1)}\right)$$ एक सदिश है, हम सदिश के प्रत्येक घटक का प्रतिरूप $$x_j^{(i+1)}$$ लेते हैं, उस घटक के वितरण से जो अब तक प्रतिरूप लिए गए वो अन्य सभी घटकों पर सशर्त है। लेकिन एक पकड़ है: हम शर्त रखते हैं $$\mathbf{X}^{(i+1)}$$के घटक तक $$x_{j-1}^{(i+1)}$$, और उसके बाद की स्थिति $$\mathbf{X}^{(i)}$$के घटक, से शुरू $$x_{j+1}^{(i)}$$ को $$x_n^{(i)}$$. इसे प्राप्त करने के लिए, हम पहले घटक से शुरू करते हुए, क्रम में घटकों का प्रतिरूप लेते हैं। अधिक औपचारिक रूप से, प्रतिरूप लेने के लिए $$x_j^{(i+1)}$$, हम इसे द्वारा निर्दिष्ट वितरण के अनुसार अद्यतन करते हैं $$p\left(x_j^{(i+1)}|x_1^{(i+1)},\dots,x_{j-1}^{(i+1)},x_{j+1}^{(i)},\dots,x_n^{(i)}\right)$$. हम उस मान का उपयोग करते हैं जो $$(j+1)$$घटक में है $$i$$वें नमूना, नहीं $$(i+1)$$वें नमूना।
 * 3) उपरोक्त चरण को दोहराएं $$k$$ बार।

गुण
यदि इस तरह का प्रतिरूप लिया जाता है, तो ये महत्वपूर्ण तथ्य हैं:
 * प्रतिरूप सभी चरों के संयुक्त वितरण का अनुमान लगाते हैं।
 * चरों के किसी भी उपसमुच्चय के सीमांत वितरण का अनुमान लगाया जा सकता है, केवल चरों के उस उपसमुच्चय के लिए प्रतिरूपो पर विचार करके, शेष को अनदेखा कर सकते हैं।
 * किसी भी चर के अपेक्षित मूल्य को सभी प्रतिरूपो के औसत से अनुमानित किया जा सकता है।

नमूनाकरण करते समय:
 * चरों के प्रारंभिक मूल्यों को बेतरतीब ढंग से या कुछ अन्य कलन विधि जैसे कि अपेक्षा-अधिकतमकरण द्वारा निर्धारित किया जा सकता है।
 * पहले चर के प्रतिरूप के लिए प्रारंभिक मान निर्धारित करना वास्तव में आवश्यक नहीं है।
 * शुरुआत (तथाकथित बर्न-इन अवधि) में कुछ प्रतिरूपो की संख्या को अनदेखा करना आम बात है, और फिर केवल प्रत्येक पर विचार करें $$n$$वां प्रतिरूप जब एक अपेक्षा की गणना करने के लिए मूल्यों का औसत निकाला जाता है। उदाहरण के लिए, पहले 1,000 प्रतिरूपो को नजरअंदाज किया जा सकता है, और फिर हर 100वें प्रतिरूप का औसत निकाला जाता है, बाकी सभी को निकाल दिया जाता है। इसका कारण यह है कि (1) मार्कोव श्रृंखला का स्थिर वितरण चरों पर वांछित संयुक्त वितरण है, लेकिन उस स्थिर वितरण तक पहुंचने में कुछ समय लग सकता है; (2) क्रमिक प्रतिरूप एक दूसरे से स्वतंत्र नहीं होते हैं लेकिन कुछ मात्रा में सहसंबंध के साथ एक मार्कोव श्रृंखला बनाते हैं। कभी-कभी, कलन विधि का उपयोग प्रतिरूप और मूल्य के बीच स्वत: सहसंबंध की मात्रा निर्धारित करने के लिए किया जा सकता है $$n$$ (सैम्पल के बीच की अवधि जो वास्तव में उपयोग की जाती है) की गणना इससे की जाती है, लेकिन व्यवहार में इसमें उचित मात्रा में काला जादू (प्रोग्रामिंग) सम्मिलित होता है।
 * तैयार किए हुयी धातु पे पानी चढाने की कला की प्रक्रिया का उपयोग अक्सर प्रतिचयन प्रक्रिया के शुरुआती भाग में  यादृच्छिक चाल  व्यवहार को कम करने के लिए किया जाता है (यानी सैंपल स्पेस के चारों ओर धीरे-धीरे घूमने की प्रवृत्ति, प्रतिरूपो के बीच उच्च मात्रा में स्वतःसंबंध के साथ, जल्दी से घूमने के बजाय, जैसी इच्छा हो)। अन्य तकनीकें जो स्वत:सहसंबंध को कम कर सकती हैं, गिब्स प्रतिचयन, अवरुद्ध गिब्स प्रतिचयन, और अतिविश्राम का आदेश दिया गया है; नीचे देखें।

सशर्त वितरण और संयुक्त वितरण का संबंध
इसके अलावा, अन्य सभी दिए गए एक चर का सशर्त वितरण संयुक्त वितरण के समानुपाती होता है:


 * $$p(x_j\mid x_1,\dots,x_{j-1},x_{j+1},\dots,x_n) = \frac{p(x_1,\dots,x_n)}{p(x_1,\dots,x_{j-1},x_{j+1},\dots,x_n)} \propto p(x_1,\dots,x_n)$$

इस मामले में आनुपातिक का अर्थ है कि भाजक का कार्य नहीं है $$x_j$$ और इस प्रकार के सभी मूल्यों के लिए समान है $$x_j$$; यह वितरण ओवर के लिए सामान्यीकरण स्थिरांक का हिस्सा बनता है $$x_j$$. व्यवहार में, एक कारक के सशर्त वितरण की प्रकृति का निर्धारण करने के लिए $$x_j$$, चर पर ग्राफिकल मॉडल द्वारा परिभाषित अलग-अलग सशर्त वितरण के अनुसार संयुक्त वितरण को कारक बनाना सबसे आसान है, उन सभी कारकों को अनदेखा करें जो कार्य नहीं हैं $$x_j$$ (इनमें से सभी, ऊपर के भाजक के साथ मिलकर सामान्यीकरण स्थिरांक का गठन करते हैं), और फिर आवश्यकतानुसार सामान्यीकरण स्थिरांक को अंत में बहाल करते हैं। व्यवहार में, इसका मतलब तीन चीजों में से एक करना है:
 * 1) यदि बंटन असतत है, तो के सभी संभव मानों की अलग-अलग प्रायिकताएँ $$x_j$$ गणना की जाती है, और फिर सामान्यीकरण स्थिरांक खोजने के लिए अभिव्यक्त किया जाता है।
 * 2) यदि वितरण निरंतर है और ज्ञात रूप का है, तो सामान्यीकरण स्थिरांक भी ज्ञात होगा।
 * 3) अन्य मामलों में, सामान्यीकरण स्थिरांक को आमतौर पर अनदेखा किया जा सकता है, क्योंकि अधिकांश नमूनाकरण विधियों को इसकी आवश्यकता नहीं होती है।

निष्कर्ष
गिब्स प्रतिचयन आमतौर पर सांख्यिकीय अनुमिती के लिए उपयोग किया जाता है (उदाहरण के लिए पैरामीटर का सर्वोत्तम मूल्य निर्धारित करना, जैसे कि किसी विशेष स्टोर पर किसी विशेष स्टोर पर खरीदारी करने वाले लोगों की संख्या का निर्धारण करना, उम्मीदवार को मतदाता सबसे अधिक वोट देगा, आदि). विचार यह है कि देखे गए डेटा के प्रत्येक टुकड़े के लिए अलग-अलग चर बनाकर और उन चरों से प्रतिरूप लेने के बजाय, उनके देखे गए मूल्यों के लिए चर को ठीक करके नमूनाकरण प्रक्रिया में सम्मिलित किया गया है। शेष चरों का वितरण प्रभावी रूप से प्रेक्षित डेटा पर वातानुकूलित पश्च वितरण है।

एक वांछित पैरामीटर (मोड (सांख्यिकी)) का सबसे संभावित मूल्य तब प्रतिरूप मान चुनकर चुना जा सकता है जो आमतौर पर सबसे अधिक होता है; यह अनिवार्य रूप से एक पैरामीटर के अधिकतम पोस्टीरियर अनुमान के बराबर है। (चूंकि पैरामीटर आमतौर पर निरंतर होते हैं, इसलिए मोड का एक सार्थक अनुमान प्राप्त करने के लिए नमूनाकृत मानों को परिमित संख्या में श्रेणियों या बिनों में से एक में बिन करना आवश्यक होता है।) अधिक सामान्यतः, हालांकि, अपेक्षित मूल्य (माध्य या औसत) प्रतिरूप मूल्यों का चयन किया जाता है; यह एक बेयस अनुमानक है जो पूरे वितरण के बारे में अतिरिक्त डेटा का लाभ उठाता है जो कि बायेसियन प्रतिचयन से उपलब्ध है, जबकि अपेक्षा अधिकतमकरण  (ईएम) जैसे अधिकतमकरण कलन विधि वितरण से केवल एक बिंदु वापस करने में सक्षम है। उदाहरण के लिए, एक असमान वितरण के लिए माध्य (अपेक्षित मान) आमतौर पर मोड (सबसे सामान्य मान) के समान होता है, लेकिन यदि वितरण एक दिशा में तिरछा है, तो माध्य उस दिशा में ले जाया जाएगा, जो प्रभावी रूप से अतिरिक्त उस दिशा में संभाव्यता द्रव्यमान। (यदि कोई वितरण मल्टीमोडल है, तो अपेक्षित मान सार्थक बिंदु नहीं लौटा सकता है, और कोई भी मोड आमतौर पर बेहतर विकल्प होता है।)

हालाँकि कुछ चर आम तौर पर रुचि के मापदंडों के अनुरूप होते हैं, अन्य चर के बीच संबंधों को ठीक से व्यक्त करने के लिए मॉडल में पेश किए गए अरुचिकर (उपद्रव) चर हैं। हालांकि प्रतिरूप मूल्य सभी चर पर संयुक्त वितरण का प्रतिनिधित्व करते हैं, अपेक्षित मूल्यों या मोड की गणना करते समय उपद्रव चर को आसानी से अनदेखा किया जा सकता है; यह उपद्रव चर पर सीमांत वितरण के बराबर है। जब एकाधिक चर के लिए एक मान वांछित होता है, तो अपेक्षित मान की गणना प्रत्येक चर पर अलग से की जाती है। (मोड की गणना करते समय, हालांकि, सभी चरों को एक साथ माना जाना चाहिए।)

पर्यवेक्षित अध्ययन, अनियंत्रित शिक्षा  और  अर्ध-पर्यवेक्षित शिक्षा  (उर्फ लर्निंग विद मिसिंग वैल्यूज) सभी को उन सभी वेरिएबल्स के मानों को ठीक करके नियंत्रित किया जा सकता है, जिनके मूल्य ज्ञात हैं, और शेष से प्रतिरूप लेना।

अवलोकन किए गए डेटा के लिए, प्रत्येक अवलोकन के लिए एक चर होगा- उदाहरण के लिए, अवलोकन के एक सेट के प्रतिरूप माध्य या प्रतिरूप भिन्नता के अनुरूप एक चर। वास्तव में, आम तौर पर प्रतिरूप माध्य या प्रतिरूप भिन्नता जैसी अवधारणाओं के अनुरूप कोई भी चर नहीं होगा। इसके बजाय, ऐसे मामले में अज्ञात वास्तविक माध्य और वास्तविक भिन्नता का प्रतिनिधित्व करने वाले चर होंगे, और इन चरों के लिए प्रतिरूप मानों का निर्धारण स्वचालित रूप से गिब्स सैम्पलर के संचालन से होता है।

सामान्यीकृत रैखिक मॉडल (यानी रैखिक प्रतिगमन की विविधताएं) कभी-कभी गिब्स प्रतिचयन द्वारा भी नियंत्रित किए जा सकते हैं। उदाहरण के लिए, दिए गए बाइनरी (हां/नहीं) विकल्प की संभावना निर्धारित करने के लिए प्रोबिट प्रतिगमन, प्रतिगमन गुणांकों पर रखे गए सामान्य वितरण पुरोहितों के साथ, गिब्स प्रतिचयन के साथ लागू किया जा सकता है क्योंकि अतिरिक्त चर जोड़ना और पूर्व संयुग्मन का लाभ उठाना संभव है।. हालाँकि, संभार तन्त्र परावर्तन  को इस तरह से हैंडल नहीं किया जा सकता है। एक संभावना सामान्य वितरण के मिश्रण (आमतौर पर 7-9) के साथ रसद समारोह को अनुमानित करना है। अधिक सामान्यतः, कैसेकभी, गिब्स प्रतिरूप के बजाय मेट्रोपोलिस-हेस्टिंग्स का उपयोग किया जाता है।

गणितीय पृष्ठभूमि
मान लीजिए कि एक प्रतिरूप $$\left.X\right.$$ पैरामीटर सदिश के आधार पर वितरण से लिया जाता है $$\theta \in \Theta \,\!$$ लंबाई का $$\left.d\right.$$, पूर्व वितरण के साथ $$g(\theta_1, \ldots, \theta_d)$$. यह हो सकता है कि $$\left.d\right.$$ बहुत बड़ा है और उस संख्यात्मक एकीकरण के सीमांत घनत्व को खोजने के लिए $$\left.\theta_i\right.$$ कम्प्यूटेशनल रूप से महंगा होगा। फिर सीमांत घनत्व की गणना करने का एक वैकल्पिक तरीका अंतरिक्ष पर एक मार्कोव श्रृंखला बनाना है $$\left.\Theta\right.$$ इन दो चरणों को दोहरा कर:

ये चरण वांछित अपरिवर्तनीय वितरण के साथ एक मार्कोव श्रृंखला#प्रतिवर्ती मार्कोव श्रृंखला को परिभाषित करते हैं $$\left.g\right.$$. यह निम्नानुसार सिद्ध किया जा सकता है। परिभाषित करना $$x \sim_j y$$ अगर $$\left.x_i = y_i\right.$$ सभी के लिए $$i \neq j$$ और जाने $$\left.p_{xy}\right.$$ से कूदने की संभावना को निरूपित करें $$x \in \Theta$$ को $$y \in \Theta$$. फिर, संक्रमण संभावनाएं हैं
 * 1) एक यादृच्छिक सूचकांक चुनें $$1 \leq j \leq d$$
 * 2) के लिए एक नया मान चुनें $$\left.\theta_j\right.$$ के अनुसार $$g(\theta_1, \ldots, \theta_{j-1} , \, \cdot \, , \theta_{j+1} , \ldots , \theta_d )$$


 * $$p_{xy} = \begin{cases}

\frac{1}{d}\frac{g(y)}{\sum_{z \in \Theta: z \sim_j x} g(z) } & x \sim_j y \\ 0 & \text{otherwise} \end{cases} $$ इसलिए

g(x) p_{xy} = \frac{1}{d}\frac{ g(x) g(y)}{\sum_{z \in \Theta: z \sim_j x} g(z) } = \frac{1}{d}\frac{ g(y) g(x)}{\sum_{z \in \Theta: z \sim_j y} g(z) } = g(y) p_{yx} $$ तब से $$x \sim_j y$$ एक तुल्यता संबंध है। इस प्रकार विस्तृत संतुलन समीकरण संतुष्ट हैं, जिसका अर्थ है कि श्रृंखला उत्क्रमणीय है और इसमें अपरिवर्तनीय वितरण है $$\left.g\right.$$.

व्यवहार में, index $$\left.j\right.$$ यादृच्छिक रूप से नहीं चुना जाता है, और अनुक्रमित के माध्यम से श्रृंखला चक्र क्रम में होता है। सामान्य तौर पर यह एक गैर-स्थिर मार्कोव प्रक्रिया देता है, लेकिन प्रत्येक व्यक्तिगत चरण अभी भी प्रतिवर्ती होगा, और समग्र प्रक्रिया में अभी भी वांछित स्थिर वितरण होगा (जब तक कि श्रृंखला निश्चित क्रम के तहत सभी राज्यों तक पहुंच सकती है)।

बायेसियन अनुमान में गिब्स सैम्पलर और सूचना सिद्धांत से इसका संबंध
होने देना $$y$$ प्रतिरूप वितरण से उत्पन्न टिप्पणियों को निरूपित करें $$f(y|\theta)$$ और $$\pi(\theta)$$ पैरामीटर स्पेस पर पूर्व समर्थित हो $$\Theta$$. फिर बायेसियन आँकड़ों का एक केंद्रीय लक्ष्य पश्च घनत्व का अनुमान लगाना है


 * $$\pi(\theta|y) = \frac{f(y|\theta) \cdot \pi(\theta)}{m(y)}$$

जहां मामूली संभावना है $$ m(y) = \int_{\Theta} f(y|\theta) \cdot \pi(\theta) d\theta $$ सभी के लिए परिमित माना जाता है $$y$$.

गिब्स सैंपलर की व्याख्या करने के लिए, हम अतिरिक्त रूप से मान लेते हैं कि पैरामीटर स्पेस $$\Theta$$ रूप में विघटित हो जाता है


 * $$\Theta = \prod_{i=1}^{K}\Theta_{i} = \Theta_1 \times \cdots \Theta_i \times \cdots \times \Theta_K, \quad\quad (K>1)$$,

कहाँ $$\times$$ कार्टेशियन उत्पाद का प्रतिनिधित्व करता है। प्रत्येक घटक पैरामीटर स्थान $$\Theta_i$$ स्केलर घटकों, सबसदिश या मैट्रिसेस का एक सेट हो सकता है।

समुच्चय को परिभाषित कीजिए $$\Theta_{-i}$$ जो पूरक करता है $$\Theta_i$$. गिब्स सैम्पलर की आवश्यक सामग्री है $$i$$प्रत्येक के लिए -वाँ पूर्ण सशर्त पश्च वितरण $$i=1,\cdots, K$$
 * $$\pi(\theta_i|\theta_{-i},y)=\pi(\theta_i|\theta_1, \cdots, \theta_{i-1},\theta_{i+1},\cdots, \theta_{K},y)$$.

निम्नलिखित कलन विधि एक सामान्य गिब्स सैंपलर का विवरण देता है:

$$\text{Initialize: pick arbitrary starting value}\,\, \theta^{(1)} = (\theta_1^{(1)},\theta_2^{(1)},\cdots,\theta_i^{(1)},\theta_{i+1}^{(1)},\cdots,\theta_K^{(1)}) $$

$$\text{Iterate a Cycle:}\,$$

$$ \quad\quad \text{Step 1. draw}\,\, \theta_1^{(s+1)}\sim \pi(\theta_1|\theta_2^{(s)},\theta_3^{(s)},\cdots,\theta_K^{(s)},y )$$

$$ \quad\quad \text{Step 2. draw}\,\, \theta_2^{(s+1)}\sim \pi(\theta_2|\theta_1^{(s+1)},\theta_3^{(s)},\cdots,\theta_K^{(s)},y )$$

$$ \quad\quad\quad \vdots$$

$$ \quad\quad \text{Step i.     draw}\,\, \theta_i^{(s+1)}\sim \pi(\theta_i|\theta_1^{(s+1)},\theta_2^{(s+1)},\cdots, \theta_{i-1}^{(s+1)},\theta_{i+1}^{(s)} ,\cdots, \theta_K^{(s)},y )$$

$$ \quad \quad \text{Step i+1. draw}\,\, \theta_{i+1}^{(s+1)}\sim \pi(\theta_{i+1}|\theta_1^{(s+1)},\theta_2^{(s+1)},\cdots, \theta_{i}^{(s+1)},\theta_{i+2}^{(s)} ,\cdots, \theta_K^{(s)},y )$$

$$ \quad\quad\quad \vdots$$

$$ \quad\quad \text{Step K.     draw}\,\, \theta_K^{(s+1)}\sim \pi(\theta_K|\theta_1^{(s+1)},\theta_2^{(s+1)},\cdots,\theta_{K-1}^{(s+1)},y )$$

$$\text{end Iterate}$$ ध्यान दें कि गिब्स सैम्पलर एक चक्र के भीतर पुनरावृत्त मोंटे कार्लो योजना द्वारा संचालित होता है। $$S$$ एच> प्रतिरूपो की संख्या $$\{\theta^{(s)} \}_{s=1}^{S}$$ उपरोक्त कलन विधि द्वारा तैयार किए गए मार्कोव चेन को लक्ष्य घनत्व के रूप में अपरिवर्तनीय वितरण के साथ तैयार किया गया है $$\pi(\theta|y)$$.

अब, प्रत्येक के लिए $$i=1,\cdots,K$$, निम्नलिखित सूचना सैद्धांतिक मात्रा को परिभाषित करें:

$$I(\theta_i ; \theta_{-i}) = \text{KL}(\pi(\theta|y)||\pi(\theta_i|y) \cdot \pi(\theta_{-i}|y) ) =\int_{\Theta} \pi(\theta|y) \log \bigg(\frac{\pi(\theta|y)}{\pi(\theta_i|y) \cdot \pi(\theta_{-i}|y)}\bigg) d\theta, $$

$$H(\theta_{-i}) = -\int_{\Theta_{-i}} \pi(\theta_{-i}|y) \log \pi(\theta_{-i}|y) d\theta_{-i}, $$

$$H(\theta_{-i}|\theta_{i}) = -\int_{\Theta} \pi(\theta|y) \log \pi(\theta_{-i}|\theta_{i},y) d\theta, $$ अर्थात्, पश्च पारस्परिक सूचना, पश्च अंतर एन्ट्रापी, और पश्च सशर्त अंतर एन्ट्रापी, क्रमशः। हम इसी तरह सूचना सिद्धांतिक मात्राओं को परिभाषित कर सकते हैं $$I(\theta_{-i} ; \theta_{i})$$, $$H(\theta_{i})$$, और $$H(\theta_{i}|\theta_{-i})$$ अदला-बदली करके $$i$$ और $$-i$$ परिभाषित मात्रा में। फिर, निम्नलिखित $$K$$ समीकरण कायम हैं।

$$I(\theta_i ; \theta_{-i}) = H(\theta_{-i}) - H(\theta_{-i}|\theta_{i}) = H(\theta_{i}) - H(\theta_{i}|\theta_{-i}) = I(\theta_{-i} ; \theta_{i}), \quad (i=1,\cdots,K) $$.

आपसी जानकारी $$I(\theta_i ; \theta_{-i}) $$ यादृच्छिक मात्रा की अनिश्चितता में कमी की मात्रा निर्धारित करता है $$\theta_{i}$$ एक बार हम जानते हैं $$\theta_{-i}$$, वापस। यह गायब हो जाता है अगर और केवल अगर $$\theta_{i}$$ और $$\theta_{-i}$$ आंशिक रूप से स्वतंत्र हैं, एक पश्च। आपसी जानकारी $$I(\theta_i ; \theta_{-i})$$ से प्रसारित होने वाली मात्रा के रूप में व्याख्या की जा सकती है $$i$$-वें चरण के लिए $$i+1$$गिब्स सैम्पलर के एकल चक्र के भीतर -वाँ चरण।

रूपांतर और विस्तार
बुनियादी गिब्स सैम्पलर के कई रूप मौजूद हैं। इन विविधताओं का लक्ष्य किसी भी अतिरिक्त कम्प्यूटेशनल लागतों को दूर करने के लिए पर्याप्त रूप से प्रतिरूपो के बीच स्वत: संबंध को कम करना है।

अवरुद्ध गिब्स नमूना

 * एक अवरुद्ध गिब्स सैम्पलर दो या दो से अधिक चरों को एक साथ समूहित करता है और उनके संयुक्त वितरण से प्रतिरूप अलग-अलग प्रत्येक से प्रतिरूप लेने के बजाय अन्य सभी चरों पर सशर्त होता है। उदाहरण के लिए, एक छिपे छिपा हुआ मार्कोव मॉडल में, एक अवरुद्ध गिब्स सैम्पलर आगे-पीछे कलन विधि  का उपयोग करके मार्कोव श्रृंखला बनाने वाले सभी अव्यक्त चर से प्रतिरूप ले सकता है।

संकुचित गिब्स नमूना

 * किसी अन्य चर के लिए प्रतिरूप लेते समय एक ढह गया गिब्स प्रतिरूप एक या अधिक चर (सीमांत वितरण) को एकीकृत करता है। उदाहरण के लिए, कल्पना करें कि एक मॉडल में तीन चर ए, बी और सी सम्मिलित हैं। एक साधारण गिब्स सैम्पलर p(A | B,C), फिर p(B | A से प्रतिरूप लेगा ,C), फिर p(C | A,B)। एक संक्षिप्त गिब्स सैंपलर A के लिए प्रतिरूप चरण को सीमांत वितरण p(A | C) से लिए गए प्रतिरूप से बदल सकता है, जिसमें वेरिएबल 'B एकीकृत है इस मामले में बाहर। वैकल्पिक रूप से, चर B को पूरी तरह से संक्षिप्त किया जा सकता है, वैकल्पिक रूप से p(A | C) और p(C |  से प्रतिरूप लिया जा सकता है A) और B पर नमूनाकरण बिल्कुल नहीं। एक चर ए पर वितरण जो मूल चर बी के ढहने पर उत्पन्न होता है, एक यौगिक वितरण कहलाता है; इस वितरण से प्रतिरूप आम तौर पर ट्रैक्टेबल होता है जब 'बी' 'ए' के ​​​​लिए पूर्ववर्ती संयुग्म होता है, खासकर जब 'ए' और 'बी' घातीय परिवार के सदस्य होते हैं। अधिक जानकारी के लिए, यौगिक वितरण या लियू (1994) पर लेख देखें। 

डिरिचलेट वितरण का ढहना
श्रेणीबद्ध वितरण के साथ पदानुक्रमित बायेसियन मॉडल में, जैसे अव्यक्त डिरिचलेट आवंटन और प्राकृतिक भाषा प्रसंस्करण में उपयोग किए जाने वाले विभिन्न अन्य मॉडल, डिरिचलेट वितरण को समाप्त करना काफी आम है जो आमतौर पर श्रेणीबद्ध चर पर पूर्व वितरण के रूप में उपयोग किया जाता है। इस ढहने का परिणाम किसी दिए गए डिरिचलेट पर निर्भर सभी स्पष्ट चर के बीच निर्भरता का परिचय देता है, और ढहने के बाद इन चरों का संयुक्त वितरण एक डिरिचलेट-बहुराष्ट्रीय वितरण है। इस वितरण में दिए गए श्रेणीबद्ध चर का सशर्त वितरण, दूसरों पर वातानुकूलित, एक अत्यंत सरल रूप ग्रहण करता है जो गिब्स प्रतिचयन को और भी आसान बना देता है, यदि ढहना नहीं किया गया होता। नियम इस प्रकार हैं:
 * 1) एक डिरिचलेट पूर्व नोड को समाप्त करने से केवल पूर्व के माता-पिता और बच्चों के नोड प्रभावित होते हैं। चूंकि माता-पिता अक्सर स्थिर होते हैं, आमतौर पर केवल बच्चों के बारे में हमें चिंता करने की आवश्यकता होती है।
 * 2) Collapsing a Dirichlet प्रायर उस पूर्व पर निर्भर सभी स्पष्ट बच्चों के बीच निर्भरता का परिचय देता है - लेकिन किसी भी अन्य श्रेणीबद्ध बच्चों के बीच कोई अतिरिक्त निर्भरता नहीं है। (यह ध्यान रखना महत्वपूर्ण है, उदाहरण के लिए, जब एक ही हाइपरप्रियर से संबंधित कई डिरिचलेट प्रीयर होते हैं। प्रत्येक डिरिचलेट पूर्व को स्वतंत्र रूप से ध्वस्त किया जा सकता है और केवल इसके प्रत्यक्ष बच्चों को प्रभावित करता है।)
 * 3) ढहने के बाद, एक आश्रित बच्चों का दूसरों पर सशर्त वितरण एक बहुत ही सरल रूप ग्रहण करता है: किसी दिए गए मूल्य को देखने की संभावना इस मूल्य के लिए संबंधित हाइपरप्रियर के योग के समानुपाती होती है, और अन्य सभी आश्रित नोड्स की गिनती समान मान मानकर। समान पूर्व पर निर्भर नहीं होने वाले नोड्स की गणना नहीं की जानी चाहिए। यही नियम अन्य पुनरावृत्त अनुमान विधियों में भी लागू होता है, जैसे वैरिएबल बेज़ या अपेक्षा अधिकतमीकरण; हालाँकि, यदि विधि में आंशिक गणना रखना सम्मिलित है, तो विचाराधीन मान के लिए आंशिक गणना को अन्य सभी आश्रित नोड्स में सम्मिलित किया जाना चाहिए। कभी-कभी इस सारांशित आंशिक गणना को अपेक्षित गणना या समान कहा जाता है। संभाव्यता परिणामी मान के समानुपाती होती है; वास्तविक संभाव्यता को उन सभी संभावित मानों के सामान्यीकरण द्वारा निर्धारित किया जाना चाहिए जो श्रेणीबद्ध चर ले सकते हैं (अर्थात श्रेणीबद्ध चर के प्रत्येक संभावित मान के लिए परिकलित परिणाम जोड़ना, और इस योग से सभी परिकलित परिणामों को विभाजित करना)।
 * 4) यदि किसी दिए गए श्रेणीबद्ध नोड में आश्रित बच्चे हैं (उदाहरण के लिए जब यह मिश्रण मॉडल में एक अव्यक्त चर है), पिछले चरण में गणना की गई मान (अपेक्षित गणना प्लस पूर्व, या जो कुछ भी गणना की गई है) को वास्तविक सशर्त संभावनाओं से गुणा किया जाना चाहिए ( सभी बच्चों को उनके माता-पिता को दिए गए संभाव्यता के समानुपातिक नहीं है। विस्तृत चर्चा के लिए डिरिचलेट-बहुराष्ट्रीय बंटन पर लेख देखें।
 * 5) ऐसे मामले में जहां किसी दिए गए डिरिचलेट पूर्व पर निर्भर नोड्स की समूह सदस्यता कुछ अन्य चर के आधार पर गतिशील रूप से बदल सकती है (उदाहरण के लिए एक विषय मॉडल के रूप में एक अन्य अव्यक्त श्रेणीबद्ध चर द्वारा अनुक्रमित एक श्रेणीबद्ध चर), वही अपेक्षित गणना अभी भी हैं परिकलित, लेकिन सावधानी से करने की आवश्यकता है ताकि चरों का सही सेट सम्मिलित किया जा सके। विषय मॉडल के संदर्भ सहित, अधिक चर्चा के लिए डिरिचलेट-बहुराष्ट्रीय वितरण पर लेख देखें।

अन्य संयुग्मी पुरोहितों का समाप्‍त होना
सामान्य तौर पर, किसी भी संयुग्म को पूर्व में ध्वस्त किया जा सकता है, यदि उसके एकमात्र बच्चों के वितरण संयुग्म हैं। यौगिक वितरण पर लेख में प्रासंगिक गणित पर चर्चा की गई है। यदि केवल एक चाइल्ड नोड है, तो परिणाम अक्सर एक ज्ञात वितरण मान लेगा। उदाहरण के लिए, एक एकल पॉसों वितरण चाइल्ड के साथ एक नेटवर्क के बाहर एक उलटा गामा वितरण|इनवर्स-गामा-डिस्ट्रीब्यूटेड झगड़ा को कोलैप्स करने से स्टूडेंट का टी-डिस्ट्रीब्यूशन मिलेगा। (उस मामले के लिए, एक एकल गॉसियन बच्चे के माध्य और विचरण दोनों को ढहाने से अभी भी एक छात्र का टी-वितरण प्राप्त होगा, बशर्ते दोनों संयुग्मित हों, यानी गॉसियन माध्य, व्युत्क्रम-गामा विचरण।)

यदि कई बच्चे नोड हैं, तो वे सभी निर्भर हो जाएंगे, जैसा कि डिरिचलेट वितरण-श्रेणीबद्ध वितरण मामले में है। परिणामी संयुक्त वितरण का एक बंद रूप होगा जो कुछ मायनों में यौगिक वितरण जैसा दिखता है, हालांकि इसमें कई कारकों का उत्पाद होगा, प्रत्येक बच्चे के नोड के लिए एक।

इसके अलावा, और सबसे महत्वपूर्ण बात यह है कि दूसरों को दिए गए चाइल्ड नोड्स में से एक के परिणामस्वरूप सशर्त वितरण (और ढह गए नोड के माता-पिता को भी दिया गया है, लेकिन चाइल्ड नोड्स के बच्चों को नहीं दिया गया है) के समान घनत्व होगा शेष सभी चाइल्ड नोड्स का पश्च भविष्य कहनेवाला वितरण । इसके अलावा, पश्च भविष्यवाणिय वितरण में एकल नोड के मूल यौगिक वितरण के समान घनत्व है, हालांकि विभिन्न मापदंडों के साथ। यौगिक वितरण पर लेख में सामान्य सूत्र दिया गया है।

उदाहरण के लिए, सशर्त रूप से स्वतंत्र समान रूप से वितरित गॉसियन वितरण के एक सेट के साथ एक बेयस नेटवर्क दिया गया है। गाऊसी-वितरित नोड्स के साथ संयुग्मित पूर्व वितरण माध्य और भिन्नता पर रखा गया है, एक नोड का सशर्त वितरण दूसरों को माध्य और विचरण दोनों को संयोजित करने के बाद दिया गया है। एक छात्र का टी-वितरण होगा। इसी तरह, कई पॉसॉन वितरण से पहले [[गाऊसी वितरण]] को कंपाउंडिंग करने का परिणाम | पॉइसन-वितरित नोड्स एक नोड के सशर्त वितरण का कारण बनता है, जिससे अन्य एक नकारात्मक द्विपद वितरण मान लेते हैं।

इन मामलों में जहां कंपाउंडिंग एक प्रसिद्ध वितरण का उत्पादन करता है, कुशल नमूनाकरण प्रक्रियाएं अक्सर मौजूद होती हैं, और उनका उपयोग करना अक्सर (हालांकि जरूरी नहीं) ढहने से अधिक कुशल होगा, और इसके बजाय पूर्व और बच्चे दोनों नोड्स को अलग-अलग प्रतिरूप लेना होगा। हालाँकि, ऐसे मामले में जहां यौगिक वितरण अच्छी तरह से ज्ञात नहीं है, इसका प्रतिरूप लेना आसान नहीं हो सकता है, क्योंकि यह आम तौर पर घातीय परिवार से संबंधित नहीं होगा और आमतौर पर लघुगणकीय रूप से अवतल कार्य नहीं होगा। अनुकूली अस्वीकृति नमूनाकरण का उपयोग करके प्रतिरूप लेना आसान है, क्योंकि एक बंद रूप हमेशा मौजूद रहता है)।

ऐसे मामले में जहां ढह गए नोड्स के बच्चे नोड्स में बच्चे हैं, इन बच्चों के नोड्स में से एक का सशर्त वितरण ग्राफ में अन्य सभी नोड्स को इन दूसरे स्तर के बच्चों के वितरण को ध्यान में रखना होगा। विशेष रूप से, परिणामी सशर्त वितरण संयुक्त वितरण के एक उत्पाद के समानुपाती होगा जैसा कि ऊपर परिभाषित किया गया है, और सभी बच्चे नोड्स के सशर्त वितरण उनके माता-पिता को दिए गए हैं (लेकिन अपने स्वयं के बच्चों को नहीं दिए गए हैं)। यह इस तथ्य से अनुसरण करता है कि पूर्ण सशर्त वितरण संयुक्त वितरण के समानुपाती होता है। यदि ढह गए नोड्स के बच्चे के नोड्स निरंतर वितरण हैं, तो यह वितरण आम तौर पर एक ज्ञात रूप का नहीं होगा, और इस तथ्य के बावजूद प्रतिरूप बनाना मुश्किल हो सकता है कि एक बंद फॉर्म लिखा जा सकता है, ऊपर वर्णित कारणों के लिए गैर-ज्ञात यौगिक वितरण। हालाँकि, विशेष मामले में कि बच्चे के नोड असतत वितरण हैं, प्रतिरूप संभव है, भले ही इन बच्चे के नोड के बच्चे निरंतर होंअसतत या असतत। वास्तव में, यहां सम्मिलित सिद्धांत को डिरिचलेट-बहुराष्ट्रीय वितरण पर लेख में उचित विवरण में वर्णित किया गया है।

ऑर्डर किए गए ओवररिलैक्सेशन के साथ गिब्स सैंपलर

 * एक गिब्स सैम्पलर ने आदेशित ओवररिलैक्सेशन के लिए एक विषम संख्या में उम्मीदवार मूल्यों के लिए प्रतिरूप लिए $$x_j^{(i)}$$ किसी दिए गए चरण पर और उन्हें एकल मान के साथ क्रमबद्ध करें $$x_j^{(i-1)}$$ कुछ अच्छी तरह से परिभाषित आदेश के अनुसार। अगर $$x_j^{(i-1)}$$ एस हैth क्रमबद्ध सूची में सबसे छोटा तो the $$x_j^{(i)}$$ एस के रूप में चुना गया हैवें क्रमबद्ध सूची में सबसे बड़ा। अधिक जानकारी के लिए, नील (1995) देखें।

अन्य एक्सटेंशन
गिब्स प्रतिचयन को विभिन्न तरीकों से विस्तारित करना भी संभव है। उदाहरण के लिए, वेरिएबल्स के मामले में जिनके सशर्त वितरण से प्रतिरूप लेना आसान नहीं है, स्लाइस प्रतिचयन या मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक एकल पुनरावृत्ति प्रश्न में वेरिएबल्स से प्रतिरूप लेने के लिए इस्तेमाल किया जा सकता है। उन चरों को सम्मिलित करना भी संभव है जो यादृच्छिक चर नहीं हैं, लेकिन जिनका मान निश्चित रूप से अन्य चरों से गणना किया जाता है। सामान्यीकृत रैखिक मॉडल, उदा। लॉजिस्टिक रिग्रेशन (उर्फ अधिकतम एन्ट्रापी वर्गीकारक मॉडल), इस तरह से सम्मिलित किया जा सकता है। (बीयूजीएस, उदाहरण के लिए, मॉडल के इस प्रकार के मिश्रण की अनुमति देता है।)

विफलता मोड
गिब्स प्रतिचयन दो तरीकों से विफल हो सकता है। पहला तब होता है जब उच्च-संभावना वाले राज्यों के द्वीप होते हैं, जिनके बीच कोई रास्ता नहीं होता है। उदाहरण के लिए, 2-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहाँ सदिशों (0,0) और (1,1) प्रत्येक की प्रायिकता ½ है, लेकिन अन्य दो सदिशों (0,1) और (1,0) की प्रायिकता है शून्य। गिब्स प्रतिचयन दो उच्च संभावना वाले वैक्टर में से एक में फंस जाएगा, और दूसरे तक कभी नहीं पहुंचेगा। अधिक आम तौर पर, उच्च-आयामी, वास्तविक-मूल्य वाले वैक्टर पर किसी भी वितरण के लिए, यदि सदिश के दो विशेष तत्व पूरी तरह से सहसंबद्ध (या पूरी तरह से विरोधी-सहसंबंध) हैं, तो वे दो तत्व अटक जाएंगे, और गिब्स प्रतिचयन कभी भी बदलने में सक्षम नहीं होगा उन्हें।

दूसरी समस्या तब भी हो सकती है जब सभी राज्यों में संभावना शून्य न हो और उच्च संभावना वाले राज्यों का केवल एक ही द्वीप हो। उदाहरण के लिए, 100-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहां सभी शून्य सदिश संभाव्यता ½ के साथ होता है, और अन्य सभी सदिश समान रूप से संभाव्य हैं, और इसलिए इसकी प्रायिकता है $$\frac{1}{2(2^{100}-1)}$$ प्रत्येक। यदि आप शून्य सदिश की प्रायिकता का अनुमान लगाना चाहते हैं, तो सही वितरण से 100 या 1000 प्रतिरूप लेना पर्याप्त होगा। यह लगभग ½ के करीब उत्तर देने की संभावना है। लेकिन आपको शायद इससे ज्यादा लेना होगा $$2^{100}$$ समान परिणाम प्राप्त करने के लिए गिब्स के प्रतिरूप से प्रतिरूप। कोई भी कंप्यूटर जीवन भर ऐसा नहीं कर सकता था।

यह समस्या तब होती है जब बर्न-इन अवधि कितनी भी लंबी हो। ऐसा इसलिए है क्योंकि सही वितरण में, शून्य सदिश आधा समय होता है, और उन घटनाओं को गैर-शून्य वैक्टरों के साथ यादृच्छिक रूप से मिश्रित किया जाता है। यहां तक ​​कि एक छोटा सा प्रतिरूप भी शून्य और अशून्य दोनों सदिशों को देखेगा। लेकिन गिब्स प्रतिचयन लंबी अवधि के लिए केवल शून्य सदिश वापस करने के बीच वैकल्पिक होगा (लगभग $$2^{99}$$ एक पंक्ति में), फिर लंबी अवधि के लिए केवल अशून्य वैक्टर (लगभग $$2^{99}$$ एक पंक्ति में)। इस प्रकार सही वितरण के लिए अभिसरण बेहद धीमा है, इसके लिए बहुत अधिक की आवश्यकता होती है $$2^{99}$$ कदम; उचित समय अवधि में इतने सारे कदम उठाना कम्प्यूटेशनल रूप से संभव नहीं है। यहाँ धीमे अभिसरण को आयामीता के अभिशाप के परिणाम के रूप में देखा जा सकता है। इस तरह की समस्या को एक बार में पूरे 100-बिट सदिश को ब्लॉक प्रतिचयन द्वारा हल किया जा सकता है। (यह मानता है कि 100-बिट सदिश चर के एक बड़े सेट का हिस्सा है। यदि यह सदिश केवल एक चीज है जिसका प्रतिरूप लिया जा रहा है, तो ब्लॉक नमूनाकरण गिब्स प्रतिचयन बिल्कुल नहीं करने के बराबर है, जो परिकल्पना द्वारा कठिन होगा।)

सॉफ्टवेयर

 * OpenBUGS सॉफ़्टवेयर (गिब्स सैम्पलिंग का उपयोग करके बायेसियन अनुमान) मार्कोव श्रृंखला मोंटे कार्लो का उपयोग करके जटिल सांख्यिकीय मॉडल का बायेसियन विश्लेषण करता है।


 * बस एक और गिब्स सैंपलर (बस एक और गिब्स नमूना) मार्कोव चेन मोंटे कार्लो का उपयोग करके बायेसियन पदानुक्रमित मॉडल के विश्लेषण के लिए एक जीपीएल कार्यक्रम है।


 * चर्च (प्रोग्रामिंग भाषा) मनमाना वितरण पर गिब्स अनुमान लगाने के लिए मुफ्त सॉफ्टवेयर है जो कि संभाव्य कार्यक्रमों के रूप में निर्दिष्ट हैं।


 * PyMC सामान्य ग्राफिकल मॉडल के बायेसियन सीखने के लिए एक ओपन सोर्स पायथन (प्रोग्रामिंग लैंग्वेज) लाइब्रेरी है।
 * Turing संभाव्य प्रोग्रामिंग का उपयोग करके बायेसियन अनुमान के लिए एक खुला स्रोत जूलिया (प्रोग्रामिंग भाषा) पुस्तकालय है।

संदर्भ

 * Bolstad, William M. (2010), Understanding Computational Bayesian Statistics, John Wiley ISBN 978-0-470-04609-8
 * (Contains a basic summary and many references.)
 * Gelman, A., Carlin J. B., Stern H. S., Dunson D., Vehtari A., Rubin D. B. (2013), Bayesian Data Analysis, third edition. London: Chapman & Hall.
 * Levin, David A.; Peres, Yuval; Wilmer, Elizabeth L. (2008), "Markov Chains and Mixing Times", American Mathematical Society.
 * Robert, C. P.; Casella, G. (2004), Monte Carlo Statistical Methods (second edition), Springer-Verlag.
 * Levin, David A.; Peres, Yuval; Wilmer, Elizabeth L. (2008), "Markov Chains and Mixing Times", American Mathematical Society.
 * Robert, C. P.; Casella, G. (2004), Monte Carlo Statistical Methods (second edition), Springer-Verlag.