मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम

सांख्यिकी और सांख्यिकीय भौतिकी में, मेट्रोपोलिस-हेस्टिंग्स एल्गोरिथ्म एक संभाव्यता वितरण से छद्म-यादृच्छिक संख्या नमूने का अनुक्रम प्राप्त करने के लिए एक मार्कोव श्रृंखला मोंटे कार्लो (एमसीएमसी) विधि है, जहां से प्रत्यक्ष नमूनाकरण मुश्किल है। इस अनुक्रम का उपयोग वितरण का अनुमान लगाने के लिए (उदाहरण के लिए हिस्टोग्राम उत्पन्न करने के लिए) या मोंटे कार्लो एकीकरण (उदाहरण के लिए अपेक्षित मूल्य) के लिए किया जा सकता है। मेट्रोपोलिस-हेस्टिंग्स और अन्य एमसीएमसी एल्गोरिदम का उपयोग आम तौर पर बहु-आयामी वितरण से नमूना लेने के लिए किया जाता है, खासकर जब आयामों की संख्या अधिक होती है। एकल-आयामी वितरण के लिए, आमतौर पर अन्य विधियां होती हैं (उदाहरण के लिए अनुकूली अस्वीकृति नमूनाकरण) जो सीधे वितरण से स्वतंत्र नमूने वापस कर सकती हैं, और ये एमसीएमसी विधियों में निहित ऑटोसहसंबंध नमूनों की समस्या से मुक्त हैं।

इतिहास
एल्गोरिथम का नाम आंशिक रूप से निकोलस मेट्रोपोलिस के नाम पर रखा गया है, जो 1953 के पेपर के पहले सह-लेखक थे, जिसका शीर्षक एरियाना डब्ल्यू. रोसेनब्लुथ, मार्शल रोसेनब्लथ, ऑगस्टा एच. टेलर और एडवर्ड टेलर के साथ फास्ट कंप्यूटिंग मशीनों द्वारा राज्य की गणना का समीकरण था। कई वर्षों तक एल्गोरिथम को केवल मेट्रोपोलिस एल्गोरिथम के रूप में जाना जाता था। पेपर ने सममित प्रस्ताव वितरण के मामले के लिए एल्गोरिदम का प्रस्ताव दिया, लेकिन 1970 में, डब्ल्यू.के. हेस्टिंग्स ने इसे अधिक सामान्य मामले तक विस्तारित किया। सामान्यीकृत विधि को अंततः दोनों नामों से पहचाना गया, हालांकि मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम शब्द का पहला उपयोग अस्पष्ट है।

मेट्रोपोलिस एल्गोरिथम के विकास के श्रेय के संबंध में कुछ विवाद मौजूद हैं। मेट्रोपोलिस, जो विधि के कम्प्यूटेशनल पहलुओं से परिचित थे, ने स्टैनिस्लाव उलम के साथ एक पुराने लेख में मोंटे कार्लो शब्द गढ़ा था, और सैद्धांतिक प्रभाग में उस समूह का नेतृत्व किया था जिसने 1952 में प्रयोगों में उपयोग किए गए MANIAC I कंप्यूटर को डिजाइन और निर्मित किया था। हालाँकि, 2003 से पहले एल्गोरिथम के विकास का कोई विस्तृत विवरण नहीं था। अपनी मृत्यु से कुछ समय पहले, मार्शल रोसेनब्लुथ ने 1953 के प्रकाशन की 50वीं वर्षगांठ के अवसर पर LANL में 2003 के एक सम्मेलन में भाग लिया। इस सम्मेलन में, रोसेनब्लुथ ने सांख्यिकीय यांत्रिकी के लिए मोंटे कार्लो एल्गोरिदम की उत्पत्ति नामक एक प्रस्तुति में एल्गोरिदम और उसके विकास का वर्णन किया। 2005 के एक जर्नल लेख में गुबर्नैटिस द्वारा और अधिक ऐतिहासिक स्पष्टीकरण दिया गया है 50वीं वर्षगांठ सम्मेलन का पुनर्गणना। रोसेनब्लुथ ने यह स्पष्ट किया कि उन्होंने और उनकी पत्नी एरियाना ने यह काम किया, और मेट्रोपोलिस ने कंप्यूटर समय प्रदान करने के अलावा विकास में कोई भूमिका नहीं निभाई।

यह एडवर्ड टेलर के एक लेख का खंडन करता है, जिन्होंने अपने संस्मरणों में कहा है कि 1953 के लेख के पांच लेखकों ने दिनों (और रातों) के लिए एक साथ काम किया। इसके विपरीत, रोसेनब्लुथ का विस्तृत विवरण टेलर को सांख्यिकीय यांत्रिकी का लाभ उठाने और विस्तृत गतिकी का पालन करने के बजाय समग्र औसत लेने के लिए एक महत्वपूर्ण लेकिन प्रारंभिक सुझाव का श्रेय देता है। रोसेनब्लुथ कहते हैं, इसने उन्हें सामान्यीकृत मोंटे कार्लो दृष्टिकोण के बारे में सोचना शुरू कर दिया - एक विषय जिसके बारे में उनका कहना है कि उन्होंने जॉन वॉन न्यूमैन के साथ अक्सर चर्चा की थी। एरियाना रोसेनब्लुथ ने बताया (2003 में गुबर्नैटिस को) कि ऑगस्टा टेलर ने कंप्यूटर का काम शुरू किया था, लेकिन एरियाना ने खुद इसे अपने हाथ में ले लिया और स्क्रैच से कोड लिखा। उनकी मृत्यु से कुछ समय पहले दर्ज मौखिक इतिहास में, रोसेनब्लुथ ने फिर से टेलर को मूल समस्या प्रस्तुत करने, स्वयं इसे हल करने और एरियाना को कंप्यूटर प्रोग्रामिंग करने का श्रेय दिया।

अंतर्ज्ञान
मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम संभाव्यता घनत्व के साथ किसी भी संभाव्यता वितरण से नमूने खींच सकता है $$P(x)$$, बशर्ते कि हम एक फ़ंक्शन जानते हों $$f(x)$$ संभाव्यता घनत्व फ़ंक्शन के आनुपातिक $$P$$ और के मूल्य $$f(x)$$ गणना की जा सकती है. आवश्यकता यह है कि $$f(x)$$ घनत्व के बिल्कुल बराबर होने के बजाय केवल आनुपातिक होना चाहिए, जो मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम को विशेष रूप से उपयोगी बनाता है, क्योंकि आवश्यक सामान्यीकरण कारक की गणना करना व्यवहार में अक्सर बेहद कठिन होता है।

मेट्रोपोलिस-हेस्टिंग्स एल्गोरिथ्म नमूना मूल्यों का एक क्रम इस तरह से उत्पन्न करता है कि, जैसे-जैसे अधिक से अधिक नमूना मूल्य उत्पन्न होते हैं, मूल्यों का वितरण वांछित वितरण के अधिक करीब होता है। ये नमूना मान पुनरावृत्त रूप से उत्पन्न होते हैं, अगले नमूने का वितरण केवल वर्तमान नमूना मूल्य पर निर्भर होता है, इस प्रकार नमूनों का अनुक्रम मार्कोव श्रृंखला में बन जाता है। विशेष रूप से, प्रत्येक पुनरावृत्ति पर, एल्गोरिदम वर्तमान नमूना मूल्य के आधार पर अगले नमूना मूल्य के लिए एक उम्मीदवार चुनता है। फिर, कुछ संभावना के साथ, उम्मीदवार को या तो स्वीकार कर लिया जाता है, जिस स्थिति में उम्मीदवार मूल्य का उपयोग अगले पुनरावृत्ति में किया जाता है, या इसे अस्वीकार कर दिया जाता है, जिस स्थिति में उम्मीदवार मूल्य को खारिज कर दिया जाता है, और वर्तमान मूल्य को अगले पुनरावृत्ति में पुन: उपयोग किया जाता है। स्वीकृति की संभावना फ़ंक्शन के मूल्यों की तुलना करके निर्धारित की जाती है $$f(x)$$ वांछित वितरण के संबंध में वर्तमान और उम्मीदवार नमूना मूल्यों का।

चित्रण के प्रयोजन के लिए, मेट्रोपोलिस एल्गोरिदम, मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम का एक विशेष मामला जहां प्रस्ताव फ़ंक्शन सममित है, नीचे वर्णित है।

होने देना $$f(x)$$ एक ऐसा फ़ंक्शन बनें जो वांछित संभाव्यता घनत्व फ़ंक्शन के समानुपाती हो $$P(x)$$ (उर्फ लक्ष्य वितरण).
 * मेट्रोपोलिस एल्गोरिदम (सममित प्रस्ताव वितरण):
 * 1) आरंभीकरण: एक मनमाना बिंदु चुनें $$x_t$$ नमूने में पहला अवलोकन होना और एक मनमाना संभाव्यता घनत्व चुनना $$g(x\mid y)$$ (कभी-कभी लिखा जाता है $$Q(x\mid y)$$) जो अगले नमूना मूल्य के लिए एक उम्मीदवार का सुझाव देता है $$x$$, पिछला नमूना मान दिया गया है $$y$$. इस खंड में, $$g$$ सममित माना जाता है; दूसरे शब्दों में, इसे संतुष्ट करना होगा $$g(x\mid y) = g(y\mid x)$$. एक सामान्य विकल्प है जाने देना $$g(x\mid y)$$ गाऊसी वितरण पर केन्द्रित होना $$y$$, तो यह करीब इंगित करता है $$y$$ अगले दौरे पर जाने की अधिक संभावना है, जिससे नमूनों का क्रम यादृच्छिक चलन में बदल जाता है. कार्यक्रम $$g$$ प्रस्ताव घनत्व या जम्पिंग वितरण के रूप में जाना जाता है।
 * 2) प्रत्येक पुनरावृत्ति के लिए t:
 * 3) * एक उम्मीदवार तैयार करें $$x'$$ वितरण से चुनकर अगले नमूने के लिए $$g(x'\mid x_t)$$.
 * 4) * स्वीकृति अनुपात की गणना करें $$\alpha = f(x')/f(x_t)$$, जिसका उपयोग यह तय करने के लिए किया जाएगा कि उम्मीदवार को स्वीकार करना है या अस्वीकार करना है. क्योंकि f, P के घनत्व के समानुपाती है, हमारे पास वह है $$\alpha = f(x')/f(x_t) = P(x')/P(x_t)$$.
 * 5) * स्वीकार करें या अस्वीकार करें:
 * 6) ** एक समान यादृच्छिक संख्या उत्पन्न करें $$u \in [0, 1]$$.
 * 7) ** अगर $$u \le \alpha$$, फिर सेटिंग करके उम्मीदवार को स्वीकार करें $$x_{t+1} = x'$$,
 * 8) ** अगर $$u > \alpha$$, फिर उम्मीदवार को अस्वीकार करें और सेट करें $$x_{t+1} = x_t$$ बजाय।

यह एल्गोरिदम नमूना स्थान के बारे में बेतरतीब ढंग से आगे बढ़ने का प्रयास करके आगे बढ़ता है, कभी-कभी चालों को स्वीकार करता है और कभी-कभी जगह पर बना रहता है। ध्यान दें कि स्वीकृति अनुपात $$\alpha$$ यह इंगित करता है कि नया प्रस्तावित नमूना वर्तमान नमूने के संबंध में कितना संभावित है, वितरण के अनुसार जिसका घनत्व है $$P(x)$$. यदि हम किसी ऐसे बिंदु पर जाने का प्रयास करते हैं जो मौजूदा बिंदु से अधिक संभावित है (अर्थात उच्च-घनत्व वाले क्षेत्र में एक बिंदु) $$P(x)$$ एक के अनुरूप $$\alpha > 1 \ge u$$), हम इस कदम को हमेशा स्वीकार करेंगे। हालाँकि, यदि हम कम संभावित बिंदु पर जाने का प्रयास करते हैं, तो हम कभी-कभी इस कदम को अस्वीकार कर देंगे, और संभावना में सापेक्ष गिरावट जितनी अधिक होगी, उतनी अधिक संभावना है कि हम नए बिंदु को अस्वीकार कर देंगे। इस प्रकार, हम उच्च-घनत्व वाले क्षेत्रों में बने रहेंगे (और वहां से बड़ी संख्या में नमूने वापस लाएंगे)। $$P(x)$$, जबकि केवल कभी-कभार ही कम घनत्व वाले क्षेत्रों का दौरा करते हैं। सहज रूप से, यही कारण है कि यह एल्गोरिदम काम करता है और नमूने लौटाता है जो घनत्व के साथ वांछित वितरण का पालन करते हैं $$P(x)$$.

अनुकूली अस्वीकृति नमूनाकरण जैसे एल्गोरिदम की तुलना में जो सीधे वितरण से स्वतंत्र नमूने उत्पन्न करता है, मेट्रोपोलिस-हेस्टिंग्स और अन्य एमसीएमसी एल्गोरिदम के कई नुकसान हैं:
 * नमूने सहसंबद्ध हैं। हालांकि लंबी अवधि में वे सही ढंग से पालन करते हैं $$P(x)$$, आस-पास के नमूनों का एक सेट एक दूसरे के साथ सहसंबद्ध होगा और वितरण को सही ढंग से प्रतिबिंबित नहीं करेगा। इसका मतलब यह है कि प्रभावी नमूना आकार वास्तव में लिए गए नमूनों की संख्या से काफी कम हो सकता है, जिससे बड़ी त्रुटियां हो सकती हैं।
 * यद्यपि मार्कोव श्रृंखला अंततः वांछित वितरण में परिवर्तित हो जाती है, प्रारंभिक नमूने बहुत अलग वितरण का पालन कर सकते हैं, खासकर यदि शुरुआती बिंदु कम घनत्व वाले क्षेत्र में है। परिणामस्वरूप, बर्न-इन अवधि आम तौर पर आवश्यक होती है, जहां शुरुआती संख्या में नमूने फेंके जाते हैं।

दूसरी ओर, अधिकांश सरल अस्वीकृति नमूनाकरण विधियां आयामीता के अभिशाप से ग्रस्त हैं, जहां आयामों की संख्या के फलन के रूप में अस्वीकृति की संभावना तेजी से बढ़ जाती है। मेट्रोपोलिस-हेस्टिंग्स, अन्य एमसीएमसी विधियों के साथ, इस हद तक यह समस्या नहीं है, और इस प्रकार अक्सर एकमात्र समाधान उपलब्ध होता है जब नमूना किए जाने वाले वितरण के आयामों की संख्या अधिक होती है। परिणामस्वरूप, आजकल कई विषयों में उपयोग किए जाने वाले पदानुक्रमित बायेसियन मॉडल और अन्य उच्च-आयामी सांख्यिकीय मॉडल से नमूने तैयार करने के लिए एमसीएमसी विधियां अक्सर पसंद की विधियां होती हैं।

बहुभिन्नरूपी वितरण वितरण में, जैसा कि ऊपर वर्णित है, क्लासिक मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम में एक नया बहु-आयामी नमूना बिंदु चुनना शामिल है। जब आयामों की संख्या अधिक होती है, तो उपयोग करने के लिए उपयुक्त जंपिंग वितरण ढूंढना मुश्किल हो सकता है, क्योंकि अलग-अलग व्यक्तिगत आयाम बहुत अलग-अलग तरीकों से व्यवहार करते हैं, और अत्यधिक से बचने के लिए जंपिंग चौड़ाई (ऊपर देखें) एक ही बार में सभी आयामों के लिए बिल्कुल सही होनी चाहिए। धीमी गति से मिश्रण. एक वैकल्पिक दृष्टिकोण जो अक्सर ऐसी स्थितियों में बेहतर काम करता है, जिसे गिब्स नमूनाकरण  के रूप में जाना जाता है, इसमें एक ही बार में सभी आयामों के लिए एक नमूना चुनने के बजाय, प्रत्येक आयाम के लिए दूसरों से अलग एक नया नमूना चुनना शामिल है। इस तरह, संभावित उच्च-आयामी स्थान से नमूना लेने की समस्या छोटी आयामीता से नमूना लेने के लिए समस्याओं के संग्रह में कम हो जाएगी। यह विशेष रूप से तब लागू होता है जब बहुभिन्नरूपी वितरण व्यक्तिगत यादृच्छिक चर के एक सेट से बना होता है जिसमें प्रत्येक चर केवल अन्य चर की एक छोटी संख्या पर आधारित होता है, जैसा कि अधिकांश विशिष्ट पदानुक्रमित बायेसियन मॉडल में होता है। फिर अलग-अलग चर का एक-एक करके नमूना लिया जाता है, प्रत्येक चर को अन्य सभी के नवीनतम मूल्यों पर आधारित किया जाता है। बहुभिन्नरूपी वितरण के सटीक रूप के आधार पर, इन व्यक्तिगत नमूनों को चुनने के लिए विभिन्न एल्गोरिदम का उपयोग किया जा सकता है: कुछ संभावनाएं अनुकूली अस्वीकृति नमूनाकरण विधियां हैं, अनुकूली अस्वीकृति मेट्रोपोलिस नमूनाकरण एल्गोरिदम, एक सरल एक-आयामी मेट्रोपोलिस-हेस्टिंग्स चरण, या स्लाइस नमूनाकरण।

औपचारिक व्युत्पत्ति
मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम का उद्देश्य वांछित वितरण के अनुसार राज्यों का संग्रह उत्पन्न करना है $$P(x)$$. इसे पूरा करने के लिए, एल्गोरिदम एक मार्कोव प्रक्रिया का उपयोग करता है, जो असम्बद्ध रूप से एक अद्वितीय मार्कोव श्रृंखला # स्थिर-राज्य विश्लेषण और सीमित वितरण तक पहुंचता है $$\pi(x)$$ ऐसा है कि $$\pi(x) = P(x)$$.

एक मार्कोव प्रक्रिया को उसकी संक्रमण संभावनाओं द्वारा विशिष्ट रूप से परिभाषित किया गया है $$P(x' \mid x)$$, किसी दिए गए राज्य से संक्रमण की संभावना $$x$$ किसी अन्य दिए गए राज्य के लिए $$x'$$. इसका एक अद्वितीय स्टेशनरी वितरण है $$\pi(x)$$ जब निम्नलिखित दो शर्तें पूरी हों: # स्थिर वितरण का अस्तित्व: एक स्थिर वितरण का अस्तित्व होना चाहिए $$\pi(x)$$. एक पर्याप्त लेकिन आवश्यक शर्त विस्तृत संतुलन नहीं है, जिसके लिए प्रत्येक संक्रमण की आवश्यकता होती है $$x \to x'$$ प्रतिवर्ती है: राज्यों की प्रत्येक जोड़ी के लिए $$x, x'$$, राज्य में होने की संभावना $$x$$ और राज्य में परिवर्तन $$x'$$ राज्य में होने की संभावना के बराबर होना चाहिए $$x'$$ और राज्य में परिवर्तन $$x$$, $$\pi(x) P(x' \mid x) = \pi(x') P(x \mid x')$$.
 * 1) स्थिर वितरण की विशिष्टता: स्थिर वितरण $$\pi(x)$$ अद्वितीय होना चाहिए। इसकी गारंटी मार्कोव प्रक्रिया की मार्कोव चेन#एर्गोडिसिटी द्वारा दी गई है, जिसके लिए आवश्यक है कि प्रत्येक राज्य को (1) एपेरियोडिक होना चाहिए - सिस्टम निश्चित अंतराल पर उसी स्थिति में वापस नहीं आता है; और (2) सकारात्मक आवर्ती होना - उसी स्थिति में लौटने के लिए चरणों की अपेक्षित संख्या सीमित है।

मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम में एक मार्कोव प्रक्रिया (संक्रमण संभावनाओं का निर्माण करके) को डिजाइन करना शामिल है जो उपरोक्त दो शर्तों को पूरा करता है, जैसे कि इसका स्थिर वितरण $$\pi(x)$$ होना चुना गया है $$P(x)$$. एल्गोरिदम की व्युत्पत्ति विस्तृत संतुलन की स्थिति से शुरू होती है:


 * $$P(x' \mid x) P(x) = P(x \mid x') P(x'),$$

जिसे पुनः इस रूप में लिखा गया है


 * $$\frac{P(x' \mid x)}{P(x \mid x')} = \frac{P(x')}{P(x)}.$$

दृष्टिकोण संक्रमण को दो उप-चरणों में अलग करना है; प्रस्ताव और स्वीकृति-अस्वीकृति. प्रस्ताव वितरण $$g(x' \mid x)$$ किसी राज्य को प्रस्तावित करने की सशर्त संभावना है $$x'$$ दिया गया $$x$$, और स्वीकृति वितरण $$A(x', x)$$ प्रस्तावित राज्य को स्वीकार करने की संभावना है $$x'$$. संक्रमण संभाव्यता को उनके उत्पाद के रूप में लिखा जा सकता है:


 * $$P(x'\mid x) = g(x' \mid x) A(x', x).$$

इस संबंध को पिछले समीकरण में डालने पर, हमारे पास है


 * $$\frac{A(x', x)}{A(x, x')} = \frac{P(x')}{P(x)}\frac{g(x \mid x')}{g(x' \mid x)}.$$

व्युत्पत्ति में अगला कदम एक स्वीकृति अनुपात चुनना है जो उपरोक्त शर्त को पूरा करता है। एक सामान्य विकल्प मेट्रोपोलिस विकल्प है:


 * $$A(x', x) = \min\left(1, \frac{P(x')}{P(x)} \frac{g(x \mid x')}{g(x' \mid x)}\right).$$

इसके लिए मेट्रोपोलिस स्वीकृति अनुपात $$A$$, दोनों में से एक $$A(x', x) = 1$$ या $$A(x, x') = 1$$ और, किसी भी तरह, शर्त पूरी होती है।

मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम को इस प्रकार लिखा जा सकता है:
 * 1) आरंभ करें
 * 2) एक प्रारंभिक अवस्था चुनें $$x_0$$.
 * 3) तय करना $$t = 0$$.
 * 4) पुनरावृति
 * 5) एक यादृच्छिक उम्मीदवार राज्य उत्पन्न करें $$x'$$ के अनुसार $$g(x' \mid x_t)$$.
 * 6) स्वीकृति संभावना की गणना करें $$A(x', x_t) = \min\left(1, \frac{P(x')}{P(x_t)} \frac{g(x_t \mid x')}{g(x' \mid x_t)}\right)$$.
 * 7) स्वीकार करें या अस्वीकार करें:
 * 8) एक समान यादृच्छिक संख्या उत्पन्न करें $$u \in [0, 1]$$;
 * 9) अगर $$u \le A(x', x_t)$$, फिर नए राज्य को स्वीकार करें और सेट करें $$x_{t+1} = x'$$;
 * 10) अगर $$u >   A(x', x_t)$$, फिर नए राज्य को अस्वीकार करें, और पुराने राज्य को आगे कॉपी करें $$x_{t+1} = x_{t}$$.
 * 11) वृद्धि: सेट $$t = t + 1$$.

बशर्ते कि निर्दिष्ट शर्तें पूरी हों, सहेजे गए राज्यों का अनुभवजन्य वितरण $$x_0, \ldots, x_T$$ संपर्क करेंगे $$P(x)$$. पुनरावृत्तियों की संख्या ($$T$$) प्रभावी ढंग से अनुमान लगाने की आवश्यकता है $$P(x)$$ कारकों की संख्या पर निर्भर करता है, जिसमें बीच का संबंध भी शामिल है $$P(x)$$ और प्रस्ताव वितरण और अनुमान की वांछित सटीकता। असतत राज्य स्थानों पर वितरण के लिए, इसे मार्कोव प्रक्रिया के स्वत: सहसंबंध समय के क्रम का होना चाहिए।

यह ध्यान रखना महत्वपूर्ण है कि सामान्य समस्या में यह स्पष्ट नहीं है कि कौन सा वितरण $$g(x' \mid x)$$ किसी को उचित अनुमान के लिए आवश्यक पुनरावृत्तियों की संख्या का उपयोग करना चाहिए; दोनों विधि के निःशुल्क पैरामीटर हैं, जिन्हें मौजूदा विशेष समस्या के अनुसार समायोजित किया जाना चाहिए।

संख्यात्मक एकीकरण में उपयोग
मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम का एक सामान्य उपयोग एक अभिन्न की गणना करना है। विशेष रूप से, एक स्थान पर विचार करें $$\Omega \subset \mathbb{R}$$ और एक संभाव्यता वितरण $$P(x)$$ ऊपर $$\Omega$$, $$x \in \Omega$$. मेट्रोपोलिस-हेस्टिंग्स के रूप का एक अभिन्न अंग का अनुमान लगा सकते हैं


 * $$P(E) = \int_\Omega A(x) P(x) \,dx,$$

कहाँ $$A(x)$$ रुचि का एक (मापने योग्य) कार्य है।

उदाहरण के लिए, एक आँकड़े पर विचार करें $$E(x)$$ और इसकी संभाव्यता वितरण $$P(E)$$, जो सीमांत वितरण है। मान लीजिए कि लक्ष्य अनुमान लगाना है $$P(E)$$ के लिए $$E$$ की पूँछ पर $$P(E)$$. औपचारिक रूप से, $$P(E)$$ के रूप में लिखा जा सकता है



P(E) = \int_\Omega P(E\mid x) P(x) \,dx = \int_\Omega \delta\big(E - E(x)\big) P(x) \,dx = E \big(P(E\mid X)\big) $$ और, इस प्रकार, अनुमान लगाना $$P(E)$$ सूचक फ़ंक्शन के अपेक्षित मूल्य का अनुमान लगाकर पूरा किया जा सकता है $$A_E(x) \equiv \mathbf{1}_E(x)$$, जो 1 है जब $$E(x) \in [E, E + \Delta E]$$ और अन्यथा शून्य. क्योंकि $$E$$ की पूँछ पर है $$P(E)$$, एक राज्य बनाने की संभावना $$x$$ साथ $$E(x)$$ की पूँछ पर $$P(E)$$ के लिए आनुपातिक है $$P(E)$$, जो परिभाषा के अनुसार छोटा है। मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम का उपयोग यहां (दुर्लभ) राज्यों का नमूना लेने के लिए किया जा सकता है और इस प्रकार अनुमान लगाने के लिए उपयोग किए जाने वाले नमूनों की संख्या में वृद्धि हो सकती है $$P(E)$$ पूँछ पर. यह किया जा सकता है उदा. नमूना वितरण का उपयोग करके $$\pi(x)$$ उन राज्यों का पक्ष लेना (उदा. $$\pi(x) \propto e^{a E}$$ साथ $$a > 0$$).

चरण-दर-चरण निर्देश
मान लीजिए कि नमूना लिया गया सबसे हालिया मूल्य है $$x_t$$. मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम का पालन करने के लिए, हम आगे एक नया प्रस्ताव राज्य बनाते हैं $$x'$$ संभाव्यता घनत्व के साथ $$g(x' \mid x_t)$$ और एक मान की गणना करें


 * $$a = a_1 a_2,$$

कहाँ


 * $$a_1 = \frac{P(x')}{P(x_t)}$$

प्रस्तावित नमूने के बीच संभाव्यता (जैसे, बायेसियन पोस्टीरियर) अनुपात है $$x'$$ और पिछला नमूना $$x_t$$, और


 * $$a_2 = \frac{g(x_t \mid x')}{g(x' \mid x_t)}$$

दो दिशाओं में प्रस्ताव घनत्व का अनुपात है (से $$x_t$$ को $$x'$$ और इसके विपरीत)। यदि प्रस्ताव घनत्व सममित है तो यह 1 के बराबर है। फिर नया राज्य $$x_{t+1}$$ निम्नलिखित नियमों के अनुसार चुना जाता है।


 * अगर $$a \geq 1{:}$$
 * $$x_{t+1} = x',$$
 * अन्य:
 * $$x_{t+1} =

\begin{cases} x' & \text{with probability } a, \\ x_t & \text{with probability } 1-a. \end{cases} $$ मार्कोव श्रृंखला एक मनमाने प्रारंभिक मूल्य से शुरू की गई है $$x_0$$, और एल्गोरिथ्म को कई पुनरावृत्तियों तक चलाया जाता है जब तक कि यह प्रारंभिक स्थिति भूल न जाए। ये नमूने, जिन्हें त्याग दिया जाता है, बर्न-इन के रूप में जाने जाते हैं। के स्वीकृत मूल्यों का शेष सेट $$x$$ वितरण से एक नमूना (सांख्यिकी) प्रस्तुत करें $$P(x)$$.

यदि प्रस्ताव घनत्व लक्ष्य वितरण के आकार से मेल खाता है तो एल्गोरिदम सबसे अच्छा काम करता है $$P(x)$$, जिससे सीधा नमूना लेना कठिन है, अर्थात $$g(x' \mid x_t) \approx P(x')$$. यदि एक गाऊसी प्रस्ताव घनत्व $$g$$ विचरण पैरामीटर का उपयोग किया जाता है $$\sigma^2$$ बर्न-इन अवधि के दौरान ट्यून करना होगा। यह आमतौर पर स्वीकृति दर की गणना करके किया जाता है, जो प्रस्तावित नमूनों का वह अंश है जिसे अंतिम विंडो में स्वीकार किया जाता है $$N$$ नमूने. वांछित स्वीकृति दर लक्ष्य वितरण पर निर्भर करती है, हालांकि यह सैद्धांतिक रूप से दिखाया गया है कि एक-आयामी गॉसियन वितरण के लिए आदर्श स्वीकृति दर लगभग 50% है, जो घटकर लगभग 23% हो जाती है। $$N$$-आयामी गाऊसी लक्ष्य वितरण. पर्याप्त रूप से नियमित बायेसियन पोस्टीरियर से नमूना लेने पर ये दिशानिर्देश अच्छी तरह से काम कर सकते हैं क्योंकि वे अक्सर बहुभिन्नरूपी सामान्य वितरण का पालन करते हैं जैसा कि बर्नस्टीन-वॉन मिज़ प्रमेय का उपयोग करके स्थापित किया जा सकता है। अगर $$\sigma^2$$ बहुत छोटा है, श्रृंखला धीरे-धीरे मिश्रित होगी (यानी, स्वीकृति दर अधिक होगी, लेकिन क्रमिक नमूने धीरे-धीरे अंतरिक्ष में घूमेंगे, और श्रृंखला केवल धीरे-धीरे ही परिवर्तित होगी) $$P(x)$$). वहीं दूसरी ओर, अगर $$\sigma^2$$ बहुत बड़ा है, स्वीकृति दर बहुत कम होगी क्योंकि प्रस्तावों के बहुत कम संभावना घनत्व वाले क्षेत्रों में आने की संभावना है, इसलिए $$a_1$$ बहुत छोटा होगा, और फिर से श्रृंखला बहुत धीरे-धीरे एकत्रित होगी। आम तौर पर प्रस्ताव वितरण को ट्यून किया जाता है ताकि एल्गोरिदम सभी नमूनों के 30% के क्रम पर स्वीकार कर सके - पिछले पैराग्राफ में उल्लिखित सैद्धांतिक अनुमानों के अनुरूप।



बायेसियन अनुमान
एमसीएमसी का उपयोग सांख्यिकीय मॉडल के पिछले वितरण से नमूने लेने के लिए किया जा सकता है। स्वीकृति की संभावना इस प्रकार दी गई है: $$P_{acc}(\theta_i \to \theta^*)=\min\left(1, \frac{\mathcal{L}(y|\theta^*)P(\theta^*)}{\mathcal{L}(y|\theta_i)P(\theta_i)}\frac{Q(\theta_i|\theta^*)}{Q(\theta^*|\theta_i)}\right),$$ कहाँ $$\mathcal{L}$$ संभावना है, $$P(\theta)$$ पूर्व संभाव्यता घनत्व और $$Q$$ (सशर्त) प्रस्ताव संभावना।

यह भी देखें

 * विस्तृत संतुलन
 * आनुवंशिक एल्गोरिदम
 * गिब्स नमूनाकरण
 * हैमिल्टनियन मोंटे कार्लो
 * माध्य-क्षेत्र कण विधियाँ
 * मेट्रोपोलिस-समायोजित लैंग्विन एल्गोरिदम
 * महानगर प्रकाश परिवहन
 * बहु-प्रयास महानगर
 * समानांतर तड़का
 * पूर्वनिर्धारित क्रैंक-निकोलसन एल्गोरिदम
 * कण फिल्टर
 * तैयार किए हुयी धातु पे पानी चढाने की कला

अग्रिम पठन

 * Bernd A. Berg. Markov Chain Monte Carlo Simulations and Their Statistical Analysis. Singapore, World Scientific, 2004.
 * Siddhartha Chib and Edward Greenberg: "Understanding the Metropolis–Hastings Algorithm". American Statistician, 49(4), 327–335, 1995
 * David D. L. Minh and Do Le Minh. "Understanding the Hastings Algorithm." Communications in Statistics - Simulation and Computation, 44:2 332-349, 2015
 * Bolstad, William M. (2010) Understanding Computational Bayesian Statistics, John Wiley & Sons ISBN 0-470-04609-0