महत्व नमूनाकरण

महत्व नमूनाकरण एक विशेष संभाव्यता वितरण के गुणों का मूल्यांकन करने के लिए एक मोंटे कार्लो विधि है, जबकि ब्याज के वितरण की तुलना में केवल एक अलग वितरण से उत्पन्न नमूने होते हैं। सांख्यिकी में इसकी प्रारंभिक का श्रेय सामान्यतः 1978 में तेन क्लोएक और हरमन के. वैन डिज्क के एक पेपर को दिया जाता है, किंतु इसके अग्रदूत मोंटे कार्लो पद्धति में सांख्यिकीय भौतिकी में 1949 की प्रारंभिक में पाए जा सकते हैं। कम्प्यूटेशनल भौतिकी में महत्वपूर्ण नमूनाकरण छाता नमूनाकरण से भी संबंधित है। आवेदन के आधार पर, शब्द इस वैकल्पिक वितरण, अनुमान की प्रक्रिया या दोनों से नमूनाकरण की प्रक्रिया को संदर्भित कर सकता है।

मूल सिद्धांत
मान लीजिए कि $$X\colon \Omega\to \mathbb{R}$$कुछ संभाव्यता स्थान $$(\Omega,\mathcal{F},P)$$में एक यादृच्छिक चर है। हम P के अंतर्गत X के अपेक्षित मान का अनुमान लगाना चाहते हैं, जिसे E[X;P] दर्शाया गया है। यदि हमारे पास सांख्यिकीय रूप से स्वतंत्र यादृच्छिक नमूने $$x_1, \ldots, x_n$$ हैं, जो P के अनुसार उत्पन्न होते हैं, तो E[X;P] का एक अनुभवजन्य अनुमान है



\widehat{\mathbf{E}}_{n}[X;P] = \frac{1}{n} \sum_{i=1}^n x_i \quad \mathrm{where}\; x_i \sim P(X) $$ और इस अनुमान की स्पष्टता X के प्रसरण पर निर्भर करती है:



\operatorname{var}[\widehat{\mathbf{E}}_{n};P] = \frac{\operatorname{var}[X;P]} n. $$ महत्व नमूने का मूल विचार E[X;P] के अनुमान के विचरण को कम करने के लिए, या जब P से नमूना लेना कठिन हो, तो विभिन्न वितरण से अवस्थाओ का नमूना लेना है। यह पहले एक यादृच्छिक चर $$L\geq 0$$ को चुनकर पूरा किया जाता है जैसे कि E[L;P] = 1 और वह P-लगभग हर जगह $$L(\omega)\neq 0$$ चर L के साथ हम एक संभावना को परिभाषित करते हैं $$P^{(L)}$$ जो संतुष्ट करता है

\mathbf{E}[X;P] = \mathbf{E}\left[\frac{X}{L};P^{(L)}\right]. $$ इस प्रकार चर X/L को P(L*) के अंतर्गत प्रतिदर्शित किया जाएगा उपरोक्त के अनुसार 'E[X;P] का अनुमान लगाने के लिए और यह अनुमान तब सुधारा जाता है जब $$\operatorname{var}\left[\frac{X}{L};P^{(L)}\right] < \operatorname{var}[X;P]$$.

जब X Ω पर स्थिर चिह्न का है, तो सबसे अच्छा चर L स्पष्ट रूप से होगा $$L^*=\frac{X}{\mathbf{E}[X;P]}\geq 0$$, जिससे X/L* खोजा गया स्थिरांक 'E'[X;P] हो और P(L*) के अंतर्गत एक एकल नमूना हो इसका मूल्य बताने के लिए पर्याप्त है। दुर्भाग्य से हम वह विकल्प नहीं ले सकते, क्योंकि 'E[X;P] ठीक वही मूल्य है जिसकी हम खोज कर रहे हैं! चूँकि यह सैद्धांतिक सर्वोत्तम स्थिति L* हमें इस बात की जानकारी देता है कि नमूनाकरण का क्या महत्व है:



\begin{align}\forall a\in\mathbb{R}, \; P^{(L^*)}(X\in[a;a+da]) &= \int_{\omega\in\{X\in[a;a+da]\}} \frac{X(\omega)}{E[X;P]} \, dP(\omega) \\[6pt] &= \frac{1}{E[X;P]}\; a\,P(X\in[a;a+da]) \end{align}$$ दांई ओर, $$a\,P(X\in[a;a+da])$$ E[X;P] तक योग करने वाले अत्यल्प तत्वों में से एक है:


 * $$E[X;P] = \int_{a=-\infty}^{+\infty} a\,P(X\in[a;a+da]) $$

इसलिए, एक अच्छी संभावना परिवर्तन P(L) महत्वपूर्ण नमूनाकरण X के न्मियम को पुनर्वितरित करेगा जिससे इसके नमूनों की आवृत्तियों को 'E[X;P] में उनके वजन के अनुसार सीधे क्रमबद्ध किया जा सकता है। इसलिए इसका नाम महत्व नमूनाकरण पड़ा था।

महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब $$P$$ महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब $$\Omega =\mathbb{R}$$, E[X;P] वास्तविक कार्य $$X\colon \mathbb{R}\to\mathbb{R}$$ के अभिन्न अंग से मेल खाता है।

संभाव्य अनुमान के लिए आवेदन
इस तरह के विधियों का उपयोग अधिकांशतः स्थिति में पश्च घनत्व या अपेक्षाओं का अनुमान लगाने के लिए किया जाता है और / या संभाव्य मॉडल में पैरामीटर अनुमान समस्याओं का विश्लेषण किया जाता है जो कि विश्लेषणात्मक रूप से व्यवहार करने के लिए बहुत कठिन हैं, उदाहरण के लिए बायेसियन नेटवर्क में।

सिमुलेशन के लिए आवेदन
महत्व नमूनाकरण एक विचरण कमी तकनीक है जिसका उपयोग मोंटे कार्लो पद्धति में किया जा सकता है। महत्व नमूनाकरण के पीछे विचार यह है कि सिमुलेशन में इनपुट यादृच्छिक चर के कुछ मूल्यों का दूसरों की तुलना में अनुमानित पैरामीटर पर अधिक प्रभाव पड़ता है। यदि इन महत्वपूर्ण मूल्यों पर अधिक बार नमूनाकरण करके जोर दिया जाता है, तो अनुमानक विचरण को कम किया जा सकता है। इसलिए, महत्व नमूनाकरण में मूल पद्धति एक वितरण का चयन करना है जो महत्वपूर्ण मूल्यों को प्रोत्साहित करती है। पक्षपाती वितरण के इस उपयोग के परिणामस्वरूप एक पक्षपाती अनुमानक होगा यदि इसे सीधे अनुकरण में प्रयुक्त किया जाता है। चूँकि पक्षपाती वितरण के उपयोग के लिए सिमुलेशन आउटपुट को सही करने के लिए भारित किया जाता है, और यह सुनिश्चित करता है कि नया महत्व नमूना अनुमानक निष्पक्ष है। वजन संभावना अनुपात द्वारा दिया जाता है जो कि पक्षपाती सिमुलेशन वितरण के संबंध में वास्तविक अंतर्निहित वितरण का रेडॉन-निकोडिम व्युत्पन्न है।

महत्व नमूनाकरण सिमुलेशन को प्रयुक्त करने में मौलिक उद्देश्य पक्षपातपूर्ण वितरण का विकल्प है जो इनपुट चर के महत्वपूर्ण क्षेत्रों को प्रोत्साहित करता है। एक अच्छे पक्षपाती वितरण को चुनना या डिजाइन करना महत्व के नमूने की कला है। एक अच्छे वितरण का प्रतिफल बहुत बड़ी समय-समय पर बचत हो सकता है; एक खराब वितरण के लिए जुर्माना एक सामान्य मोंटे कार्लो सिमुलेशन की तुलना में महत्वपूर्ण नमूने के बिना लंबे समय तक चलाया जा सकता है।

$$X$$ को नमूना मानें और$$\frac{f(X)}{g(X)}$$को संभावना अनुपात मानें, जहां $$f$$ वांछित वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है और $$g$$ पक्षपातपूर्ण/प्रस्ताव/नमूना वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है। फिर समस्या को नमूना वितरण $$g$$ चुनकर चित्रित किया जा सकता है जो स्केल किए गए नमूने के विचरण को कम करता है:


 * $$g^* = \min_g \operatorname{var}_g \left( X \frac{f(X)}{g(X)} \right).$$

यह दिखाया जा सकता है कि निम्नलिखित वितरण उपरोक्त भिन्नता को कम करता है:

g^*(X) = \frac{|X| f(X)}{ \int |x| f(x) \, dx}. $$ ध्यान दें कि कब $$X\ge 0$$, यह भिन्नता 0 हो जाती है।

गणितीय दृष्टिकोण
सिमुलेशन द्वारा किसी घटना $$X \ge t$$ की संभावना $$p_t\,$$ का अनुमान लगाने पर विचार करें, जहां $$X$$ वितरण $$F$$ और संभाव्यता घनत्व फलन$$f(x)= F'(x)\,$$ के साथ एक यादृच्छिक चर है, जहां प्राइम व्युत्पन्न को दर्शाता है। एक $$K$$-लंबाई स्वतंत्र और समान रूप से वितरित (i.i.d.) अनुक्रम $$X_i\,$$, वितरण $$F$$ से उत्पन्न होता है, और सीमा $$t$$ से ऊपर स्थित यादृच्छिक चर की संख्या $$k_t$$ को गिना जाता है। यादृच्छिक चर $$k_t$$को द्विपद वितरण द्वारा चित्रित किया गया है


 * $$P(k_t = k)={K\choose k}p_t^k(1-p_t)^{K-k},\,\quad \quad k=0,1,\dots,K.$$

कोई यह दिखा सकता है कि $$\operatorname{E} [k_t/K] = p_t$$, और $$\operatorname{var} [k_t/K] = p_t(1-p_t)/K$$ इसलिए $$K \to \infty$$ की सीमा में हम $$p_t$$ प्राप्त करने में सक्षम हैं। ध्यान दें कि यदि $$p_t \approx 1$$लगभग है तो विचरण कम है। महत्व नमूनाकरण एक वैकल्पिक घनत्व कार्य $$f_*\,$$,($$X$$के लिए) के निर्धारण और उपयोग से संबंधित है, जिसे सामान्यतः पूर्वाग्रह घनत्व के रूप में जाना जाता है। अनुकरण प्रयोग. यह घनत्व घटना {$${ X \ge t\ }$$} को अधिक बार घटित होने की अनुमति देता है, इसलिए किसी दिए गए अनुमानक भिन्नता के लिए अनुक्रम लंबाई $$K$$ छोटी हो जाती है। वैकल्पिक रूप से, किसी दिए गए $$K$$के लिए, पूर्वाग्रह घनत्व के उपयोग के परिणामस्वरूप पारंपरिक मोंटे कार्लो अनुमान की तुलना में कम भिन्नता होती है। $$p_t\,$$ की परिभाषा से, हम नीचे दिए अनुसार$$f_*\,$$का परिचय दे सकते हैं।



\begin{align} p_t & = {E} [1(X \ge t)] \\[6pt] & = \int 1(x \ge t) \frac{f(x)}{f_*(x)} f_*(x) \,dx \\[6pt] & = E_* [1(X \ge t) W(X)] \end{align} $$ जहाँ


 * $$W(\cdot) \equiv \frac{f(\cdot)}{f_*(\cdot)} $$

एक संभावना अनुपात है और इसे वेटिंग कार्य के रूप में संदर्भित किया जाता है। उपरोक्त समीकरण में अंतिम समानता अनुमानक को प्रेरित करती है


 * $$ \hat p_t = \frac{1}{K}\,\sum_{i=1}^K 1(X_i \ge t) W(X_i),\,\quad \quad X_i \sim f_*$$

यह $$p_t\,$$ का महत्व नमूना अनुमानक है, और निष्पक्ष है। अर्थात्, अनुमान प्रक्रिया आई.आई.डी. उत्पन्न करने के लिए है । $$f_*\,$$ से नमूने, और प्रत्येक नमूने के लिए जो $$t\,$$ से अधिक है, अनुमान को वजन $$W\,$$ द्वारा बढ़ाया जाता है, जिसका मूल्यांकन नमूना मूल्य पर किया जाता है। परिणाम $$K\,$$, परीक्षणों पर औसत हैं। महत्व नमूना अनुमानक का विचरण आसानी से दिखाया जाता है



\begin{align} \operatorname{var}_*\widehat p_t & = \frac{1}{K}\operatorname{var}_* [1(X \ge t)W(X)] \\[5pt] & = \frac{1}{K}\left\{{E_*}[1(X \ge t)^2 W^2(X)] - p_t^2\right\} \\[5pt] & = \frac{1}{K}\left\{{E}[1(X \ge t) W(X)] - p_t^2\right\} \end{align} $$ अब, महत्व नमूनाकरण समस्या एक पूर्वाग्रह घनत्व $$f_*\,$$ खोजने पर केंद्रित है, जैसे कि महत्व नमूना अनुमानक का विचरण सामान्य मोंटे कार्लो अनुमान के विचरण से कम है। कुछ पूर्वाग्रह घनत्व कार्य के लिए, जो भिन्नता को कम करता है, और कुछ नियमो के तहत इसे शून्य तक कम कर देता है, इसे इष्टतम पूर्वाग्रह घनत्व कार्य कहा जाता है।

पारंपरिक पूर्वाग्रह के तरीके
यद्यपि कई प्रकार की पूर्वाग्रह विधियाँ हैं, महत्व नमूनाकरण के अनुप्रयोगों में निम्नलिखित दो विधियों का व्यापक रूप से उपयोग किया जाता है।

स्केलिंग
एकता से अधिक संख्या के साथ यादृच्छिक चर $$X\,$$ की सकारात्मक स्केलिंग द्वारा संभाव्यता द्रव्यमान को घटना क्षेत्र $${ X \ge t\ }$$ में स्थानांतरित करने से घनत्व कार्य के विचरण (माध्य भी) में वृद्धि का प्रभाव पड़ता है। इसके परिणामस्वरूप घनत्व की भारी पूँछ उत्पन्न होती है, जिससे घटना की संभावना में वृद्धि होती है। स्केलिंग संभवतः ज्ञात सबसे प्रारंभिक पूर्वाग्रह विधियों में से एक है और व्यवहार में इसका बड़े मापदंड पर उपयोग किया गया है। इसे प्रयुक्त करना आसान है और सामान्यतः अन्य विधियों की तुलना में रूढ़िवादी सिमुलेशन लाभ प्रदान करता है।

स्केलिंग द्वारा महत्वपूर्ण नमूनाकरण में, सिमुलेशन घनत्व को स्केल किए गए यादृच्छिक चर के घनत्व कार्य के रूप में चुना जाता है $$aX\,$$, जहां सामान्यतः $$a>1$$ पूंछ संभाव्यता अनुमान के लिए। परिवर्तन से,


 * $$ f_*(x)=\frac{1}{a} f \bigg( \frac{x}{a} \bigg)\,$$

और वेटिंग कार्य है


 * $$ W(x)= a \frac{f(x)}{f(x/a)} \,$$

जबकि स्केलिंग संभाव्यता द्रव्यमान को वांछित घटना क्षेत्र में स्थानांतरित करती है, यह द्रव्यमान को पूरक क्षेत्र $$X<t\,$$ में भी धकेलती है, जो अवांछनीय है। यदि $$X\,$$, $$n\,$$, यादृच्छिक चर का योग है, तो द्रव्यमान का प्रसार $$n\,$$, आयामी स्थान में होता है। इसका परिणाम $$n\,$$ को बढ़ाने के लिए घटते महत्व के नमूने का लाभ है, और इसे आयामी प्रभाव कहा जाता है। स्केलिंग द्वारा महत्व के नमूने का एक आधुनिक संस्करण उदाहरण के लिए है। तथाकथित सिग्मा-स्केल्ड सैंपलिंग (एसएसएस) जो विभिन्न स्केलिंग कारकों के साथ कई मोंटे कार्लो (एमसी) विश्लेषण चला रहा है। कई अन्य उच्च उपज अनुमान विधियों (जैसे सबसे खराब स्थिति वाली दूरी डब्ल्यूसीडी) के विपरीत, एसएसएस को आयामी समस्या से अधिक हानि नहीं होता है। इसके अतिरिक्त कई एमसी आउटपुट को संबोधित करने से दक्षता में कोई गिरावट नहीं आती है। दूसरी ओर, डब्ल्यूसीडी के रूप में, एसएसएस केवल गॉसियन सांख्यिकीय चर के लिए डिज़ाइन किया गया है, और डब्ल्यूसीडी के विपरीत, एसएसएस विधि सटीक सांख्यिकीय कोने प्रदान करने के लिए डिज़ाइन नहीं की गई है। एसएसएस का एक और हानि यह है कि एमसी को बड़े मापदंड पर कारकों के साथ चलाना कठिन हो सकता है, उदाहरण के लिए। जी। मॉडल और सिम्युलेटर अभिसरण समस्याओं के कारण। इसके अतिरिक्त, एसएसएस में हमें एक प्रबल पूर्वाग्रह-विचरण व्यापार-बंद का सामना करना पड़ता है: बड़े पैमाने के कारकों का उपयोग करके, हम अधिक स्थिर उपज परिणाम प्राप्त करते हैं, किंतु जितने बड़े पैमाने के कारक होंगे, पूर्वाग्रह त्रुटि उतनी ही बड़ी होगी। यदि रुचि के अनुप्रयोग में एसएसएस के लाभ अधिक मायने नहीं रखते हैं, तो अधिकांशतः अन्य विधि अधिक कुशल होते हैं।

अनुवाद
एक अन्य सरल और प्रभावी बायसिंग तकनीक घनत्व कार्य (और इसलिए यादृच्छिक चर) के अनुवाद को दुर्लभ घटना क्षेत्र में इसकी संभावना द्रव्यमान को रखने के लिए नियोजित करती है। अनुवाद एक आयाम प्रभाव से ग्रस्त नहीं है और डिजिटल संचार प्रणालियों के अनुकरण से संबंधित कई अनुप्रयोगों में सफलतापूर्वक उपयोग किया गया है। यह अधिकांशतः स्केलिंग की तुलना में उत्तम सिमुलेशन लाभ प्रदान करता है। अनुवाद द्वारा पूर्वाग्रह में, सिमुलेशन घनत्व किसके द्वारा दिया जाता है


 * $$ f_*(x)= f(x-c), \quad c>0 \,$$

जहाँ $$c\,$$ बदलाव की मात्रा है और महत्व नमूना अनुमानक के भिन्नता को कम करने के लिए चुना जाना है।

सिस्टम जटिलता के प्रभाव
महत्व के नमूने के साथ मूलभूत समस्या यह है कि अच्छे पक्षपाती वितरण को डिजाइन करना और अधिक जटिल हो जाता है क्योंकि सिस्टम की जटिलता बढ़ जाती है। कॉम्प्लेक्स सिस्टम लंबी मेमोरी वाले सिस्टम होते हैं क्योंकि कुछ इनपुट के जटिल प्रसंस्करण को संभालना बहुत आसान होता है। यह आयाम या मेमोरी तीन तरह से समस्याएं उत्पन्न कर सकती है:


 * लंबी मेमोरी (गंभीर अंतरप्रतीक हस्तक्षेप (आईएसआई))
 * अज्ञात मेमोरी (विटरबी डिकोडर)
 * संभवतः अनंत मेमोरी (अनुकूली तुल्यकारक)

सिद्धांत रूप में, इन स्थितियों में महत्व के नमूने के विचार समान रहते हैं, किंतु डिजाइन बहुत कठिन हो जाता है। इस समस्या से निपटने के लिए एक सफल दृष्टिकोण अनिवार्य रूप से एक सिमुलेशन को कई छोटे, अधिक स्पष्ट रूप से परिभाषित उप-समस्याओं में तोड़ रहा है। फिर महत्व नमूनाकरण रणनीतियों का उपयोग प्रत्येक सरल उप-समस्याओं को लक्षित करने के लिए किया जाता है। सिमुलेशन को तोड़ने के लिए तकनीकों के उदाहरण कंडीशनिंग और एरर-इवेंट सिमुलेशन (ईईएस) और पुनर्योजी सिमुलेशन हैं।

महत्व नमूनाकरण का मूल्यांकन
सफल महत्व नमूनाकरण तकनीकों की पहचान करने के लिए, महत्व नमूनाकरण दृष्टिकोण के उपयोग के कारण रन-टाइम बचत को मापने में सक्षम होना उपयोगी होता है। सामान्यतः उपयोग किया जाने वाला प्रदर्शन माप है $$\sigma^2_{MC} / \sigma^2_{IS} \,$$, और इसे स्पीड-अप कारक के रूप में व्याख्या किया जा सकता है जिसके द्वारा महत्व नमूना अनुमानक एमसी अनुमानक के समान स्पष्टता प्राप्त करता है। इसकी आनुभविक रूप से गणना की जानी चाहिए क्योंकि अनुमानक प्रसरण के विश्लेषणात्मक रूप से संभव नहीं होने की संभावना है, जब उनका माध्य दुरूह हो। महत्व नमूनाकरण अनुमानक को परिमाणित करने में अन्य उपयोगी अवधारणाएं विचरण सीमाएं और स्पर्शोन्मुख दक्षता की धारणा हैं। एक संबंधित उपाय तथाकथित प्रभावी नमूना आकार (ईएसएस) है।

भिन्नता व्यय कार्य
सिमुलेशन के लिए भिन्नता एकमात्र संभावित व्यय कार्य नहीं है, और अन्य व्यय कार्य, जैसे औसत पूर्ण विचलन, विभिन्न सांख्यिकीय अनुप्रयोगों में उपयोग किए जाते हैं। फिर भी, भिन्नता साहित्य में संबोधित प्राथमिक व्यय कार्य है, संभवतः विश्वास अंतराल और प्रदर्शन माप $$\sigma^2_{MC} / \sigma^2_{IS} \,$$ में भिन्नता के उपयोग के कारण है ।

एक संबंधित उद्देश्य यह तथ्य है कि अनुपात $$\sigma^2_{MC} / \sigma^2_{IS} \,$$ महत्व के नमूने के कारण रन-टाइम बचत को कम करके आंका जाता है क्योंकि इसमें वजन कार्य की गणना करने के लिए आवश्यक अतिरिक्त कंप्यूटिंग समय सम्मिलित नहीं होता है। इसलिए, कुछ लोग विभिन्न माध्यमों से नेट रन-टाइम सुधार का मूल्यांकन करते हैं। संभवतः महत्व नमूनाकरण के लिए एक अधिक गंभीर ओवरहेड तकनीक को तैयार करने और प्रोग्राम करने और वांछित वजन कार्य को विश्लेषणात्मक रूप से प्राप्त करने में लगने वाला समय है।

एकाधिक और अनुकूली महत्व नमूनाकरण
जब विभिन्न प्रस्ताव वितरण, $$g_n(x)$$, $$n=1,\ldots,N,$$ नमूने लेने के लिए संयुक्त रूप से उपयोग किया जाता है $$x_1, \ldots, x_N, $$ विभिन्न उचित भार कार्यों को नियोजित किया जा सकता है (उदाहरण के लिए देखें   ). अनुकूल सेटिंग में, प्रस्ताव वितरण, $$g_{n,t}(x)$$, $$n=1,\ldots,N,$$ और $$t=1,\ldots,T,$$ प्रत्येक पुनरावृत्ति $$t$$ को अद्यतन किया जाता है अनुकूली महत्व नमूनाकरण एल्गोरिथम। इसलिए, चूंकि प्रस्ताव घनत्व की आबादी का उपयोग किया जाता है, नमूनाकरण और भार योजनाओं के कई उपयुक्त संयोजनों को नियोजित किया जा सकता है।

यह भी देखें

 * मोंटे कार्लो विधि
 * भिन्नता में कमी
 * स्तरीकृत प्रतिचयन
 * मोंटे कार्लो एकीकरण या पुनरावर्ती स्तरीकृत नमूनाकरण
 * वेगास एल्गोरिथम
 * कण फिल्टर - एक अनुक्रमिक मोंटे कार्लो विधि, जो महत्वपूर्ण नमूनाकरण का उपयोग करती है
 * सहायक क्षेत्र मोंटे कार्लो
 * अस्वीकृति नमूनाकरण
 * परिवर्तनीय बिटरेट - महत्व नमूनाकरण का एक सामान्य ऑडियो अनुप्रयोग

बाहरी संबंध

 * Sequential Monte Carlo Methods (Particle Filtering) homepage on University of Cambridge
 * Introduction to importance sampling in rare-event simulations European journal of Physics. PDF document.
 * Adaptive monte carlo methods for rare event simulation: adaptive monte carlo methods for rare event simulations Winter Simulation Conference