कण फिल्टर

कण फिल्टर, या अनुक्रमिक मोंटे कार्लो विधियां, मोंटे कार्लो विधि एल्गोरिदम का सेट है जिसका उपयोग सिग्नल प्रोसेसिंग और बायेसियन अनुमान जैसे गैर-रेखीय राज्य-अंतरिक्ष प्रणालियों के लिए फ़िल्टरिंग समस्या (स्टोकेस्टिक प्रक्रियाओं) के लिए अनुमानित समाधान खोजने के लिए किया जाता है। फ़िल्टरिंग समस्या (स्टोकेस्टिक प्रक्रियाएं) में गतिशील प्रणालियों में आंतरिक स्थितियों का अनुमान लगाना शामिल है जब आंशिक अवलोकन किए जाते हैं और सेंसर के साथ-साथ गतिशील प्रणाली में यादृच्छिक गड़बड़ी मौजूद होती है। इसका उद्देश्य शोर और आंशिक टिप्पणियों को देखते हुए, मार्कोव प्रक्रिया की स्थिति की पिछली संभावना की गणना करना है। कण फिल्टर शब्द पहली बार 1996 में पियरे डेल मोरल द्वारा माध्य-क्षेत्र कण विधियों के बारे में गढ़ा गया था। 1960 के दशक की शुरुआत से द्रव यांत्रिकी में उपयोग किए जाने वाले माध्य-क्षेत्र अंतःक्रियात्मक कण तरीकों के बारे में। अनुक्रमिक मोंटे कार्लो शब्द 1998 में जून एस. लियू और रोंग चेन द्वारा गढ़ा गया था। कण फ़िल्टरिंग शोर और/या आंशिक अवलोकनों को देखते हुए स्टोकेस्टिक प्रक्रिया के पीछे के वितरण का प्रतिनिधित्व करने के लिए कणों के सेट (जिसे नमूने भी कहा जाता है) का उपयोग करता है। राज्य-अंतरिक्ष मॉडल अरेखीय हो सकता है और प्रारंभिक स्थिति और शोर वितरण आवश्यक कोई भी रूप ले सकता है। कण फ़िल्टर तकनीकें सुस्थापित पद्धति प्रदान करती हैं राज्य-अंतरिक्ष मॉडल या राज्य वितरण के बारे में धारणाओं की आवश्यकता के बिना आवश्यक वितरण से नमूने उत्पन्न करने के लिए। हालाँकि, बहुत उच्च-आयामी प्रणालियों पर लागू होने पर ये विधियाँ अच्छा प्रदर्शन नहीं करती हैं।

कण फ़िल्टर अपनी भविष्यवाणी को अनुमानित (सांख्यिकीय) तरीके से अपडेट करते हैं। वितरण से नमूने कणों के सेट द्वारा दर्शाए जाते हैं; प्रत्येक कण को ​​एक संभाव्यता भार सौंपा गया है जो संभाव्यता घनत्व फ़ंक्शन से उस कण के नमूने लिए जाने की संभावना को दर्शाता है। वजन में असमानता के कारण वजन कम होना इन फ़िल्टरिंग एल्गोरिदम में आने वाली आम समस्या है। हालाँकि, वजन के असमान होने से पहले पुनः नमूनाकरण चरण को शामिल करके इसे कम किया जा सकता है। वजन के विचरण और समान वितरण से संबंधित सापेक्ष एन्ट्रापी सहित कई अनुकूली पुन: नमूनाकरण मानदंडों का उपयोग किया जा सकता है। पुन: नमूनाकरण चरण में, नगण्य भार वाले कणों को उच्च भार वाले कणों की निकटता में नए कणों द्वारा प्रतिस्थापित किया जाता है।

सांख्यिकीय और संभाव्य दृष्टिकोण से, कण फिल्टर की व्याख्या माध्य-क्षेत्र कण विधियों के रूप में की जा सकती है|फेनमैन-केएसी सूत्र की माध्य-क्षेत्र कण व्याख्या|फेनमैन-केएसी संभाव्यता उपाय।  इन कण एकीकरण तकनीकों को आणविक रसायन विज्ञान और कम्प्यूटेशनल भौतिकी में टेड हैरिस (गणितज्ञ)|थियोडोर ई. हैरिस और हरमन कहन द्वारा 1951 में, मार्शल रोसेनब्लुथ|मार्शल एन. रोसेनब्लुथ और एरियाना डब्ल्यू. रोसेनब्लुथ द्वारा 1955 में विकसित किया गया था। और हाल ही में 1984 में जैक एच. हेदरिंगटन द्वारा। कम्प्यूटेशनल भौतिकी में, इन फेनमैन-केएसी प्रकार पथ कण एकीकरण विधियों का उपयोग क्वांटम मोंटे कार्लो और विशेष रूप से प्रसार मोंटे कार्लो में भी किया जाता है।  फेनमैन-केएसी इंटरैक्टिंग कण विधियां जेनेटिक एल्गोरिद्म से भी दृढ़ता से संबंधित हैं। जटिल अनुकूलन समस्याओं को हल करने के लिए वर्तमान में विकासवादी गणना में उत्परिवर्तन-चयन आनुवंशिक एल्गोरिदम का उपयोग किया जाता है।

कण फ़िल्टर पद्धति का उपयोग छिपा हुआ मार्कोव मॉडल (एचएमएम) और अरेखीय फ़िल्टर समस्याओं को हल करने के लिए किया जाता है। रैखिक-गॉसियन सिग्नल-अवलोकन मॉडल (कलमन फ़िल्टर) या मॉडल के व्यापक वर्गों (बेन्स फ़िल्टर) के उल्लेखनीय अपवाद के साथ ), मिरेइल चालेयाट-मौरेल और डोमिनिक मिशेल ने 1984 में साबित किया कि अवलोकनों (ए.के.ए. इष्टतम फ़िल्टर) को देखते हुए, सिग्नल के यादृच्छिक राज्यों के पीछे के वितरण के अनुक्रम में कोई सीमित पुनरावृत्ति नहीं होती है। निश्चित ग्रिड सन्निकटन, मार्कोव श्रृंखला मोंटे कार्लो तकनीक, पारंपरिक रैखिककरण, विस्तारित कलमन फिल्टर, या सर्वोत्तम रैखिक प्रणाली का निर्धारण (अपेक्षित लागत-त्रुटि अर्थ में) के आधार पर कई अन्य संख्यात्मक विधियां बड़े पैमाने पर सिस्टम, अस्थिर प्रक्रियाओं, या अपर्याप्त रूप से चिकनी गैर-रैखिकताओं से निपटने में असमर्थ हैं।

कण फिल्टर और फेनमैन-केएसी कण पद्धतियों का उपयोग सिग्नल प्रोसेसिंग, बायेसियन अनुमान, यंत्र अधिगम, दुर्लभ घटना नमूनाकरण, अभियांत्रिकी रोबोटिक्स, कृत्रिम बुद्धिमत्ता, जैव सूचना विज्ञान, में किया जाता है। फाइलोजेनेटिक्स, कम्प्यूटेशनल विज्ञान, अर्थशास्त्र वित्तीय गणित गणितीय वित्त, आणविक रसायन विज्ञान, कम्प्यूटेशनल भौतिकी, फार्माकोकाइनेटिक्स, और अन्य क्षेत्र।

अनुमानी-जैसे एल्गोरिदम
सांख्यिकीय और संभाव्य दृष्टिकोण से, कण फिल्टर शाखा प्रक्रिया/आनुवंशिक एल्गोरिदम और माध्य-क्षेत्र कण विधियों | माध्य-क्षेत्र प्रकार अंतःक्रियात्मक कण पद्धतियों के वर्ग से संबंधित हैं। इन कण विधियों की व्याख्या वैज्ञानिक अनुशासन पर निर्भर करती है। विकासवादी गणना में, माध्य-क्षेत्र कण विधियाँ | माध्य-क्षेत्र आनुवंशिक प्रकार कण पद्धतियों का उपयोग अक्सर अनुमानी और प्राकृतिक खोज एल्गोरिदम (a.k.a. मेटाह्यूरिस्टिक) के रूप में किया जाता है। कम्प्यूटेशनल भौतिकी और आणविक रसायन विज्ञान में, उनका उपयोग फेनमैन-केएसी पथ एकीकरण समस्याओं को हल करने या बोल्ट्जमैन-गिब्स उपायों, शीर्ष आइगेनवैल्यू और श्रोडिंगर समीकरण | श्रोडिंगर ऑपरेटरों की जमीनी स्थिति की गणना करने के लिए किया जाता है। जीव विज्ञान और आनुवंशिकी में, वे किसी वातावरण में व्यक्तियों या जीनों की आबादी के विकास का प्रतिनिधित्व करते हैं।

माध्य-क्षेत्र प्रकार के विकासवादी एल्गोरिदम की उत्पत्ति का पता एलन ट्यूरिंग के साथ 1950 और 1954 में लगाया जा सकता है|जेनेटिक प्रकार के उत्परिवर्तन-चयन सीखने की मशीनों पर एलन ट्यूरिंग का काम और प्रिंसटन, न्यू जर्सी में उन्नत अध्ययन संस्थान में निल्स ऑल बरीज़ के लेख। सांख्यिकी में कण फिल्टर का पहला निशान 1950 के दशक के मध्य का है; 'गरीब आदमी का मोंटे कार्लो', यह हैमरस्ले और अन्य द्वारा 1954 में प्रस्तावित किया गया था, जिसमें आज उपयोग की जाने वाली आनुवंशिक प्रकार के कण फ़िल्टरिंग विधियों के संकेत शामिल थे। 1963 में, निल्स आल बैरिकेली ने व्यक्तियों की साधारण गेम खेलने की क्षमता की नकल करने के लिए आनुवंशिक प्रकार के एल्गोरिदम का अनुकरण किया। विकासवादी संगणना साहित्य में, आनुवंशिक-प्रकार के उत्परिवर्तन-चयन एल्गोरिदम 1970 के दशक की शुरुआत में जॉन हॉलैंड के मौलिक कार्य, विशेष रूप से उनकी पुस्तक के माध्यम से लोकप्रिय हो गए। 1975 में प्रकाशित.

जीवविज्ञान और आनुवंशिकी में, ऑस्ट्रेलियाई आनुवंशिकीविद् एलेक्स फ्रेज़र (वैज्ञानिक) ने भी 1957 में जीवों के कृत्रिम चयन के आनुवंशिक प्रकार के अनुकरण पर पत्रों की श्रृंखला प्रकाशित की थी। जीवविज्ञानियों द्वारा विकास का कंप्यूटर सिमुलेशन 1960 के दशक की शुरुआत में अधिक आम हो गया, और तरीकों का वर्णन फ्रेज़र और बर्नेल (1970) की पुस्तकों में किया गया। और क्रॉस्बी (1973)। फ़्रेज़र के सिमुलेशन में आधुनिक उत्परिवर्तन-चयन आनुवंशिक कण एल्गोरिदम के सभी आवश्यक तत्व शामिल थे।

गणितीय दृष्टिकोण से, कुछ आंशिक और शोर अवलोकनों को देखते हुए सिग्नल के यादृच्छिक राज्यों का सशर्त वितरण संभावित संभावित कार्यों के अनुक्रम द्वारा भारित सिग्नल के यादृच्छिक प्रक्षेपवक्र पर फेनमैन-केएसी संभावना द्वारा वर्णित किया गया है। क्वांटम मोंटे कार्लो, और अधिक विशेष रूप से डिफ्यूजन मोंटे कार्लो की व्याख्या फेनमैन-केएसी पथ इंटीग्रल्स के माध्य-क्षेत्र आनुवंशिक प्रकार के कण सन्निकटन के रूप में भी की जा सकती है।     क्वांटम मोंटे कार्लो विधियों की उत्पत्ति का श्रेय अक्सर एनरिको फर्मी और रॉबर्ट रिचटमेयर को दिया जाता है, जिन्होंने 1948 में न्यूट्रॉन-श्रृंखला प्रतिक्रियाओं की माध्य-क्षेत्र कण व्याख्या विकसित की थी, लेकिन क्वांटम सिस्टम (कम मैट्रिक्स मॉडल में) की जमीनी स्थिति ऊर्जा का आकलन करने के लिए पहला अनुमानी-जैसा और आनुवंशिक प्रकार का कण एल्गोरिदम (a.k.a. रेज़ैम्पल्ड या रीकॉन्फिगरेशन मोंटे कार्लो विधियां) 1984 में जैक एच. हेथरिंगटन के कारण है। कण भौतिकी में 1951 में प्रकाशित टेड हैरिस (गणितज्ञ)|थियोडोर ई. हैरिस और हरमन काह्न के पहले मौलिक कार्यों को भी उद्धृत किया जा सकता है, जिसमें कण संचरण ऊर्जा का अनुमान लगाने के लिए माध्य-क्षेत्र लेकिन अनुमानी-जैसी आनुवंशिक विधियों का उपयोग किया गया था। आणविक रसायन विज्ञान में, आनुवंशिक अनुमान-जैसी कण पद्धतियों (उर्फ प्रूनिंग और संवर्धन रणनीतियों) का उपयोग मार्शल के मौलिक कार्य के साथ 1955 में खोजा जा सकता है। एन. रोसेनब्लुथ और एरियाना। डब्ल्यू रोसेनब्लुथ।

उन्नत सिग्नल प्रोसेसिंग और बायेसियन अनुमान में जेनेटिक एल्गोरिदम का उपयोग हाल ही में हुआ है। जनवरी 1993 में, जेनशिरो कितागावा ने मोंटे कार्लो फ़िल्टर विकसित किया, इस लेख का थोड़ा संशोधित संस्करण 1996 में सामने आया। अप्रैल 1993 में, गॉर्डन एट अल ने अपना मौलिक कार्य प्रकाशित किया बायेसियन सांख्यिकीय अनुमान में आनुवंशिक प्रकार एल्गोरिदम का अनुप्रयोग। लेखकों ने अपने एल्गोरिदम को 'बूटस्ट्रैप फ़िल्टर' नाम दिया, और प्रदर्शित किया कि अन्य फ़िल्टरिंग विधियों की तुलना में, उनके बूटस्ट्रैप एल्गोरिदम को उस स्थिति स्थान या सिस्टम के शोर के बारे में किसी भी धारणा की आवश्यकता नहीं है। स्वतंत्र रूप से, पियरे डेल मोरल द्वारा और हिमिल्कोन कार्वाल्हो, पियरे डेल मोरल, आंद्रे मोनिन और जेरार्ड सैलुट 1990 के दशक के मध्य में प्रकाशित कण फिल्टर पर। 1989-1992 की शुरुआत में पी. डेल मोरल, जे.सी. नोयर, जी. रिगल और जी. सालुट द्वारा एलएएएस-सीएनआरएस में सिग्नल प्रोसेसिंग में एसटीसीएएन (सर्विस टेक्नीक डेस कंस्ट्रक्शन्स एट आर्म्स नेवेल्स), आईटी कंपनी डिजीलॉग, और LAAS-CNRS (विश्लेषण के लिए प्रयोगशाला) के साथ प्रतिबंधित और वर्गीकृत अनुसंधान रिपोर्टों की श्रृंखला में कण फिल्टर भी विकसित किए गए थे। रडार/सोनार और जीपीएस सिग्नल प्रोसेसिंग समस्याओं पर सिस्टम का आर्किटेक्चर)।

गणितीय आधार
1950 से 1996 तक, कण फिल्टर और आनुवंशिक एल्गोरिदम पर सभी प्रकाशन, जिसमें कम्प्यूटेशनल भौतिकी और आणविक रसायन विज्ञान में शुरू की गई मोंटे कार्लो विधियों की छंटाई और पुन: नमूना शामिल है, उनकी स्थिरता के भी सबूत के बिना विभिन्न स्थितियों पर लागू प्राकृतिक और अनुमानी-जैसे एल्गोरिदम प्रस्तुत करते हैं, न ही अनुमानों और वंशावली और पैतृक वृक्ष-आधारित एल्गोरिदम के पूर्वाग्रह पर कोई चर्चा करते हैं।

गणितीय नींव और इन कण एल्गोरिदम का पहला कठोर विश्लेषण पियरे डेल मोरल के कारण है 1996 में. लेख इसमें संभाव्यता कार्यों के कण सन्निकटन और असामान्य सशर्त संभाव्यता उपायों के निष्पक्ष गुणों का प्रमाण भी शामिल है। इस लेख में प्रस्तुत संभावना कार्यों के निष्पक्ष कण अनुमानक का उपयोग आज बायेसियन सांख्यिकीय अनुमान में किया जाता है।

डैन क्रिसन, जेसिका गेन्स, और टेरी लियोन्स, साथ ही डैन क्रिसन, पियरे डेल मोरल, और टेरी लियोन्स, 1990 के दशक के अंत में विभिन्न जनसंख्या आकारों के साथ शाखा-प्रकार की कण तकनीकें बनाई गईं। पी. डेल मोरल, ए. गियोनेट, और एल. मिक्लो  2000 में इस विषय में और अधिक प्रगति हुई। पियरे डेल मोरल और ऐलिस गियोनेट 1999 में पियरे डेल मोरल और लॉरेंट मिक्लो ने पहली केंद्रीय सीमा प्रमेय साबित की उन्हें 2000 में साबित किया गया। कण फिल्टर के लिए समय पैरामीटर से संबंधित पहला समान अभिसरण परिणाम 1990 के दशक के अंत में पियरे डेल मोरल और ऐलिस गियोनेट द्वारा विकसित किया गया था।  वंशावली वृक्ष आधारित कण फिल्टर स्मूथर्स का पहला कठोर विश्लेषण 2001 में पी. डेल मोरल और एल. मिक्लो के कारण हुआ। फेनमैन-केएसी कण पद्धतियों और संबंधित कण फ़िल्टर एल्गोरिदम पर सिद्धांत 2000 और 2004 में पुस्तकों में विकसित किया गया था। ये अमूर्त संभाव्य मॉडल आनुवंशिक प्रकार के एल्गोरिदम, कण और बूटस्ट्रैप फिल्टर को समाहित करते हैं, कलमैन फिल्टर (उर्फ राव-ब्लैकवेलाइज्ड कण फिल्टर) को इंटरैक्ट करते हैं ), महत्वपूर्ण नमूनाकरण और पुन: नमूनाकरण शैली कण फ़िल्टर तकनीक, जिसमें फ़िल्टरिंग और स्मूथिंग समस्याओं को हल करने के लिए वंशावली वृक्ष-आधारित और कण पिछड़े तरीके शामिल हैं। कण फ़िल्टरिंग पद्धतियों के अन्य वर्गों में वंशावली वृक्ष-आधारित मॉडल शामिल हैं, पिछड़े मार्कोव कण मॉडल, अनुकूली माध्य-क्षेत्र कण मॉडल, द्वीप-प्रकार के कण मॉडल,  और कण मार्कोव श्रृंखला मोंटे कार्लो पद्धतियाँ।

उद्देश्य
एक कण फ़िल्टर का लक्ष्य अवलोकन चर दिए गए राज्य चर के पीछे के घनत्व का अनुमान लगाना है। कण फ़िल्टर छिपे हुए मार्कोव मॉडल के साथ उपयोग के लिए है, जिसमें सिस्टम में छिपे हुए और देखने योग्य दोनों चर शामिल हैं। अवलोकन योग्य चर (अवलोकन प्रक्रिया) ज्ञात कार्यात्मक रूप के माध्यम से छिपे हुए चर (राज्य-प्रक्रिया) से जुड़े हुए हैं। इसी प्रकार, राज्य चर के विकास को परिभाषित करने वाली गतिशील प्रणाली का संभाव्य विवरण ज्ञात है।

एक सामान्य कण फ़िल्टर अवलोकन माप प्रक्रिया का उपयोग करके छिपी हुई अवस्थाओं के पीछे के वितरण का अनुमान लगाता है। राज्य-स्थान के संबंध में जैसे कि नीचे दिया गया है:


 * $$\begin{array}{cccccccccc}

X_0&\to &X_1&\to &X_2&\to&X_3&\to &\cdots&\text{signal}\\ \downarrow&&\downarrow&&\downarrow&&\downarrow&&\cdots&\\ Y_0&&Y_1&&Y_2&&Y_3&&\cdots&\text{observation} \end{array}$$ फ़िल्टरिंग समस्या छुपे हुए राज्यों के मूल्यों का क्रमिक रूप से अनुमान लगाना है $$X_k$$, अवलोकन प्रक्रिया के मूल्यों को देखते हुए $$Y_0,\cdots,Y_k,$$ किसी भी समय चरण k.

के सभी बायेसियन अनुमान $$X_k$$ पश्च संभाव्यता से अनुसरण करें $$p(x_k|y_0,y_1,...,y_k)$$. कण फ़िल्टर पद्धति आनुवंशिक प्रकार के कण एल्गोरिदम से जुड़े अनुभवजन्य माप का उपयोग करके इन सशर्त संभावनाओं का अनुमान प्रदान करती है। इसके विपरीत, मार्कोव चेन मोंटे कार्लो या महत्व नमूनाकरण दृष्टिकोण पूर्ण पश्च भाग का मॉडल तैयार करेगा $$p(x_0,x_1,...,x_k|y_0,y_1,...,y_k)$$.

सिग्नल-अवलोकन मॉडल
कण विधियाँ प्रायः मान ली जाती हैं $$X_k$$ और अवलोकन $$Y_k$$ इस रूप में प्रतिरूपित किया जा सकता है:


 * $$X_0, X_1, \cdots$$ मार्कोव प्रक्रिया चालू है $$\mathbb R^{d_x}$$ (कुछ के लिए $$d_x\geqslant 1$$) जो संक्रमण संभाव्यता घनत्व के अनुसार विकसित होता है $$p(x_k|x_{k-1})$$. इस मॉडल को अक्सर सिंथेटिक तरीके से भी लिखा जाता है
 * $$X_k|X_{k-1}=x_k \sim p(x_k|x_{k-1})$$
 * प्रारंभिक संभाव्यता घनत्व के साथ $$p(x_0)$$.

इन गुणों वाले सिस्टम का उदाहरण है:
 * अवलोकन $$Y_0, Y_1, \cdots$$ कुछ राज्य स्थान में मान लें $$\mathbb{R}^{d_y}$$ (कुछ के लिए $$d_y\geqslant 1$$) और सशर्त रूप से स्वतंत्र हैं बशर्ते कि $$X_0, X_1, \cdots$$ ज्ञात हैं। दूसरे शब्दों में, प्रत्येक $$Y_k$$ पर ही निर्भर करता है $$X_k$$. इसके अलावा, हम इसके लिए सशर्त वितरण मानते हैं $$Y_k$$ दिया गया $$X_k=x_k$$ बिल्कुल निरंतर हैं, और हमारे पास सिंथेटिक तरीके से हैं
 * $$Y_k|X_k=y_k \sim p(y_k|x_k)$$


 * $$X_k = g(X_{k-1}) + W_{k-1}$$
 * $$Y_k = h(X_k) + V_k$$

दोनों कहाँ $$W_k$$ और $$V_k$$ ज्ञात संभाव्यता घनत्व फ़ंक्शन के साथ परस्पर स्वतंत्र अनुक्रम हैं और g और h ज्ञात फ़ंक्शन हैं। इन दो समीकरणों को राज्य स्थान (नियंत्रण) समीकरणों के रूप में देखा जा सकता है और कलमन फ़िल्टर के लिए राज्य अंतरिक्ष समीकरणों के समान दिख सकते हैं। यदि उपरोक्त उदाहरण में फ़ंक्शन g और h रैखिक हैं, और यदि दोनों $$W_k$$ और $$V_k$$ गाऊसी हैं, कलमन फ़िल्टर सटीक बायेसियन फ़िल्टरिंग वितरण पाता है। यदि नहीं, तो कलमैन फ़िल्टर-आधारित विधियाँ प्रथम-क्रम सन्निकटन (विस्तारित कलमान फ़िल्टर) या दूसरे-क्रम सन्निकटन (सामान्य तौर पर अनसेंटेड कलमैन फ़िल्टर, लेकिन यदि संभाव्यता वितरण गॉसियन है तो तीसरे-क्रम सन्निकटन संभव है)।

इस धारणा को शिथिल किया जा सकता है कि प्रारंभिक वितरण और मार्कोव श्रृंखला के संक्रमण लेब्सेग माप के लिए निरंतर हैं। कण फिल्टर को डिजाइन करने के लिए हमें बस यह मानने की जरूरत है कि हम संक्रमणों का नमूना ले सकते हैं $$X_{k-1} \to X_k$$ मार्कोव श्रृंखला का $$X_k,$$ और संभाव्यता फ़ंक्शन की गणना करने के लिए $$x_k\mapsto p(y_k|x_k)$$ (उदाहरण के लिए नीचे दिए गए कण फिल्टर का आनुवंशिक चयन उत्परिवर्तन विवरण देखें)। मार्कोव संक्रमणों पर निरंतर धारणा $$X_k$$ इसका उपयोग केवल अनौपचारिक (और बल्कि अपमानजनक) तरीके से सशर्त घनत्वों के लिए बेयस नियम का उपयोग करके पश्च वितरण के बीच विभिन्न सूत्रों को प्राप्त करने के लिए किया जाता है।

अनुमानित बायेसियन गणना मॉडल
कुछ समस्याओं में, सिग्नल की यादृच्छिक स्थिति को देखते हुए अवलोकनों का सशर्त वितरण, घनत्व में विफल हो सकता है; उत्तरार्द्ध की गणना करना असंभव या बहुत जटिल हो सकता है। इस स्थिति में, सन्निकटन का अतिरिक्त स्तर आवश्यक है। रणनीति सिग्नल को बदलने की है $$X_k$$ मार्कोव श्रृंखला द्वारा $$\mathcal X_k=\left(X_k,Y_k\right)$$ और प्रपत्र का आभासी अवलोकन प्रस्तुत करना


 * $$\mathcal Y_k=Y_k+\epsilon \mathcal V_k\quad\mbox{for some parameter}\quad\epsilon\in [0,1]$$

स्वतंत्र यादृच्छिक चर के कुछ अनुक्रम के लिए $$\mathcal V_k$$ ज्ञात संभाव्यता घनत्व कार्यों के साथ। केंद्रीय विचार उसका निरीक्षण करना है


 * $$\text{Law}\left(X_k|\mathcal Y_0=y_0,\cdots, \mathcal Y_k=y_k\right)\approx_{\epsilon\downarrow 0} \text{Law}\left(X_k|Y_0=y_0,\cdots, Y_k=y_k\right)$$

मार्कोव प्रक्रिया से जुड़ा कण फ़िल्टर $$\mathcal X_k=\left(X_k,Y_k\right)$$ आंशिक अवलोकन दिए गए $$\mathcal Y_0=y_0,\cdots, \mathcal Y_k=y_k,$$ विकसित होने वाले कणों के संदर्भ में परिभाषित किया गया है $$\mathbb R^{d_x+d_y}$$ कुछ स्पष्ट अपमानजनक संकेतन के साथ दिए गए संभावना फ़ंक्शन के साथ $$p(\mathcal Y_k|\mathcal X_k)$$. ये संभाव्य तकनीकें अनुमानित बायेसियन संगणना (एबीसी) से निकटता से संबंधित हैं। कण फिल्टर के संदर्भ में, इन एबीसी कण फ़िल्टरिंग तकनीकों को 1998 में पी. डेल मोरल, जे. जैकॉड और पी. प्रॉटर द्वारा पेश किया गया था। इन्हें आगे पी. डेल मोरल, ए. डौसेट और ए. जसरा द्वारा विकसित किया गया।

अरेखीय फ़िल्टरिंग समीकरण
बेयस नियम|सशर्त संभाव्यता के लिए बेयस नियम देता है:


 * $$p(x_0, \cdots, x_k|y_0,\cdots,y_k) =\frac{p(y_0,\cdots,y_k|x_0, \cdots, x_k) p(x_0,\cdots,x_k)}{p(y_0,\cdots,y_k)}$$

कहाँ


 * $$\begin{align}

p(y_0,\cdots,y_k) &=\int p(y_0,\cdots,y_k|x_0,\cdots, x_k) p(x_0,\cdots,x_k) dx_0\cdots dx_k \\ p(y_0,\cdots, y_k|x_0,\cdots ,x_k) &=\prod_{l=0}^{k} p(y_l|x_l) \\ p(x_0,\cdots, x_k) &=p_0(x_0)\prod_{l=1}^{k} p(x_l|x_{l-1}) \end{align}$$ कण फिल्टर भी अनुमान है, लेकिन पर्याप्त कणों के साथ वे अधिक सटीक हो सकते हैं।  अरेखीय फ़िल्टरिंग समीकरण प्रत्यावर्तन द्वारा दिया गया है

सम्मेलन के साथ $$p(x_0|y_0,\cdots,y_{k-1})=p(x_0)$$ k = 0 के लिए। नॉनलाइनियर फ़िल्टरिंग समस्या में इन सशर्त वितरणों की क्रमिक रूप से गणना करना शामिल है।

फेनमैन-केएसी सूत्रीकरण
हम समय क्षितिज n और अवलोकनों का क्रम तय करते हैं $$Y_0=y_0,\cdots,Y_n=y_n$$, और प्रत्येक k = 0, ..., n के लिए हम सेट करते हैं:


 * $$G_k(x_k)=p(y_k|x_k).$$

इस अंकन में, प्रक्षेप पथ के सेट पर किसी भी बंधे हुए फ़ंक्शन F के लिए $$X_k$$ मूल k = 0 से समय k = n तक, हमारे पास फेनमैन-Kac सूत्र है


 * $$\begin{align}

\int F(x_0,\cdots,x_n) p(x_0,\cdots,x_n|y_0,\cdots,y_n) dx_0\cdots dx_n &= \frac{\int F(x_0,\cdots,x_n) \left\{\prod\limits_{k=0}^{n} p(y_k|x_k)\right\}p(x_0,\cdots,x_n) dx_0\cdots dx_n}{\int \left\{\prod\limits_{k=0}^{n} p(y_k|x_k)\right\}p(x_0,\cdots,x_n) dx_0\cdots dx_n}\\ &=\frac{E\left(F(X_0,\cdots,X_n)\prod\limits_{k=0}^{n} G_k(X_k)\right)}{E\left(\prod\limits_{k=0}^{n} G_k(X_k)\right)} \end{align}$$ फेनमैन-केएसी पथ एकीकरण मॉडल कम्प्यूटेशनल भौतिकी, जीव विज्ञान, सूचना सिद्धांत और कंप्यूटर विज्ञान सहित विभिन्न वैज्ञानिक विषयों में उत्पन्न होते हैं। उनकी व्याख्याएँ अनुप्रयोग डोमेन पर निर्भर हैं। उदाहरण के लिए, यदि हम संकेतक फ़ंक्शन चुनते हैं $$G_n(x_n)=1_A(x_n)$$ राज्य स्थान के कुछ सबसेट में से, वे मार्कोव श्रृंखला के सशर्त वितरण का प्रतिनिधित्व करते हैं, यह दिए गए ट्यूब में रहता है; अर्थात्, हमारे पास है:


 * $$E\left(F(X_0,\cdots,X_n) | X_0\in A, \cdots, X_n\in A\right) =\frac{E\left(F(X_0,\cdots,X_n)\prod\limits_{k=0}^{n} G_k(X_k)\right)}{E\left(\prod\limits_{k=0}^{n} G_k(X_k)\right)}$$

और
 * $$P\left(X_0\in A,\cdots, X_n\in A\right)=E\left(\prod\limits_{k=0}^{n} G_k(X_k)\right)$$

जैसे ही सामान्यीकरण स्थिरांक सख्ती से सकारात्मक होता है।

एक आनुवंशिक प्रकार का कण एल्गोरिथ्म
प्रारंभ में, ऐसा एल्गोरिदम एन स्वतंत्र यादृच्छिक चर से शुरू होता है $$\left(\xi^i_0\right)_{1\leqslant i\leqslant N}$$ सामान्य संभाव्यता घनत्व के साथ $$p(x_0)$$. आनुवंशिक एल्गोरिथ्म चयन-उत्परिवर्तन संक्रमण


 * $$\xi_k:=\left(\xi^i_{k}\right)_{1\leqslant i\leqslant N}\stackrel{\text{selection}}{\longrightarrow} \widehat{\xi}_k:=\left(\widehat{\xi}^i_{k}\right)_{1\leqslant i\leqslant N}\stackrel{\text{mutation}}{\longrightarrow} \xi_{k+1}:=\left(\xi^i_{k+1}\right)_{1\leqslant i\leqslant N}$$

इष्टतम फ़िल्टर विकास के अद्यतन-भविष्यवाणी बदलावों की नकल/अनुमानित करें ($$):


 * चयन-अद्यतन संक्रमण के दौरान हम एन (सशर्त) स्वतंत्र यादृच्छिक चर का नमूना लेते हैं $$\widehat{\xi}_k:=\left(\widehat{\xi}^i_{k}\right)_{1\leqslant i\leqslant N}$$ सामान्य (सशर्त) वितरण के साथ
 * $$\sum_{i=1}^N \frac{p(y_k|\xi^i_k)}{\sum_{j=1}^Np(y_k|\xi^j_k)} \delta_{\xi^i_k}(dx_k)$$

कहाँ $$\delta_a$$ किसी दिए गए राज्य में डिराक माप के लिए खड़ा है।


 * उत्परिवर्तन-भविष्यवाणी संक्रमण के दौरान, प्रत्येक चयनित कण से $$\widehat{\xi}^i_k$$ हम स्वतंत्र रूप से संक्रमण का नमूना लेते हैं
 * $$\widehat{\xi}^i_k \longrightarrow\xi^i_{k+1} \sim p(x_{k+1}|\widehat{\xi}^i_k), \qquad i=1,\cdots,N.$$

ऊपर प्रदर्शित सूत्रों में $$p(y_k|\xi^i_k)$$ संभाव्यता फ़ंक्शन के लिए खड़ा है $$x_k\mapsto p(y_k|x_k)$$ पर मूल्यांकन किया गया $$x_k=\xi^i_k$$, और $$p(x_{k+1}|\widehat{\xi}^i_k)$$ सशर्त घनत्व के लिए खड़ा है $$p(x_{k+1}|x_k)$$ पर मूल्यांकन किया गया $$x_k=\widehat{\xi}^i_k$$.

प्रत्येक समय k पर, हमारे पास कण सन्निकटन होते हैं


 * $$\widehat{p}(dx_k|y_0,\cdots,y_k):=\frac{1}{N} \sum_{i=1}^N \delta_{\widehat{\xi}^i_k} (dx_k) \approx_{N\uparrow\infty} p(dx_k|y_0,\cdots,y_k) \approx_{N\uparrow\infty}

\sum_{i=1}^N \frac{p(y_k|\xi^i_k)}{\sum_{i=1}^N p(y_k|\xi^j_k)} \delta_{\xi^i_k}(dx_k)$$ और


 * $$\widehat{p}(dx_k|y_0,\cdots,y_{k-1}):=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_k}(dx_k) \approx_{N\uparrow\infty} p(dx_k|y_0,\cdots,y_{k-1})$$

आनुवंशिक एल्गोरिदम और विकासवादी कंप्यूटिंग समुदाय में, ऊपर वर्णित उत्परिवर्तन-चयन मार्कोव श्रृंखला को अक्सर आनुपातिक चयन के साथ आनुवंशिक एल्गोरिदम कहा जाता है। लेखों में यादृच्छिक जनसंख्या आकार सहित कई शाखाओं के प्रकार भी प्रस्तावित किए गए हैं।

मोंटे कार्लो विधि
कण विधियाँ, सभी नमूना-आधारित दृष्टिकोणों (जैसे, मार्कोव श्रृंखला मोंटे कार्लो) की तरह, नमूनों का सेट उत्पन्न करती हैं जो फ़िल्टरिंग घनत्व का अनुमान लगाती हैं


 * $$p(x_k|y_0, \cdots, y_k).$$

उदाहरण के लिए, हमारे पास अनुमानित पश्च वितरण से एन नमूने हो सकते हैं $$X_k$$, जहां नमूनों को सुपरस्क्रिप्ट के साथ इस प्रकार लेबल किया गया है:


 * $$\widehat{\xi}_k^1, \cdots, \widehat{\xi}_k^{N}.$$

फिर, फ़िल्टरिंग वितरण के संबंध में अपेक्षाओं का अनुमान लगाया जाता है

साथ


 * $$\widehat{p}(dx_k|y_0,\cdots,y_k)=\frac{1}{N}\sum_{i=1}^N \delta_{\widehat{\xi}^i_k}(dx_k)$$

कहाँ $$\delta_a$$ किसी दिए गए राज्य में डिराक माप के लिए खड़ा है। फ़ंक्शन एफ, मोंटे कार्लो के लिए सामान्य तरीके से, कुछ सन्निकटन त्रुटि तक वितरण के सभी क्षण (गणित) आदि दे सकता है। जब सन्निकटन समीकरण ($$) हमारे द्वारा लिखे गए किसी भी परिबद्ध फलन के लिए संतुष्ट है


 * $$p(dx_k|y_0,\cdots,y_k):=p(x_k|y_0,\cdots,y_k) dx_k \approx_{N\uparrow\infty} \widehat{p}(dx_k|y_0,\cdots,y_k)=\frac{1}{N}\sum_{i=1}^N \delta_{\widehat{\xi}^{i}_k}(dx_k)$$

कण फिल्टर की व्याख्या उत्परिवर्तन और चयन संक्रमण के साथ विकसित होने वाले आनुवंशिक प्रकार के कण एल्गोरिदम के रूप में की जा सकती है। हम पैतृक वंशावली का हिसाब रख सकते हैं


 * $$\left(\widehat{\xi}^{i}_{0,k}, \widehat{\xi}^{i}_{1,k},\cdots,\widehat{\xi}^{i}_{k-1,k},\widehat{\xi}^i_{k,k}\right)$$

कणों का $$i=1,\cdots,N$$. यादृच्छिक अवस्थाएँ $$\widehat{\xi}^{i}_{l,k}$$, निम्न सूचकांकों के साथ l=0,...,k, व्यक्ति के पूर्वज को दर्शाता है $$\widehat{\xi}^{i}_{k,k}=\widehat{\xi}^i_k$$ स्तर पर l=0,...,k. इस स्थिति में, हमारे पास सन्निकटन सूत्र है

अनुभवजन्य माप के साथ


 * $$\widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_k):=\frac{1}{N}\sum_{i=1}^N \delta_{\left(\widehat{\xi}^{i}_{0,k},\widehat{\xi}^{i}_{1,k},\cdots,\widehat{\xi}^{i}_{k,k}\right)}(d(x_0,\cdots,x_k))$$

यहां एफ सिग्नल के पथ स्थान पर किसी भी स्थापित फ़ंक्शन के लिए है। अधिक सिंथेटिक रूप में ($$) के बराबर है


 * $$\begin{align}

p(d(x_0,\cdots,x_k)|y_0,\cdots,y_k)&:=p(x_0,\cdots,x_k|y_0,\cdots,y_k) \, dx_0\cdots dx_k \\ &\approx_{N\uparrow\infty} \widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_k) \\ &:=\frac{1}{N}\sum_{i=1}^N \delta_{\left(\widehat{\xi}^{i}_{0,k}, \cdots,\widehat{\xi}^{i}_{k,k}\right)}(d(x_0,\cdots,x_k)) \end{align}$$ कण फिल्टर की व्याख्या कई अलग-अलग तरीकों से की जा सकती है। संभाव्य दृष्टिकोण से वे माध्य-क्षेत्र कण विधियों के साथ मेल खाते हैं | गैर-रेखीय फ़िल्टरिंग समीकरण की माध्य-क्षेत्र कण व्याख्या। इष्टतम फ़िल्टर विकास के अद्यतन-भविष्यवाणी संक्रमणों की व्याख्या व्यक्तियों के शास्त्रीय आनुवंशिक प्रकार के चयन-उत्परिवर्तन संक्रमणों के रूप में भी की जा सकती है। अनुक्रमिक महत्व पुन: नमूनाकरण तकनीक बूटस्ट्रैप पुन: नमूनाकरण चरण के साथ महत्व नमूने को जोड़ते हुए फ़िल्टरिंग संक्रमण की और व्याख्या प्रदान करती है। अंतिम, लेकिन महत्वपूर्ण बात यह है कि कण फिल्टर को रीसाइक्लिंग तंत्र से सुसज्जित स्वीकृति-अस्वीकृति पद्धति के रूप में देखा जा सकता है।

सामान्य संभाव्य सिद्धांत
गैर-रेखीय फ़िल्टरिंग विकास को फॉर्म की संभाव्यता उपायों के सेट में गतिशील प्रणाली के रूप में व्याख्या किया जा सकता है $$\eta_{n+1}=\Phi_{n+1}\left(\eta_{n}\right)$$ कहाँ $$\Phi_{n+1}$$ संभाव्यता वितरण के सेट से स्वयं में कुछ मैपिंग के लिए खड़ा है। उदाहरण के लिए, एक-चरणीय इष्टतम भविष्यवक्ता का विकास $$ \eta_n(dx_n) =p(x_n|y_0,\cdots,y_{n-1})dx_n$$ संभाव्यता वितरण से शुरू होने वाले अरेखीय विकास को संतुष्ट करता है $$\eta_0(dx_0)=p(x_0)dx_0$$. इन संभाव्यता मापों का अनुमान लगाने का सबसे सरल तरीका एन स्वतंत्र यादृच्छिक चर से शुरू करना है $$\left(\xi^i_0\right)_{1\leqslant i\leqslant N}$$ सामान्य संभाव्यता वितरण के साथ $$\eta_0(dx_0)=p(x_0)dx_0$$. मान लीजिए कि हमने N यादृच्छिक चरों का क्रम परिभाषित किया है $$\left(\xi^i_n\right)_{1\leqslant i\leqslant N}$$ ऐसा है कि


 * $$\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_n}(dx_n) \approx_{N\uparrow\infty} \eta_n(dx_n)$$

अगले चरण में हम एन (सशर्त) स्वतंत्र यादृच्छिक चर का नमूना लेते हैं $$\xi_{n+1}:=\left(\xi^i_{n+1}\right)_{1\leqslant i\leqslant N}$$ सामान्य कानून के साथ.


 * $$\Phi_{n+1}\left(\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_n}\right) \approx_{N\uparrow\infty} \Phi_{n+1}\left(\eta_{n}\right)=\eta_{n+1}$$

फ़िल्टरिंग समीकरण की कण व्याख्या
हम कदम इष्टतम भविष्यवक्ताओं के विकास के संदर्भ में इस माध्य-क्षेत्र कण सिद्धांत का वर्णन करते हैं

k = 0 के लिए हम परिपाटी का उपयोग करते हैं $$p(x_0|y_0,\cdots,y_{-1}):=p(x_0)$$.

बड़ी संख्या के नियम के अनुसार, हमारे पास है


 * $$\widehat{p}(dx_0)=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^{i}_0}(dx_0)\approx_{N\uparrow\infty} p(x_0)dx_0$$

इस अर्थ में कि


 * $$\int f(x_0)\widehat{p}(dx_0)=\frac{1}{N}\sum_{i=1}^N f(\xi^i_0)\approx_{N\uparrow\infty} \int f(x_0)p(dx_0)dx_0$$

किसी भी सीमित फ़ंक्शन के लिए $$f$$. हम आगे यह भी मानते हैं कि हमने कणों का क्रम बनाया है $$\left(\xi^i_k\right)_{1\leqslant i\leqslant N}$$ कुछ रैंक k पर ऐसा है


 * $$\widehat{p}(dx_k|y_0,\cdots,y_{k-1}):=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^{i}_k}(dx_k)\approx_{N\uparrow\infty}~p(x_k~|~y_0,\cdots,y_{k-1})dx_k$$

इस अर्थ में कि किसी भी बंधे हुए कार्य के लिए $$f$$ अपने पास


 * $$\int f(x_k)\widehat{p}(dx_k|y_0,\cdots,y_{k-1})=\frac{1}{N}\sum_{i=1}^N f(\xi^i_k)\approx_{N\uparrow\infty} \int f(x_k)p(dx_k|y_0,\cdots,y_{k-1})dx_k$$

इस स्थिति में, अनुभवजन्य माप द्वारा  में बताए गए एक-चरण इष्टतम फ़िल्टर के विकास समीकरण में ($$) हम उसे ढूंढते हैं


 * $$p(x_{k+1}|y_0,\cdots,y_k)\approx_{N\uparrow\infty} \int p(x_{k+1}|x'_{k}) \frac{p(y_k|x_k') \widehat{p}(dx'_k|y_0,\cdots,y_{k-1})}{ \int p(y_k|x_k) \widehat{p}(dx_k|y_0,\cdots,y_{k-1})}$$

ध्यान दें कि उपरोक्त सूत्र में दाहिनी ओर भारित संभाव्यता मिश्रण है


 * $$\int p(x_{k+1}|x'_{k}) \frac{p(y_k|x_k') \widehat{p}(dx'_k|y_0,\cdots,y_{k-1})}{\int p(y_k|x_k) \widehat{p}(dx_k|y_0,\cdots,y_{k-1})}=\sum_{i=1}^N \frac{p(y_k|\xi^i_k)}{\sum_{i=1}^N p(y_k|\xi^j_k)} p(x_{k+1}|\xi^i_k)=:\widehat{q}(x_{k+1}|y_0,\cdots,y_k)$$

कहाँ $$p(y_k|\xi^i_k)$$ घनत्व के लिए खड़ा है $$p(y_k|x_k)$$ पर मूल्यांकन किया गया $$x_k=\xi^i_k$$, और $$p(x_{k+1}|\xi^i_k)$$ घनत्व के लिए खड़ा है $$p(x_{k+1}|x_k)$$ पर मूल्यांकन किया गया $$x_k=\xi^i_k$$ के लिए $$i=1,\cdots,N.$$ फिर, हम एन स्वतंत्र यादृच्छिक चर का नमूना लेते हैं $$\left(\xi^i_{k+1}\right)_{1\leqslant i\leqslant N}$$ सामान्य संभाव्यता घनत्व के साथ $$\widehat{q}(x_{k+1}|y_0,\cdots,y_k)$$ ताकि


 * $$\widehat{p}(dx_{k+1}|y_0,\cdots,y_{k}):=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^{i}_{k+1}}(dx_{k+1})\approx_{N\uparrow\infty} \widehat{q}(x_{k+1}|y_0,\cdots,y_{k}) dx_{k+1} \approx_{N\uparrow\infty} p(x_{k+1}|y_0,\cdots,y_{k})dx_{k+1}$$

इस प्रक्रिया को दोहराते हुए, हम मार्कोव श्रृंखला को इस प्रकार डिज़ाइन करते हैं


 * $$\widehat{p}(dx_k|y_0,\cdots,y_{k-1}):=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_k}(dx_k) \approx_{N\uparrow\infty} p(dx_k|y_0,\cdots,y_{k-1}):=p(x_k|y_0,\cdots,y_{k-1}) dx_k$$

ध्यान दें कि बेयस के सूत्रों का उपयोग करके प्रत्येक समय चरण k पर इष्टतम फ़िल्टर का अनुमान लगाया जाता है


 * $$p(dx_{k}|y_0,\cdots,y_{k}) \approx_{N\uparrow\infty} \frac{p(y_{k}|x_{k}) \widehat{p}(dx_{k}|y_0,\cdots,y_{k-1})}{\int p(y_{k}|x'_{k})\widehat{p}(dx'_{k}|y_0,\cdots,y_{k-1})}=\sum_{i=1}^N \frac{p(y_k|\xi^i_k)}{\sum_{j=1}^Np(y_k|\xi^j_k)}~\delta_{\xi^i_k}(dx_k)$$

शब्दावली माध्य-क्षेत्र सन्निकटन इस तथ्य से आता है कि हम प्रत्येक समय कदम पर संभाव्यता माप को प्रतिस्थापित करते हैं $$p(dx_k|y_0,\cdots,y_{k-1})$$ अनुभवजन्य सन्निकटन द्वारा $$\widehat{p}(dx_k|y_0,\cdots,y_{k-1})$$. फ़िल्टरिंग समस्या का माध्य-क्षेत्र कण सन्निकटन अद्वितीय होने से बहुत दूर है। पुस्तकों में कई रणनीतियाँ विकसित की गई हैं।

कुछ अभिसरण परिणाम
कण फिल्टर के अभिसरण का विश्लेषण 1996 में शुरू किया गया था और 2000 में किताब में और लेखों की श्रृंखला. हाल के घटनाक्रम किताबों में पाए जा सकते हैं, जब फ़िल्टरिंग समीकरण स्थिर होता है (इस अर्थ में कि यह किसी भी गलत प्रारंभिक स्थिति को सही करता है), कण कण का पूर्वाग्रह और विचरण अनुमान लगाता है


 * $$I_k(f):=\int f(x_k) p(dx_k|y_0,\cdots,y_{k-1}) \approx_{N\uparrow\infty} \widehat{I}_k(f):=\int f(x_k) \widehat{p}(dx_k|y_0,\cdots,y_{k-1})$$

गैर-स्पर्शोन्मुख समान अनुमानों द्वारा नियंत्रित होते हैं


 * $$\sup_{k\geqslant 0}\left\vert E\left(\widehat{I}_k(f)\right)-I_k(f)\right\vert\leqslant \frac{c_1}{N}$$
 * $$\sup_{k\geqslant 0}E\left(\left[\widehat{I}_k(f)-I_k(f)\right]^2\right)\leqslant \frac{c_2}{N}$$

1 से घिरे किसी भी फलन f के लिए, और कुछ परिमित स्थिरांकों के लिए $$c_1,c_2.$$ इसके अलावा, किसी के लिए भी $$x\geqslant 0$$:


 * $$\mathbf{P} \left ( \left| \widehat{I}_k(f)-I_k(f)\right|\leqslant c_1 \frac{x}{N}+c_2 \sqrt{\frac{x}{N}}\land \sup_{0\leqslant k\leqslant n}\left| \widehat{I}_k(f)-I_k(f)\right|\leqslant c \sqrt{\frac{x\log(n)}{N}} \right ) > 1-e^{-x}$$

कुछ परिमित स्थिरांकों के लिए $$c_1, c_2$$ कण अनुमान के स्पर्शोन्मुख पूर्वाग्रह और विचरण से संबंधित, और कुछ परिमित स्थिरांक सी। यदि हम चरण वाले इष्टतम भविष्यवक्ता को इष्टतम फ़िल्टर सन्निकटन से प्रतिस्थापित करते हैं तो वही परिणाम संतुष्ट होते हैं।

वंशावली वृक्ष आधारित कण चौरसाई
समय में पूर्वज वंशावली का पता लगाना


 * $$\left(\widehat{\xi}^i_{0,k},\widehat{\xi}^i_{1,k},\cdots,\widehat{\xi}^i_{k-1,k},\widehat{\xi}^i_{k,k}\right), \quad \left(\xi^i_{0,k},\xi^i_{1,k},\cdots,\xi^i_{k-1,k},\xi^i_{k,k}\right)$$

व्यक्तियों का $$\widehat{\xi}^i_{k}\left(=\widehat{\xi}^i_{k,k}\right)$$ और $$\xi^i_{k}\left(={\xi}^i_{k,k}\right)$$ हर समय चरण k पर, हमारे पास कण सन्निकटन भी होते हैं


 * $$\begin{align}

\widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_k) &:=\frac{1}{N}\sum_{i=1}^N \delta_{\left(\widehat{\xi}^i_{0,k},\cdots,\widehat{\xi}^i_{0,k}\right)}(d(x_0,\cdots,x_k)) \\ &\approx_{N\uparrow\infty} p(d(x_0,\cdots,x_k)|y_0,\cdots,y_k) \\ &\approx_{N\uparrow\infty} \sum_{i=1}^N \frac{p(y_k|\xi^i_{k,k})}{\sum_{j=1}^Np(y_k|\xi^j_{k,k})} \delta_{\left(\xi^i_{0,k},\cdots,\xi^i_{0,k}\right)}(d(x_0,\cdots,x_k)) \\ & \ \\ \widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_{k-1}) &:=\frac{1}{N}\sum_{i=1}^N \delta_{\left(\xi^i_{0,k},\cdots,\xi^i_{k,k}\right)}(d(x_0,\cdots,x_k)) \\ &\approx_{N\uparrow\infty} p(d(x_0,\cdots,x_k)|y_0,\cdots,y_{k-1}) \\ &:=p(x_0,\cdots,x_k|y_0,\cdots,y_{k-1}) dx_0,\cdots,dx_k \end{align}$$ ये अनुभवजन्य सन्निकटन कण अभिन्न सन्निकटन के समतुल्य हैं


 * $$\begin{align}

\int F(x_0,\cdots,x_n) \widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_k) &:=\frac{1}{N}\sum_{i=1}^N F\left(\widehat{\xi}^i_{0,k},\cdots,\widehat{\xi}^i_{0,k}\right) \\ &\approx_{N\uparrow\infty} \int F(x_0,\cdots,x_n) p(d(x_0,\cdots,x_k)|y_0,\cdots,y_k) \\ &\approx_{N\uparrow\infty} \sum_{i=1}^N \frac{p(y_k|\xi^i_{k,k})}{\sum_{j=1}^N p(y_k|\xi^j_{k,k})} F\left(\xi^i_{0,k}, \cdots,\xi^i_{k,k} \right) \\ & \ \\ \int F(x_0,\cdots,x_n) \widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_{k-1}) &:=\frac{1}{N} \sum_{i=1}^N F\left(\xi^i_{0,k},\cdots,\xi^i_{k,k}\right) \\ &\approx_{N\uparrow\infty} \int F(x_0,\cdots,x_n) p(d(x_0,\cdots,x_k)|y_0,\cdots,y_{k-1}) \end{align}$$ सिग्नल के यादृच्छिक प्रक्षेपवक्र पर किसी भी बंधे हुए फ़ंक्शन F के लिए। के रूप में दिखाया गया वंशावली वृक्ष का विकास सिग्नल प्रक्षेपवक्र के पीछे के घनत्व से जुड़े विकास समीकरणों की माध्य-क्षेत्र कण व्याख्या के साथ मेल खाता है। इन पथ अंतरिक्ष मॉडलों के बारे में अधिक जानकारी के लिए, हम पुस्तकों का संदर्भ लेते हैं।

संभावना कार्यों का निष्पक्ष कण अनुमान
हम उत्पाद सूत्र का उपयोग करते हैं


 * $$p(y_0,\cdots,y_n)=\prod_{k=0}^n p(y_k|y_0,\cdots,y_{k-1})$$

साथ


 * $$p(y_k|y_0,\cdots,y_{k-1})=\int p(y_k|x_k) p(dx_k|y_0,\cdots,y_{k-1})$$

और सम्मेलन $$p(y_0|y_0,\cdots,y_{-1})=p(y_0)$$ और $$p(x_0|y_0,\cdots,y_{-1})=p(x_0),$$ k = 0 के लिए। प्रतिस्थापित करना $$p(x_k|y_0,\cdots,y_{k-1})dx_k$$ अनुभवजन्य माप सन्निकटन द्वारा


 * $$\widehat{p}(dx_k|y_0,\cdots,y_{k-1}):=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_k}(dx_k) \approx_{N\uparrow\infty} p(dx_k|y_0,\cdots,y_{k-1})$$

उपरोक्त प्रदर्शित सूत्र में, हम संभावना फ़ंक्शन के निम्नलिखित निष्पक्ष कण सन्निकटन को डिज़ाइन करते हैं


 * $$p(y_0,\cdots,y_n) \approx_{N\uparrow\infty} \widehat{p}(y_0,\cdots,y_n)=\prod_{k=0}^n \widehat{p}(y_k|y_0,\cdots,y_{k-1}) $$

साथ


 * $$\widehat{p}(y_k|y_0,\cdots,y_{k-1})=\int p(y_k|x_k) \widehat{p}(dx_k|y_0,\cdots,y_{k-1})=\frac{1}{N}\sum_{i=1}^N p(y_k|\xi^i_k)$$

कहाँ $$p(y_k|\xi^i_k)$$ घनत्व के लिए खड़ा है $$p(y_k|x_k)$$ पर मूल्यांकन किया गया $$x_k=\xi^i_k$$. इस कण अनुमान का डिज़ाइन और निष्पक्षता गुण 1996 में लेख में सिद्ध किया गया है। परिष्कृत विचरण अनुमान यहां पाए जा सकते हैं और।

पिछड़ा कण चिकना
बेयस नियम का उपयोग करते हुए, हमारे पास सूत्र है


 * $$p(x_0,\cdots,x_n|y_0,\cdots,y_{n-1}) = p(x_n | y_0,\cdots,y_{n-1}) p(x_{n-1}|x_n, y_0,\cdots,y_{n-1} ) \cdots p(x_1|x_2,y_0,y_1) p(x_0|x_1,y_0)$$

नोटिस जो


 * $$ \begin{align}

p(x_{k-1}|x_{k},(y_0,\cdots,y_{k-1})) &\propto p(x_{k}|x_{k-1})p(x_{k-1}|(y_0,\cdots,y_{k-1})) \\ p(x_{k-1}|(y_0,\cdots,y_{k-1}) &\propto p(y_{k-1}|x_{k-1})p(x_{k-1}|(y_0,\cdots,y_{k-2}) \end{align}$$ इसका अर्थ यह है कि


 * $$p(x_{k-1}|x_k, (y_0,\cdots,y_{k-1}))=\frac{p(y_{k-1}|x_{k-1})p(x_{k}|x_{k-1})p(x_{k-1}|y_0,\cdots,y_{k-2})}{\int p(y_{k-1}|x'_{k-1})p(x_{k}|x'_{k-1})p(x'_{k-1}|y_0,\cdots,y_{k-2}) dx'_{k-1}}$$

एक-चरणीय इष्टतम भविष्यवक्ताओं को प्रतिस्थापित करना $$p(x_{k-1}|(y_0,\cdots,y_{k-2}))dx_{k-1}$$ कण अनुभवजन्य उपायों द्वारा


 * $$\widehat{p}(dx_{k-1}|(y_0,\cdots,y_{k-2}))=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_{k-1}}(dx_{k-1}) \left(\approx_{N\uparrow\infty} p(dx_{k-1}|(y_0,\cdots,y_{k-2})):={p}(x_{k-1}|(y_0,\cdots,y_{k-2})) dx_{k-1}\right)$$

हम उसे ढूंढते हैं


 * $$\begin{align}

p(dx_{k-1}| x_{k},(y_0,\cdots,y_{k-1})) &\approx_{N\uparrow\infty} \widehat{p}(dx_{k-1}|x_{k},(y_0,\cdots,y_{k-1})) \\ &:= \frac{p(y_{k-1}|x_{k-1}) p(x_{k}|x_{k-1}) \widehat{p}(dx_{k-1}|y_0,\cdots,y_{k-2})}{\int p(y_{k-1}|x'_{k-1})~p(x_{k}| x'_{k-1}) \widehat{p}(dx'_{k-1}|y_0,\cdots,y_{k-2})}\\ &= \sum_{i=1}^{N} \frac{p(y_{k-1}|\xi^i_{k-1}) p(x_{k}|\xi^i_{k-1})}{\sum_{j=1}^{N} p(y_{k-1}|\xi^j_{k-1}) p(x_{k}|\xi^j_{k-1})} \delta_{\xi^i_{k-1}}(dx_{k-1}) \end{align}$$ हम यह निष्कर्ष निकालते हैं


 * $$p(d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1})) \approx_{N\uparrow\infty} \widehat{p}_{backward}(d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1}))$$

पिछड़े कण सन्निकटन के साथ


 * $$\begin{align}

\widehat{p}_{backward} (d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1})) = \widehat{p}(dx_n|(y_0,\cdots,y_{n-1})) \widehat{p}(dx_{n-1}|x_n,(y_0,\cdots,y_{n-1})) \cdots \widehat{p}(dx_1|x_2,(y_0,y_1)) \widehat{p}(dx_0|x_1,y_0) \end{align}$$ संभाव्यता माप


 * $$\widehat{p}_{backward}(d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1}))$$

मार्कोव श्रृंखला के यादृच्छिक पथों की संभावना है $$\left(\mathbb X^{\flat}_{k,n}\right)_{0\leqslant k\leqslant n}$$समय k=n से समय k=0 तक पीछे की ओर दौड़ना, और कणों की आबादी से जुड़े राज्य स्थान में प्रत्येक समय चरण k पर विकसित होना $$\xi^i_k, i=1,\cdots,N.$$
 * प्रारंभ में (समय k=n पर) श्रृंखला $$\mathbb X^{\flat}_{n,n}$$ वितरण के साथ यादृच्छिक रूप से राज्य चुनता है
 * $$\widehat{p}(dx_{n}|(y_0,\cdots,y_{n-1}))=\frac{1}{N}\sum_{i=1}^N \delta_{\xi^i_{n}}(dx_{n})$$


 * समय k से समय (k-1) तक, श्रृंखला किसी अवस्था से शुरू होती है $$\mathbb X^{\flat}_{k,n}=\xi^i_k$$ कुछ के लिए $$ i=1,\cdots,N$$ समय पर k समय (k-1) पर यादृच्छिक स्थिति में चला जाता है $$\mathbb{X}^{\flat}_{k-1,n}$$ असतत भारित संभावना के साथ चुना गया


 * $$\widehat{p}(dx_{k-1}|\xi^i_{k},(y_0,\cdots,y_{k-1}))= \sum_{j=1}^N\frac{p(y_{k-1}|\xi^j_{k-1}) p(\xi^i_{k}|\xi^j_{k-1})}{\sum_{l=1}^Np(y_{k-1}|\xi^l_{k-1}) p(\xi^i_{k}|\xi^l_{k-1})}~\delta_{\xi^j_{k-1}}(dx_{k-1})$$

उपरोक्त प्रदर्शित सूत्र में, $$\widehat{p}(dx_{k-1}|\xi^i_{k},(y_0,\cdots,y_{k-1}))$$ सशर्त वितरण के लिए खड़ा है $$\widehat{p}(dx_{k-1}|x_k, (y_0,\cdots,y_{k-1}))$$ पर मूल्यांकन किया गया $$x_k=\xi^i_{k}$$. ही शिरे में, $$p(y_{k-1}|\xi^j_{k-1})$$ और $$p(\xi^i_k|\xi^j_{k-1})$$ सशर्त घनत्व के लिए खड़े हो जाओ $$p(y_{k-1}|x_{k-1})$$ और $$p(x_k|x_{k-1})$$ पर मूल्यांकन किया गया $$x_k=\xi^i_{k}$$ और $$x_{k-1}=\xi^j_{k-1}.$$ ये मॉडल घनत्व के संबंध में एकीकरण को कम करने की अनुमति देते हैं $$p((x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1}))$$ ऊपर वर्णित श्रृंखला के मार्कोव संक्रमण के संबंध में मैट्रिक्स संचालन के संदर्भ में। उदाहरण के लिए, किसी भी समारोह के लिए $$f_k$$ हमारे पास कण अनुमान हैं


 * $$\begin{align}

\int p(d(x_0,\cdots,x_n)&|(y_0,\cdots,y_{n-1}))f_k(x_k) \\ &\approx_{N\uparrow\infty} \int \widehat{p}_{backward}(d(x_0,\cdots,x_n)| (y_0,\cdots,y_{n-1})) f_k(x_k) \\ &=\int \widehat{p}(dx_n| (y_0,\cdots,y_{n-1})) \widehat{p}(dx_{n-1}|x_n,(y_0,\cdots,y_{n-1})) \cdots \widehat{p}(dx_k| x_{k+1},(y_0,\cdots,y_k)) f_k(x_k) \\ &=\underbrace{\left[\tfrac{1}{N},\cdots,\tfrac{1}{N}\right]}_{N \text{ times}}\mathbb{M}_{n-1} \cdots\mathbb M_{k} \begin{bmatrix} f_k(\xi^1_k)\\ \vdots\\ f_k(\xi^N_k) \end{bmatrix} \end{align}$$ कहाँ


 * $$\mathbb M_k= (\mathbb M_k(i,j))_{1\leqslant i,j\leqslant N}: \qquad \mathbb M_k(i,j)=\frac{p(\xi^i_{k}|\xi^j_{k-1})~p(y_{k-1}|\xi^j_{k-1})}{\sum\limits_{l=1}^{N} p(\xi^i_{k}|\xi^l_{k-1}) p(y_{k-1}|\xi^l_{k-1})}$$

इससे यह भी पता चलता है कि यदि


 * $$\overline{F}(x_0,\cdots,x_n):=\frac{1}{n+1}\sum_{k=0}^n f_k(x_k)$$

तब


 * $$\begin{align}

\int \overline{F}(x_0,\cdots,x_n) p(d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1})) &\approx_{N\uparrow\infty} \int \overline{F}(x_0,\cdots,x_n) \widehat{p}_{backward}(d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1})) \\ &=\frac{1}{n+1} \sum_{k=0}^n \underbrace{\left[\tfrac{1}{N},\cdots,\tfrac{1}{N}\right]}_{N \text{ times}}\mathbb M_{n-1}\mathbb M_{n-2}\cdots\mathbb{M}_k \begin{bmatrix} f_k(\xi^1_k)\\ \vdots\\ f_k(\xi^N_k) \end{bmatrix} \end{align}$$

कुछ अभिसरण परिणाम
हम मान लेंगे कि फ़िल्टरिंग समीकरण स्थिर है, इस अर्थ में कि यह किसी भी गलत प्रारंभिक स्थिति को ठीक करता है।

इस स्थिति में, संभावना कार्यों के कण सन्निकटन निष्पक्ष होते हैं और सापेक्ष विचरण को नियंत्रित किया जाता है


 * $$E\left(\widehat{p}(y_0,\cdots,y_n)\right)= p(y_0,\cdots,y_n), \qquad E\left(\left[\frac{\widehat{p}(y_0,\cdots,y_n)}{p(y_0,\cdots,y_n)}-1\right]^2\right)\leqslant \frac{cn}{N},$$

कुछ परिमित स्थिरांक के लिए c. इसके अलावा, किसी के लिए भी $$x\geqslant 0$$:


 * $$\mathbf{P} \left ( \left\vert \frac{1}{n}\log{\widehat{p}(y_0,\cdots,y_n)}-\frac{1}{n}\log{p(y_0,\cdots,y_n)}\right\vert \leqslant c_1 \frac{x}{N}+c_2 \sqrt{\frac{x}{N}} \right ) > 1-e^{-x} $$

कुछ परिमित स्थिरांकों के लिए $$c_1, c_2$$ कण अनुमान के स्पर्शोन्मुख पूर्वाग्रह और विचरण से संबंधित, और कुछ परिमित स्थिरांक c के लिए।

'वंशावली वृक्षों की पैतृक रेखाओं के आधार पर कण कण अनुमान' का पूर्वाग्रह और भिन्नता


 * $$\begin{align}

I^{path}_k(F) &:=\int F(x_0,\cdots,x_k) p(d(x_0,\cdots,x_k)|y_0,\cdots,y_{k-1}) \\ &\approx_{N\uparrow\infty} \widehat{I}^{path}_k(F) \\ &:=\int F(x_0,\cdots,x_k) \widehat{p}(d(x_0,\cdots,x_k)|y_0,\cdots,y_{k-1}) \\ &=\frac{1}{N}\sum_{i=1}^N F\left(\xi^i_{0,k},\cdots,\xi^i_{k,k}\right) \end{align}$$ गैर-स्पर्शोन्मुख समान अनुमानों द्वारा नियंत्रित होते हैं


 * $$\left| E\left(\widehat{I}^{path}_k(F)\right)-I_k^{path}(F)\right|\leqslant \frac{c_1 k}{N}, \qquad E\left(\left[\widehat{I}^{path}_k(F)-I_k^{path}(F)\right]^2\right)\leqslant \frac{c_2 k}{N},$$

1 से घिरे किसी भी फलन F के लिए, और कुछ परिमित स्थिरांकों के लिए $$c_1, c_2.$$ इसके अलावा, किसी के लिए भी $$x\geqslant 0$$:


 * $$\mathbf{P} \left ( \left| \widehat{I}^{path}_k(F)-I_k^{path}(F)\right | \leqslant c_1 \frac{kx}{N}+c_2 \sqrt{\frac{kx}{N}} \land \sup_{0\leqslant k\leqslant n}\left| \widehat{I}_k^{path}(F)-I^{path}_k(F)\right| \leqslant c \sqrt{\frac{xn\log(n)}{N}} \right ) > 1-e^{-x}$$

कुछ परिमित स्थिरांकों के लिए $$c_1, c_2$$ कण अनुमान के स्पर्शोन्मुख पूर्वाग्रह और विचरण से संबंधित, और कुछ परिमित स्थिरांक c के लिए। पिछड़े कण स्मूथर्स के लिए भी इसी प्रकार का पूर्वाग्रह और विचरण अनुमान लागू होता है। प्रपत्र के योगात्मक कार्यों के लिए


 * $$\overline{F}(x_0,\cdots,x_n):=\frac{1}{n+1}\sum_{0\leqslant k\leqslant n}f_k(x_k)$$

साथ


 * $$I^{path}_n(\overline{F}) \approx_{N\uparrow\infty} I^{\flat, path}_n(\overline{F}):=\int \overline{F}(x_0,\cdots,x_n) \widehat{p}_{backward}(d(x_0,\cdots,x_n)|(y_0,\cdots,y_{n-1}))$$

कार्यों के साथ $$f_k$$ 1 से परिबद्ध, हमारे पास है


 * $$\sup_{n\geqslant 0}{\left\vert E\left(\widehat{I}^{\flat,path}_n(\overline{F})\right)-I_n^{path}(\overline{F})\right\vert} \leqslant \frac{c_1}{N}$$

और


 * $$E\left(\left[\widehat{I}^{\flat,path}_n(F)-I_n^{path}(F)\right]^2\right)\leqslant \frac{c_2}{nN}+ \frac{c_3}{N^2}$$

कुछ परिमित स्थिरांकों के लिए $$c_1,c_2,c_3.$$ त्रुटियों की तेजी से कम संभावना सहित अधिक परिष्कृत अनुमान विकसित किए गए हैं।

मोंटे कार्लो फ़िल्टर और बूटस्ट्रैप फ़िल्टर
अनुक्रमिक महत्व पुन: नमूनाकरण (सांख्यिकी) (एसआईआर), मोंटे कार्लो फ़िल्टरिंग (कितागावा 1993) ), बूटस्ट्रैप फ़िल्टरिंग एल्गोरिदम (गॉर्डन एट अल. 1993 एकल वितरण पुनः नमूनाकरण (बेजुरी W.M.Y.B एट अल. 2017)। ), आमतौर पर फ़िल्टरिंग एल्गोरिदम भी लागू होते हैं, जो फ़िल्टरिंग संभाव्यता घनत्व का अनुमान लगाते हैं $$p(x_k|y_0,\cdots,y_k)$$ एन नमूनों के भारित सेट द्वारा


 * $$ \left \{ \left (w^{(i)}_k,x^{(i)}_k \right ) \ : \ i\in\{1,\cdots,N\} \right \}.$$

महत्व भार $$w^{(i)}_k$$ नमूनों की सापेक्ष पिछली संभावनाओं (या घनत्व) के अनुमान हैं


 * $$\sum_{i=1}^N w^{(i)}_k = 1.$$

अनुक्रमिक महत्व नमूनाकरण (एसआईएस) महत्व नमूने का अनुक्रमिक (यानी, पुनरावर्ती) संस्करण है। महत्व के नमूने के रूप में, फ़ंक्शन f की अपेक्षा को भारित औसत के रूप में अनुमानित किया जा सकता है


 * $$ \int f(x_k) p(x_k|y_0,\dots,y_k) dx_k \approx \sum_{i=1}^N w_k^{(i)} f(x_k^{(i)}).$$

नमूनों के सीमित सेट के लिए, एल्गोरिदम का प्रदर्शन प्रस्ताव वितरण की पसंद पर निर्भर है


 * $$\pi(x_k|x_{0:k-1},y_{0:k})\, $$.

इष्टतम प्रस्ताव वितरण लक्ष्य वितरण के रूप में दिया गया है
 * $$\pi(x_k|x_{0:k-1},y_{0:k}) = p(x_k|x_{k-1},y_{k})=\frac{p(y_k|x_k)}{\int p(y_k|x_k)p(x_k|x_{k-1})dx_k}~p(x_k|x_{k-1}).$$

प्रस्ताव परिवर्तन का यह विशेष विकल्प 1996 और 1998 में पी. डेल मोरल द्वारा प्रस्तावित किया गया है। जब वितरण के अनुसार संक्रमणों का नमूना लेना कठिन हो $$ p(x_k|x_{k-1},y_{k})$$ प्राकृतिक रणनीति निम्नलिखित कण सन्निकटन का उपयोग करना है


 * $$\begin{align}

\frac{p(y_k|x_k)}{\int p(y_k|x_k)p(x_k|x_{k-1})dx_k} p(x_k|x_{k-1})dx_k &\simeq_{N\uparrow\infty} \frac{p(y_k|x_k)}{\int p(y_k|x_k)\widehat{p}(dx_k|x_{k-1})} \widehat{p}(dx_k|x_{k-1}) \\ &= \sum_{i=1}^N \frac{p(y_k|X^i_k(x_{k-1}))}{\sum_{j=1}^N p(y_k|X^j_k(x_{k-1}))} \delta_{X^i_k(x_{k-1})}(dx_k) \end{align}$$ अनुभवजन्य सन्निकटन के साथ


 * $$ \widehat{p}(dx_k|x_{k-1})= \frac{1}{N}\sum_{i=1}^{N} \delta_{X^i_k(x_{k-1})}(dx_k)~\simeq_{N\uparrow\infty} p(x_k|x_{k-1})dx_k $$

एन (या किसी अन्य बड़ी संख्या में नमूने) स्वतंत्र यादृच्छिक नमूनों से जुड़ा हुआ है $$X^i_k(x_{k-1}), i=1,\cdots,N $$यादृच्छिक स्थिति के सशर्त वितरण के साथ $$X_k$$ दिया गया $$X_{k-1}=x_{k-1}$$. इस सन्निकटन और अन्य एक्सटेंशन के परिणामी कण फ़िल्टर की स्थिरता विकसित की जाती है। उपरोक्त डिस्प्ले में $$\delta_a$$ किसी दिए गए राज्य में डिराक माप के लिए खड़ा है।

हालाँकि, संक्रमण पूर्व संभाव्यता वितरण को अक्सर महत्व फ़ंक्शन के रूप में उपयोग किया जाता है, क्योंकि कणों (या नमूनों) को खींचना और बाद के महत्व वजन गणना करना आसान होता है:
 * $$\pi(x_k|x_{0:k-1},y_{0:k}) = p(x_k|x_{k-1}).$$

महत्व फ़ंक्शन के रूप में संक्रमण पूर्व संभाव्यता वितरण के साथ अनुक्रमिक महत्व पुन: नमूनाकरण (एसआईआर) फ़िल्टर को आमतौर पर पुन: नमूनाकरण (सांख्यिकी) # बूटस्ट्रैप और संक्षेपण एल्गोरिदम के रूप में जाना जाता है।

पुन: नमूनाकरण का उपयोग एल्गोरिदम की विकृति की समस्या से बचने के लिए किया जाता है, यानी ऐसी स्थिति से बचने के लिए कि को छोड़कर सभी महत्वपूर्ण भार शून्य के करीब हैं। एल्गोरिथ्म का प्रदर्शन पुन: नमूनाकरण विधि के उचित चयन से भी प्रभावित हो सकता है। कितागावा (1993) द्वारा प्रस्तावित स्तरीकृत नमूनाकरण विचरण की दृष्टि से इष्टतम है।

अनुक्रमिक महत्व पुनः नमूनाकरण का चरण इस प्रकार है:


 * 1) के लिए $$i=1,\cdots,N$$ प्रस्ताव वितरण से नमूने निकालें
 * $$x^{(i)}_k \sim \pi(x_k|x^{(i)}_{0:k-1},y_{0:k})$$
 * 2) के लिए $$i=1,\cdots,N$$ महत्व भार को सामान्यीकरण स्थिरांक तक अद्यतन करें:
 * $$\hat{w}^{(i)}_k = w^{(i)}_{k-1} \frac{p(y_k|x^{(i)}_k) p(x^{(i)}_k|x^{(i)}_{k-1})} {\pi(x_k^{(i)}|x^{(i)}_{0:k-1},y_{0:k})}.$$
 * ध्यान दें कि जब हम संक्रमण पूर्व संभाव्यता वितरण को महत्व फ़ंक्शन के रूप में उपयोग करते हैं,
 * $$ \pi(x_k^{(i)}|x^{(i)}_{0:k-1},y_{0:k}) = p(x^{(i)}_k|x^{(i)}_{k-1}),$$
 * यह निम्नलिखित को सरल बनाता है:
 * $$ \hat{w}^{(i)}_k = w^{(i)}_{k-1} p(y_k|x^{(i)}_k), $$
 * 3) के लिए $$i=1,\cdots,N$$ सामान्यीकृत महत्व भार की गणना करें:
 * $$w^{(i)}_k = \frac{\hat{w}^{(i)}_k}{\sum_{j=1}^N \hat{w}^{(j)}_k}$$
 * 4) कणों की प्रभावी संख्या के अनुमान की गणना करें
 * $$\hat{N}_\mathit{eff} = \frac{1}{\sum_{i=1}^N\left(w^{(i)}_k\right)^2} $$
 * यह मानदंड वज़न के विचरण को दर्शाता है। अन्य मानदंड लेख में पाए जा सकते हैं, जिसमें उनका कठोर विश्लेषण और केंद्रीय सीमा प्रमेय शामिल हैं।


 * 5) यदि कणों की प्रभावी संख्या दी गई सीमा से कम है $$\hat{N}_\mathit{eff} < N_{thr}$$, फिर पुन: नमूनाकरण करें:
 * ए) वर्तमान कण सेट से एन कणों को उनके वजन के अनुपातिक संभावनाओं के साथ खींचें। वर्तमान कण सेट को इस नए से बदलें।
 * बी) के लिए $$i=1,\cdots,N$$ तय करना $$w^{(i)}_k = 1/N.$$

सैम्पलिंग इंपोर्टेंस रिसैम्पलिंग शब्द का उपयोग कभी-कभी एसआईआर फिल्टर का संदर्भ देते समय भी किया जाता है, लेकिन इंपोर्टेंस रिसैम्पलिंग शब्द अधिक सटीक है क्योंकि रिसैम्पलिंग शब्द का तात्पर्य है कि प्रारंभिक नमूनाकरण पहले ही किया जा चुका है।

अनुक्रमिक महत्व नमूनाकरण (एसआईएस)

 * अनुक्रमिक महत्व पुनः नमूनाकरण के समान है, लेकिन पुनः नमूनाकरण चरण के बिना।

प्रत्यक्ष संस्करण एल्गोरिदम
प्रत्यक्ष संस्करण एल्गोरिथ्म काफी सरल है (अन्य कण फ़िल्टरिंग एल्गोरिदम की तुलना में) और यह संरचना और अस्वीकृति का उपयोग करता है। k से एकल नमूना x उत्पन्न करने के लिए $$p_{x_k|y_{1:k}}(x|y_{1:k})$$:
 * 1) n = 0 सेट करें (यह अब तक उत्पन्न कणों की संख्या की गणना करेगा)


 * 2) समान वितरण (अलग-अलग) श्रेणी से सूचकांक चुनें $$\{1,..., N\}$$
 * 3) परीक्षण उत्पन्न करें $$\hat{x}$$ वितरण से $$p(x_k|x_{k-1})$$ साथ $$ x_{k-1}=x_{k-1|k-1}^{(i)}$$
 * 4)की संभावना उत्पन्न करें $$\hat{y}$$ का उपयोग करते हुए $$\hat{x}$$ से $$p(y_k|x_k),~\mbox{with}~x_k=\hat{x}$$ कहाँ $$y_k$$ मापा गया मान है


 * 5) यू से और समान वितरण (निरंतर) उत्पन्न करें $$[0, m_k]$$ कहाँ $$m_k = \sup_{x_k} p(y_k|x_k) $$
 * 6) आपकी तुलना करें और $$p\left(\hat{y}\right)$$
 * 6ए) यदि आप बड़ा है तो चरण 2 से दोहराएं


 * 6बी) यदि आप छोटे हैं तो बचाएं $$\hat{x}$$ जैसा $$x_{k|k}^{(i)}$$ और वेतन वृद्धि n


 * 7) यदि n == N है तो छोड़ दें

लक्ष्य केवल कणों का उपयोग करके k पर P कण उत्पन्न करना है $$k-1$$. इसके लिए आवश्यक है कि मार्कोव समीकरण को उत्पन्न करने के लिए लिखा (और गणना) किया जा सके $$x_k$$ पर ही आधारित है $$x_{k-1}$$. यह एल्गोरिदम पी कणों की संरचना का उपयोग करता है $$k-1$$ k पर कण उत्पन्न करने के लिए और (चरण 2-6) तब तक दोहराता है जब तक कि k पर P कण उत्पन्न न हो जाएं।

यदि x को द्वि-आयामी सरणी के रूप में देखा जाए तो इसे अधिक आसानी से देखा जा सकता है। आयाम k है और दूसरा आयाम कण संख्या है। उदाहरण के लिए, $$x(k,i)$$ मैं होगावेंकण पर $$k$$ और लिखा भी जा सकता है $$x_k^{(i)}$$ (जैसा कि ऊपर एल्गोरिथम में किया गया है)। चरण 3 क्षमता उत्पन्न करता है $$x_k$$ बेतरतीब ढंग से चुने गए कण पर आधारित ($$x_{k-1}^{(i)}$$) समय पर $$k-1$$ और चरण 6 में इसे अस्वीकार या स्वीकार करता है। दूसरे शब्दों में, $$x_k$$ मान पहले उत्पन्न किए गए का उपयोग करके उत्पन्न किए जाते हैं $$x_{k-1}$$.

अनुप्रयोग
कण फिल्टर और फेनमैन-केएसी कण पद्धतियों का उपयोग कई संदर्भों में किया जाता है, शोर अवलोकनों या मजबूत गैर-रैखिकताओं से निपटने के लिए प्रभावी साधन के रूप में, जैसे:
 * बायेसियन अनुमान, मशीन लर्निंग, दुर्लभ घटना नमूनाकरण
 * जैव सूचना विज्ञान
 * कम्प्यूटेशनल विज्ञान
 * अर्थशास्त्र, वित्तीय गणित और गणितीय वित्त: कण फिल्टर सिमुलेशन निष्पादित कर सकते हैं जो मैक्रो-इकोनॉमिक्स और विकल्प मूल्य निर्धारण में गतिशील स्टोकेस्टिक सामान्य संतुलन मॉडल जैसी समस्याओं से संबंधित उच्च-आयामी और/या जटिल इंटीग्रल की गणना करने के लिए आवश्यक हैं।
 * अभियांत्रिकी
 * गलती का पता लगाना और अलगाव: पर्यवेक्षक-आधारित स्कीमा में कण फिल्टर अपेक्षित सेंसर आउटपुट का पूर्वानुमान लगा सकता है जिससे गलती अलगाव को सक्षम किया जा सकता है
 * आण्विक रसायन विज्ञान और कम्प्यूटेशनल भौतिकी
 * फार्माकोकाइनेटिक्स
 * फाइलोजेनेटिक्स
 * रोबोटिक्स, कृत्रिम बुद्धिमत्ता: मोंटे कार्लो स्थानीयकरण मोबाइल रोबोट स्थानीयकरण में वास्तविक मानक है
 * सिग्नल प्रोसेसिंग: दृश्य स्थानीयकरण, ट्रैकिंग, फीचर (कंप्यूटर दृष्टि) पहचान

अन्य कण फिल्टर

 * सहायक कण फिल्टर
 * लागत संदर्भ कण फ़िल्टर
 * घातीय प्राकृतिक कण फ़िल्टर
 * फेनमैन-केएसी और माध्य-क्षेत्र कण पद्धतियाँ * गाऊसी कण फिल्टर
 * गॉस-हर्माइट कण फ़िल्टर
 * पदानुक्रमित/स्केलेबल कण फ़िल्टर
 * नज्ड कण फिल्टर
 * कण मार्कोव-चेन मोंटे-कार्लो, उदाहरण देखें। छद्म-सीमांत मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम।
 * राव-ब्लैकवेलाइज्ड कण फिल्टर * नियमित सहायक कण फिल्टर
 * अस्वीकृति नमूनाकरण|अस्वीकृति-नमूना आधारित इष्टतम कण फ़िल्टर
 * असुगंधित कण फिल्टर

यह भी देखें

 * कलमन फ़िल्टर को इकट्ठा करें
 * सामान्यीकृत फ़िल्टरिंग
 * जेनेटिक एल्गोरिद्म
 * माध्य-क्षेत्र कण विधियाँ
 * मोंटे कार्लो स्थानीयकरण
 * गतिशील क्षितिज अनुमान
 * पुनरावर्ती बायेसियन अनुमान

ग्रन्थसूची

 * Del Moral, Pierre (2004). Feynman-Kac formulae. Genealogical and interacting particle approximations. Springer. p. 575. "Series: Probability and Applications"
 * Del Moral, Pierre (2013). Mean field simulation for Monte Carlo integration. Chapman & Hall/CRC Press. p. 626. "Monographs on Statistics & Applied Probability"
 * Del Moral, Pierre (2013). Mean field simulation for Monte Carlo integration. Chapman & Hall/CRC Press. p. 626. "Monographs on Statistics & Applied Probability"

बाहरी संबंध

 * Feynman–Kac models and interacting particle algorithms (a.k.a. Particle Filtering) Theoretical aspects and a list of application domains of particle filters
 * Sequential Monte Carlo Methods (Particle Filtering) homepage on University of Cambridge
 * Dieter Fox's MCL Animations
 * Rob Hess' free software
 * SMCTC: A Template Class for Implementing SMC algorithms in C++
 * Java applet on particle filtering
 * vSMC : Vectorized Sequential Monte Carlo
 * Particle filter explained in the context of self driving car