यादृच्छिक नमूना सर्वसम्मति

रैंडम सैंपल सर्वसम्मति (RANSAC) अवलोकन किए गए डेटा के एक सेट से गणितीय मॉडल के मापदंडों का अनुमान लगाने की एक पुनरावृत्तीय विधि है जिसमें बाहरी कारकों के कारण शामिल होते हैं, जब आउटलेर्स को अनुमानों के मूल्यों पर कोई प्रभाव नहीं दिया जाता है। इसलिए, इसे एक बाहरी पता लगाने की विधि के रूप में भी समझा जा सकता है। यह इस अर्थ में एक गैर-नियतात्मक एल्गोरिदम है कि यह केवल एक निश्चित संभावना के साथ एक उचित परिणाम उत्पन्न करता है, जैसे-जैसे अधिक पुनरावृत्तियों की अनुमति दी जाती है, यह संभावना बढ़ती जाती है। एल्गोरिथ्म को पहली बार 1981 में एसआरआई इंटरनेशनल में फिशलर और बोल्स द्वारा प्रकाशित किया गया था। उन्होंने स्थान निर्धारण समस्या (एलडीपी) को हल करने के लिए RANSAC का उपयोग किया, जहां लक्ष्य अंतरिक्ष में उन बिंदुओं को निर्धारित करना है जो एक छवि पर ज्ञात स्थानों के साथ स्थलों के एक सेट में प्रोजेक्ट करते हैं।

RANSAC क्रॉस-वैलिडेशन (सांख्यिकी)#बार-बार यादृच्छिक उप-नमूना सत्यापन|बार-बार यादृच्छिक उप-नमूनाकरण का उपयोग करता है। एक बुनियादी धारणा यह है कि डेटा में इनलियर्स होते हैं, यानी, डेटा जिसका वितरण मॉडल पैरामीटर के कुछ सेट द्वारा समझाया जा सकता है, हालांकि शोर के अधीन हो सकता है, और आउटलेयर जो डेटा हैं जो मॉडल में फिट नहीं होते हैं। आउटलेर्स, उदाहरण के लिए, शोर के चरम मूल्यों से या गलत माप या डेटा की व्याख्या के बारे में गलत परिकल्पनाओं से आ सकते हैं। RANSAC यह भी मानता है कि, इनलियर्स के (आमतौर पर छोटे) सेट को देखते हुए, एक ऐसी प्रक्रिया मौजूद है जो एक मॉडल के मापदंडों का अनुमान लगा सकती है जो इस डेटा को इष्टतम रूप से समझाती है या फिट करती है।

उदाहरण
एक सरल उदाहरण अवलोकनों के एक सेट के दो आयामों में प्रतिगमन विश्लेषण है। यह मानते हुए कि इस सेट में दोनों इनलियर्स हैं, यानी, वे बिंदु जो लगभग एक लाइन में फिट किए जा सकते हैं, और आउटलेर्स, वे पॉइंट जो इस लाइन में फिट नहीं किए जा सकते हैं, लाइन फिटिंग के लिए एक सामान्य न्यूनतम वर्ग आम तौर पर इनलियर्स और आउटलेर्स सहित डेटा के लिए खराब फिट वाली एक लाइन उत्पन्न करेगा। इसका कारण यह है कि यह आउटलेर्स सहित सभी बिंदुओं पर सर्वोत्तम रूप से फिट है। दूसरी ओर, RANSAC, आउटलेर्स को बाहर करने और एक रैखिक मॉडल खोजने का प्रयास करता है जो अपनी गणना में केवल इनलियर्स का उपयोग करता है। यह डेटा के कई यादृच्छिक नमूनों में रैखिक मॉडल फिट करके और उस मॉडल को वापस करके किया जाता है जो डेटा के सबसेट के लिए सबसे उपयुक्त है। चूँकि इनलियर्स इनलियर्स और आउटलेर्स के यादृच्छिक मिश्रण की तुलना में अधिक रैखिक रूप से संबंधित होते हैं, एक यादृच्छिक उपसमुच्चय जिसमें पूरी तरह से इनलियर्स शामिल होते हैं, सबसे अच्छा मॉडल फिट होगा। व्यवहार में, इस बात की कोई गारंटी नहीं है कि इनलियर्स के एक सबसेट को यादृच्छिक रूप से नमूना किया जाएगा, और एल्गोरिदम के सफल होने की संभावना डेटा में इनलियर्स के अनुपात के साथ-साथ कई एल्गोरिदम मापदंडों की पसंद पर निर्भर करती है।

अवलोकन
RANSAC एल्गोरिथ्म प्रेक्षित डेटा के यादृच्छिक नमूने द्वारा किसी मॉडल के मापदंडों का अनुमान लगाने की एक सीखने की तकनीक है। एक डेटासेट को देखते हुए जिसके डेटा तत्वों में इनलियर्स और आउटलेर दोनों शामिल हैं, RANSAC इष्टतम फिटिंग परिणाम खोजने के लिए वोटिंग योजना का उपयोग करता है। डेटासेट में डेटा तत्वों का उपयोग एक या एकाधिक मॉडल के लिए वोट करने के लिए किया जाता है। इस वोटिंग योजना का कार्यान्वयन दो धारणाओं पर आधारित है: शोर वाली विशेषताएं किसी एक मॉडल (कुछ आउटलेर्स) के लिए लगातार वोट नहीं करेंगी और एक अच्छे मॉडल (कुछ गायब डेटा) पर सहमत होने के लिए पर्याप्त सुविधाएं हैं। RANSAC एल्गोरिथ्म अनिवार्य रूप से दो चरणों से बना है जिन्हें पुनरावृत्त रूप से दोहराया जाता है: फिटिंग मॉडल के लिए प्राप्त इनलियर्स के सेट को सर्वसम्मति सेट कहा जाता है। RANSAC एल्गोरिथ्म उपरोक्त दो चरणों को तब तक दोहराएगा जब तक कि निश्चित पुनरावृत्ति में प्राप्त सर्वसम्मति सेट में पर्याप्त इनलाइनर न हों।
 * 1) पहले चरण में, इनपुट डेटासेट से न्यूनतम डेटा आइटम वाला एक नमूना उपसमूह यादृच्छिक रूप से चुना जाता है। मॉडल मापदंडों के साथ एक फिटिंग मॉडल की गणना केवल इस नमूना उपसमूह के तत्वों का उपयोग करके की जाती है। नमूना उपसमुच्चय की प्रमुखता (उदाहरण के लिए, इस उपसमुच्चय में डेटा की मात्रा) मॉडल मापदंडों को निर्धारित करने के लिए पर्याप्त है।
 * 2) दूसरे चरण में, एल्गोरिदम जांचता है कि संपूर्ण डेटासेट के कौन से तत्व पहले चरण से प्राप्त अनुमानित मॉडल मापदंडों द्वारा तत्काल मॉडल के अनुरूप हैं। एक डेटा तत्व को आउटलेयर के रूप में माना जाएगा यदि यह इनलियर्स के अधिकतम डेटा विचलन को परिभाषित करने वाली कुछ त्रुटि सीमा के भीतर मॉडल में फिट नहीं होता है। (इस विचलन से परे डेटा तत्व आउटलेयर हैं।)

RANSAC एल्गोरिथ्म का इनपुट अवलोकन किए गए डेटा मानों का एक सेट है, अवलोकनों के लिए उपयुक्त एक मॉडल और आउटलेर्स को परिभाषित करने वाले कुछ आत्मविश्वास अंतराल पैरामीटर हैं। उपरोक्त RANSAC एल्गोरिथ्म अवलोकन से अधिक विवरण में, RANSAC निम्नलिखित चरणों को दोहराकर अपना लक्ष्य प्राप्त करता है:


 * 1) मूल डेटा का एक यादृच्छिक उपसमूह चुनें। इस उपसमुच्चय को काल्पनिक इनलियर्स कहें।
 * 2) एक मॉडल को काल्पनिक इनलियर्स के सेट पर फिट किया गया है।
 * 3) फिर सभी डेटा का परीक्षण फिट किए गए मॉडल के विरुद्ध किया जाता है। सभी डेटा बिंदु (मूल डेटा के) जो कुछ मॉडल-विशिष्ट हानि फ़ंक्शन के अनुसार अनुमानित मॉडल को अच्छी तरह से फिट करते हैं, सर्वसम्मति सेट (यानी, मॉडल के लिए इनलियर्स का सेट) कहलाते हैं।
 * 4) यदि पर्याप्त संख्या में डेटा बिंदुओं को आम सहमति सेट के हिस्से के रूप में वर्गीकृत किया गया है तो अनुमानित मॉडल काफी अच्छा है।
 * 5) सर्वसम्मति सेट के सभी सदस्यों का उपयोग करके मॉडल का पुन: आकलन करके इसे बेहतर बनाया जा सकता है। मॉडल सर्वसम्मति सेट पर कितनी अच्छी तरह फिट बैठता है, इसके माप के रूप में फिटिंग गुणवत्ता का उपयोग मॉडल फिटिंग को तेज करने के लिए किया जाएगा क्योंकि पुनरावृत्ति आगे बढ़ती है (उदाहरण के लिए, इस माप को अगले पुनरावृत्ति में फिटिंग गुणवत्ता मानदंड के रूप में सेट करके)।

पर्याप्त रूप से अच्छे मॉडल पैरामीटर सेट में परिवर्तित होने के लिए, इस प्रक्रिया को निश्चित संख्या में दोहराया जाता है, हर बार या तो मॉडल की अस्वीकृति उत्पन्न होती है क्योंकि बहुत कम बिंदु सर्वसम्मति सेट का हिस्सा होते हैं, या सर्वसम्मति सेट आकार के साथ एक परिष्कृत मॉडल पिछले सर्वसम्मति सेट से बड़ा होता है।

स्यूडोकोड
सामान्य RANSAC एल्गोरिथ्म निम्नलिखित छद्मकोड के रूप में काम करता है:

दिया गया: डेटा - अवलोकनों का एक सेट। मॉडल - देखे गए डेटा बिंदुओं को समझाने के लिए एक मॉडल। n - मॉडल मापदंडों का अनुमान लगाने के लिए आवश्यक डेटा बिंदुओं की न्यूनतम संख्या। k - एल्गोरिदम में अनुमत पुनरावृत्तियों की अधिकतम संख्या। टी - डेटा बिंदुओं को निर्धारित करने के लिए एक थ्रेशोल्ड मान जो मॉडल (इनलीयर) द्वारा अच्छी तरह से फिट होता है। डी - यह सुनिश्चित करने के लिए आवश्यक करीबी डेटा बिंदुओं (इनलियर्स) की संख्या कि मॉडल डेटा के साथ अच्छी तरह से फिट बैठता है। वापस करना: बेस्टफ़िट - मॉडल पैरामीटर जो डेटा के लिए सबसे उपयुक्त हो सकते हैं (या यदि कोई अच्छा मॉडल नहीं मिलता है तो शून्य)। पुनरावृत्तियाँ = 0 बेस्टफ़िट = शून्य bestErr = कुछ वास्तव में बड़ा // इस पैरामीटर का उपयोग पुनरावृत्तियों के चलते मॉडल पैरामीटर को सर्वोत्तम डेटा फिटिंग में तेज करने के लिए किया जाता है। जबकि पुनरावृत्तियां < k करते हैं mayInliers := n डेटा से बेतरतीब ढंग से चयनित मान हो सकता है मॉडल := मॉडल पैरामीटर शायद इनलियर्स में फिट किए गए हों कन्फर्मइनलियर्स := खाली सेट डेटा के प्रत्येक बिंदु के लिए करें यदि बिंदु हो सकता है कि मॉडल टी से छोटी त्रुटि के साथ फिट बैठता है कन्फ़र्मइनलियर्स में बिंदु जोड़ें अगर अंत के लिए समाप्त यदि कन्फ़र्मइनलियर्स में तत्वों की संख्या > d है तो // इसका तात्पर्य यह है कि हमें एक अच्छा मॉडल मिल गया होगा। // अब परीक्षण करें कि यह कितना अच्छा है। बेहतरमॉडल:= मॉडल पैरामीटर कन्फर्मइनलियर्स में सभी बिंदुओं पर फिट किए गए हैं thisErr := यह मापता है कि मॉडल इन बिंदुओं पर कितनी अच्छी तरह फिट बैठता है यदि यह त्रुटि < सर्वोत्तम त्रुटि है तो बेस्टफ़िट:=बेहतरमॉडल bestErr := thisErr अगर अंत अगर अंत वृद्धिशील पुनरावृत्तियाँ समय समाप्त करें बेस्टफ़िट लौटाएँ

उदाहरण कोड
छद्मकोड को प्रतिबिंबित करने वाला एक पायथन कार्यान्वयन। यह भी परिभाषित करता है a  न्यूनतम वर्गों के आधार पर, लागू होता है   एक 2डी प्रतिगमन समस्या के लिए, और परिणाम की कल्पना करता है:



पैरामीटर्स
यह निर्धारित करने के लिए थ्रेशोल्ड मान कि डेटा बिंदु किसी मॉडल में कब फिट बैठता है ($t$), और इनलियर्स की संख्या (टी के भीतर मॉडल में फिट किए गए डेटा बिंदु) यह दावा करने के लिए आवश्यक है कि मॉडल डेटा के लिए अच्छी तरह से फिट बैठता है ($d$) एप्लिकेशन और डेटासेट की विशिष्ट आवश्यकताओं के आधार पर और संभवतः प्रयोगात्मक मूल्यांकन के आधार पर निर्धारित किए जाते हैं। पुनरावृत्तियों की संख्या ($k$), हालाँकि, मोटे तौर पर सफलता की वांछित संभावना के एक फ़ंक्शन के रूप में निर्धारित किया जा सकता है ($p$) जैसा कि नीचे दिया गया है।

होने देना $p$ वांछित संभावना है कि RANSAC एल्गोरिथ्म चलने के बाद कम से कम एक उपयोगी परिणाम प्रदान करता है। चरम रूप में (व्युत्पत्ति को सरल बनाने के लिए), RANSAC एक सफल परिणाम देता है यदि कुछ पुनरावृत्ति में यह इनपुट डेटा सेट से केवल इनलियर्स का चयन करता है जब वह चुनता है $n$ डेटा सेट से अंक जिनसे मॉडल पैरामीटर का अनुमान लगाया जाता है। (दूसरे शब्दों में, सभी चयनित $n$ डेटा बिंदु इन बिंदुओं द्वारा अनुमानित मॉडल के अंदरूनी भाग हैं)। होने देना $$w$$ हर बार एक एकल डेटा बिंदु का चयन करने पर एक इनलायर चुनने की संभावना हो, जो मोटे तौर पर है,


 * $$w$$ = डेटा में इनलियर्स की संख्या / डेटा में अंकों की संख्या

एक सामान्य मामला यह है $$w$$ RANSAC एल्गोरिदम चलाने से पहले डेटा में अज्ञात संख्या में इनलियर्स के कारण यह पहले से अच्छी तरह से ज्ञात नहीं है, लेकिन कुछ मोटा मूल्य दिया जा सकता है। के किसी दिए गए मोटे मूल्य के साथ $$w$$ और मोटे तौर पर यह मानते हुए कि $n$ किसी मॉडल का अनुमान लगाने के लिए आवश्यक बिंदुओं को स्वतंत्र रूप से चुना जाता है (यह एक मोटी धारणा है क्योंकि प्रत्येक डेटा बिंदु चयन वास्तविकता में अगले चयन में चुनने के लिए डेटा बिंदु उम्मीदवारों की संख्या कम कर देता है), $$w^{n}$$ यह प्रायिकता है कि सभी n बिंदु अंतर्निहित हैं और $$1 - w^{n}$$ संभावना है कि इनमें से कम से कम एक $n$ अंक एक बाह्य, एक ऐसा मामला है जिसका तात्पर्य यह है कि इस बिंदु सेट से एक खराब मॉडल का अनुमान लगाया जाएगा। की शक्ति के लिए वह संभावना $k$ (एल्गोरिथ्म को चलाने में पुनरावृत्तियों की संख्या) यह संभावना है कि एल्गोरिथम कभी भी किसी सेट का चयन नहीं करता है $n$ अंक जो सभी अंतर्निहित हैं, और यह वैसा ही है $$1 - p$$ (संभावना है कि एल्गोरिदम एक सफल मॉडल अनुमान में परिणत नहीं होता है) चरम पर। फलस्वरूप,



1 - p = (1 - w^n)^k \, $$ जो, दोनों पक्षों का लघुगणक लेने के बाद, की ओर जाता है



k = \frac{\log(1 - p)}{\log(1 - w^n)} $$ यह परिणाम मानता है कि $n$ डेटा बिंदुओं को स्वतंत्र रूप से चुना जाता है, अर्थात, एक बिंदु जिसे एक बार चुना गया है उसे बदल दिया जाता है और उसी पुनरावृत्ति में फिर से चुना जा सकता है। यह अक्सर एक उचित दृष्टिकोण और व्युत्पन्न मूल्य नहीं होता है $k$ को उस स्थिति में ऊपरी सीमा के रूप में लिया जाना चाहिए जब बिंदुओं को प्रतिस्थापन के बिना चुना जाता है। उदाहरण के लिए, ऊपर दिए गए चित्र में दर्शाए गए डेटा सेट में फिट होने वाली रेखा ढूंढने के मामले में, RANSAC एल्गोरिदम आम तौर पर प्रत्येक पुनरावृत्ति में दो बिंदु चुनता है और गणना करता है  बिंदुओं के बीच की रेखा के रूप में और तब यह महत्वपूर्ण है कि दोनों बिंदु अलग-अलग हों।

अतिरिक्त आत्मविश्वास हासिल करने के लिए, मानक विचलन या उसके गुणकों को जोड़ा जा सकता है $k$. का मानक विचलन $k$ परिभाषित किया जाता है


 * $$ \operatorname{SD}(k) = \frac{\sqrt{1 - w^n}}{w^n}$$

फायदे और नुकसान
RANSAC का एक लाभ इसकी मजबूत आँकड़े बनाने की क्षमता है मॉडल मापदंडों का, यानी, यह डेटा सेट में महत्वपूर्ण संख्या में आउटलेर्स मौजूद होने पर भी उच्च स्तर की सटीकता के साथ मापदंडों का अनुमान लगा सकता है। RANSAC का एक नुकसान यह है कि इन मापदंडों की गणना करने में लगने वाले समय की कोई ऊपरी सीमा नहीं है (थकावट को छोड़कर)। जब गणना की गई पुनरावृत्तियों की संख्या सीमित होती है तो प्राप्त समाधान इष्टतम नहीं हो सकता है, और यह ऐसा भी नहीं हो सकता है जो डेटा को अच्छे तरीके से फिट करता हो। इस तरह RANSAC एक व्यापार-बंद की पेशकश करता है; अधिक संख्या में पुनरावृत्तियों की गणना करने से एक उचित मॉडल तैयार होने की संभावना बढ़ जाती है। इसके अलावा, RANSAC हमेशा मध्यम रूप से दूषित सेटों के लिए भी इष्टतम सेट खोजने में सक्षम नहीं होता है और यह आमतौर पर खराब प्रदर्शन करता है जब इनलियर्स की संख्या 50% से कम होती है। इष्टतम RANSAC इन दोनों समस्याओं से निपटने के लिए प्रस्तावित किया गया था और यह अत्यधिक दूषित सेटों के लिए इष्टतम सेट खोजने में सक्षम है, यहां तक ​​कि 5% से कम के आंतरिक अनुपात के लिए भी। RANSAC का एक और नुकसान यह है कि इसमें समस्या-विशिष्ट सीमाएँ निर्धारित करने की आवश्यकता होती है।

RANSAC किसी विशेष डेटा सेट के लिए केवल एक मॉडल का अनुमान लगा सकता है। जहां तक ​​किसी एक-मॉडल दृष्टिकोण की बात है, जब दो (या अधिक) मॉडल इंस्टेंस मौजूद हों, तो RANSAC किसी एक को भी ढूंढने में विफल हो सकता है। बहुत परिवर्तन एक वैकल्पिक मजबूत अनुमान तकनीक है जो एक से अधिक मॉडल उदाहरण मौजूद होने पर उपयोगी हो सकती है। मल्टी मॉडल फिटिंग के लिए एक अन्य दृष्टिकोण को पर्ल के नाम से जाना जाता है। जो RANSAC में डेटा बिंदुओं से मॉडल सैंपलिंग को इनलियर्स के पुनरावृत्तीय पुन: आकलन के साथ जोड़ती है और समग्र समाधान की गुणवत्ता का वर्णन करने वाले वैश्विक ऊर्जा फ़ंक्शन के साथ एक अनुकूलन समस्या के रूप में मल्टी-मॉडल फिटिंग तैयार की जाती है।

अनुप्रयोग
RANSAC एल्गोरिथ्म का उपयोग अक्सर कंप्यूटर दृष्टि में किया जाता है, उदाहरण के लिए, पत्राचार समस्या को एक साथ हल करने और स्टीरियो कैमरों की एक जोड़ी से संबंधित मौलिक मैट्रिक्स (कंप्यूटर विज़न) का अनुमान लगाने के लिए; यह भी देखें: गति से संरचना, स्केल-अपरिवर्तनीय सुविधा परिवर्तन, छवि सिलाई, कठोर गति विभाजन।

विकास और सुधार
1981 से RANSAC कंप्यूटर विज़न और इमेज प्रोसेसिंग समुदाय में एक मौलिक उपकरण बन गया है। 2006 में, एल्गोरिथम की 25वीं वर्षगांठ के लिए, मूल एल्गोरिथम में नवीनतम योगदानों और विविधताओं को संक्षेप में प्रस्तुत करने कंप्यूटर विज़न और पैटर्न पहचान पर सम्मेलन (सीवीपीआर) पर अंतर्राष्ट्रीय सम्मेलन में एक कार्यशाला का आयोजन किया गया था, जिसका उद्देश्य ज्यादातर एल्गोरिथम की गति, अनुमानित समाधान की मजबूती और सटीकता में सुधार करना और उपयोगकर्ता परिभाषित स्थिरांक से निर्भरता को कम करना था।

RANSAC सही शोर सीमा की पसंद के प्रति संवेदनशील हो सकता है जो परिभाषित करता है कि कौन से डेटा बिंदु मापदंडों के एक निश्चित सेट के साथ तत्काल मॉडल में फिट होते हैं। यदि ऐसी सीमा बहुत बड़ी है, तो सभी परिकल्पनाओं को समान (अच्छा) रैंक दिया जाता है। दूसरी ओर, जब शोर सीमा बहुत छोटी होती है, तो अनुमानित पैरामीटर अस्थिर हो जाते हैं (अर्थात केवल इनलियर्स के सेट में डेटा जोड़ने या हटाने से, पैरामीटर के अनुमान में उतार-चढ़ाव हो सकता है)। इस अवांछनीय प्रभाव के लिए आंशिक रूप से क्षतिपूर्ति करने के लिए, टॉर एट अल। RANSAC के दो संशोधन प्रस्तावित हैं जिन्हें MSAC (M-आकलनकर्ता SAmple और आम सहमति) और MLESAC (अधिकतम संभावना अनुमान SAmple और आम सहमति) कहा जाता है। मुख्य विचार आम सहमति सेट की गुणवत्ता का मूल्यांकन करना है (यानी वह डेटा जो एक मॉडल और मापदंडों के एक निश्चित सेट में फिट बैठता है) इसकी संभावना की गणना करना (जबकि फिशलर और बोल्स द्वारा मूल फॉर्मूलेशन में रैंक ऐसे सेट की कार्डिनैलिटी थी)। एमएलईएसएसी का एक विस्तार जो इनपुट डेटासेट से जुड़ी पूर्व संभावनाओं को ध्यान में रखता है, टॉर्डॉफ द्वारा प्रस्तावित है। परिणामी एल्गोरिदम को गाइडेड-MLESAC नाम दिया गया है। इसी तरह, चुम ने नमूनाकरण प्रक्रिया का मार्गदर्शन करने का प्रस्ताव दिया यदि इनपुट डेटा के संबंध में कुछ प्राथमिक जानकारी ज्ञात हो, यानी कि क्या डेटाम इनलायर या आउटलायर होने की संभावना है। प्रस्तावित दृष्टिकोण को PROSAC, प्रगतिशील नमूना सहमति कहा जाता है। चुम एट अल. RANSAC का एक यादृच्छिक संस्करण भी प्रस्तावित किया गया जिसे R-RANSAC कहा जाता है एक अच्छे सर्वसम्मति सेट की पहचान करने के लिए कम्प्यूटेशनल बोझ को कम करना। मूल विचार यह है कि प्रारंभ में संपूर्ण डेटासेट के बजाय केवल कम अंकों के सेट का उपयोग करके वर्तमान इंस्टेंटियेटेड मॉडल की अच्छाई का मूल्यांकन किया जाए। एक ठोस रणनीति उच्च आत्मविश्वास के साथ बताएगी कि संपूर्ण डेटासेट की फिटिंग का मूल्यांकन करने का मामला कब है या मॉडल को आसानी से खारिज किया जा सकता है। यह सोचना उचित है कि इस दृष्टिकोण का प्रभाव उन मामलों में अधिक प्रासंगिक है जहां इनलियर्स का प्रतिशत बड़ा है। चुम एट अल द्वारा प्रस्तावित रणनीति का प्रकार। प्रीएम्प्शन स्कीम कहलाती है. निस्टर ने प्रीमेप्टिव RANSAC नामक एक प्रतिमान प्रस्तावित किया यह किसी दृश्य की संरचना और कैमरे की गति का वास्तविक समय में मजबूत अनुमान लगाने की अनुमति देता है। दृष्टिकोण का मूल विचार एक निश्चित संख्या में परिकल्पना उत्पन्न करना है ताकि तुलना किसी पूर्ण गुणवत्ता मीट्रिक के बजाय उत्पन्न परिकल्पना की गुणवत्ता के संबंध में होती है।

अन्य शोधकर्ताओं ने उन कठिन परिस्थितियों से निपटने की कोशिश की जहां शोर का पैमाना ज्ञात नहीं है और/या कई मॉडल उदाहरण मौजूद हैं। पहली समस्या का समाधान वांग और स्यूटर द्वारा कार्य में किया गया है। टोल्डो एट अल. बिंदु पर फिट होने वाले यादृच्छिक मॉडल के सेट के विशिष्ट कार्य के साथ प्रत्येक डेटाम का प्रतिनिधित्व करें। फिर कई मॉडल क्लस्टर के रूप में सामने आते हैं जो एक ही मॉडल का समर्थन करने वाले बिंदुओं को समूहित करते हैं। क्लस्टरिंग एल्गोरिदम, जिसे जे-लिंकेज कहा जाता है, को मॉडलों की संख्या के पूर्व विनिर्देश की आवश्यकता नहीं होती है, न ही इसे मैन्युअल पैरामीटर ट्यूनिंग की आवश्यकता होती है। RANSAC को पुनरावर्ती राज्य अनुमान अनुप्रयोगों के लिए भी तैयार किया गया है, जहां इनपुट माप आउटलेर्स द्वारा दूषित हो जाते हैं और कलमन फ़िल्टर दृष्टिकोण, जो माप त्रुटि के सामान्य वितरण पर निर्भर होते हैं, विफल होने के लिए अभिशप्त होते हैं। इस तरह के दृष्टिकोण को KALMANSAC कहा जाता है।

संबंधित विधियाँ

 * एमएलईएसएसी (अधिकतम संभावना अनुमान नमूना सहमति) - अधिकतम संभावना अनुमान कि डेटा नमूना-फिट मॉडल से उत्पन्न हुआ था, उदाहरण के लिए। इनलियर्स और आउटलेर्स का मिश्रण मॉडल
 * MAPSAC (अधिकतम ए पोस्टीरियर सैंपल सर्वसम्मति) - फिट किए जाने वाले मापदंडों की पूर्व संभावना को शामिल करने के लिए एमएलईएसएसी का विस्तार करता है और पोस्टीरियर संभावना को अधिकतम करता है।
 * KALMANSAC - एक गतिशील प्रणाली की स्थिति का कारण अनुमान
 * पुन: नमूनाकरण (सांख्यिकी)
 * हॉप-डिफ्यूजन मोंटे कार्लो बहुत व्यापक-बेसलाइन छवियों के बीच एपिपोलर ज्यामिति अनुमान के लिए RANSAC के प्रत्येक चरण पर नमूना चुनने के लिए यादृच्छिक नमूनाकरण का उपयोग करता है जिसमें वैश्विक छलांग और स्थानीय प्रसार शामिल होता है।

यह भी देखें

 * बहुत परिवर्तन

संदर्भ