सक्रिय शिक्षण (मशीन लर्निंग)

सक्रिय शिक्षण मशीन लर्निंग का एक विशेष मामला है जिसमें एक शिक्षण एल्गोरिदम वांछित आउटपुट के साथ नए डेटा बिंदुओं को लेबल करने के लिए उपयोगकर्ता (या किसी अन्य सूचना स्रोत) से इंटरैक्टिव रूप से क्वेरी कर सकता है।   सांख्यिकी साहित्य में, इसे कभी-कभी इष्टतम प्रयोगात्मक डिज़ाइन भी कहा जाता है। सूचना स्रोत को शिक्षक या दैवज्ञ भी कहा जाता है।

ऐसी स्थितियाँ हैं जिनमें बिना लेबल वाला डेटा प्रचुर मात्रा में है लेकिन मैन्युअल लेबलिंग महंगी है। ऐसे परिदृश्य में, सीखने के एल्गोरिदम लेबल के लिए उपयोगकर्ता/शिक्षक से सक्रिय रूप से पूछताछ कर सकते हैं। इस प्रकार की पुनरावृत्तीय पर्यवेक्षित शिक्षा को सक्रिय शिक्षा कहा जाता है। चूँकि शिक्षार्थी उदाहरण चुनता है, किसी अवधारणा को सीखने के लिए उदाहरणों की संख्या अक्सर सामान्य पर्यवेक्षित शिक्षण में आवश्यक संख्या से बहुत कम हो सकती है। इस दृष्टिकोण के साथ, यह जोखिम है कि एल्गोरिदम बिना सूचना वाले उदाहरणों से अभिभूत हो जाएगा। हाल के घटनाक्रम मल्टी-लेबल सक्रिय शिक्षण हाइब्रिड सक्रिय शिक्षण और एकल-पास (ऑन-लाइन) संदर्भ में सक्रिय शिक्षण, मशीन लर्निंग के क्षेत्र से अवधारणाओं के संयोजन के लिए समर्पित हैं (उदाहरण के लिए संघर्ष और अज्ञानता) ऑनलाइन मशीन लर्निंग के क्षेत्र में अनुकूली, वृद्धिशील शिक्षण नीतियों के साथ।

बड़े पैमाने पर सक्रिय शिक्षण परियोजनाओं को अमेज़ॅन मैकेनिकल तुर्क जैसे क्राउडसोर्सिंग ढांचे से लाभ हो सकता है जिसमें सक्रिय शिक्षण लूप में कई मनुष्य शामिल हैं।

परिभाषाएँ
मान लीजिए $T$ विचाराधीन सभी डेटा का कुल सेट है। उदाहरण के लिए, प्रोटीन इंजीनियरिंग समस्या में, $T$ में वे सभी प्रोटीन शामिल होंगे जो एक निश्चित दिलचस्प गतिविधि के लिए जाने जाते हैं और सभी अतिरिक्त प्रोटीन जिन्हें कोई उस गतिविधि के लिए परीक्षण करना चाहता है।

प्रत्येक पुनरावृत्ति के दौरान, $i$, $T$ को तीन उपसमूहों में विभाजित किया गया है
 * 1) $$\mathbf{T}_{K,i}$$: डेटा बिंदु जहां लेबल ज्ञात है।
 * 2) $$\mathbf{T}_{U,i}$$: डेटा बिंदु जहां लेबल अज्ञात है।
 * 3) $$\mathbf{T}_{C,i}$$: का एक उपसमुच्चय $TU,i$ जिसे लेबल करने के लिए चुना गया है।

सक्रिय शिक्षण में अधिकांश वर्तमान शोध में $TC,i$ के लिए डेटा बिंदुओं को चुनने की सर्वोत्तम विधि शामिल है।

परिदृश्यों

 * सदस्यता क्वेरी संश्लेषण: यह वह जगह है जहां शिक्षार्थी अंतर्निहित प्राकृतिक वितरण से अपना स्वयं का उदाहरण उत्पन्न करता है। उदाहरण के लिए, यदि डेटासेट इंसानों और जानवरों की तस्वीरें हैं, तो शिक्षार्थी शिक्षक को एक पैर की क्लिप की गई छवि भेज सकता है और पूछ सकता है कि क्या यह उपांग किसी जानवर या इंसान का है। यदि डेटासेट छोटा है तो यह विशेष रूप से उपयोगी है।
 * पूल-आधारित नमूनाकरण: इस परिदृश्य में, पूरे डेटा पूल से उदाहरण निकाले जाते हैं और एक आत्मविश्वास स्कोर दिया जाता है, जो इस बात का माप है कि सीखने वाला डेटा को कितनी अच्छी तरह "समझता" है। सिस्टम तब उन उदाहरणों का चयन करता है जिनके लिए वह सबसे कम आश्वस्त है और लेबल के लिए शिक्षक से पूछताछ करता है।
 * स्ट्रीम-आधारित चयनात्मक नमूनाकरण: यहां, प्रत्येक गैर-लेबल किए गए डेटा बिंदु की एक-एक करके जांच की जाती है, जिसमें मशीन अपने क्वेरी पैरामीटर के विरुद्ध प्रत्येक आइटम की सूचनात्मकता का मूल्यांकन करती है। शिक्षार्थी स्वयं निर्णय लेता है कि प्रत्येक डेटापॉइंट के लिए एक लेबल निर्दिष्ट करना है या शिक्षक से पूछताछ करनी है।

क्वेरी रणनीतियाँ
यह निर्धारित करने के लिए कि कौन से डेटा बिंदुओं को लेबल किया जाना चाहिए, एल्गोरिदम को उनके उद्देश्य के आधार पर कई अलग-अलग श्रेणियों में व्यवस्थित किया जा सकता है:

इन श्रेणियों में आने वाले विभिन्न प्रकार के एल्गोरिदम का अध्ययन किया गया है।
 * संतुलन अन्वेषण और शोषण: लेबल करने के लिए उदाहरणों की पसंद को डेटा स्पेस प्रतिनिधित्व पर अन्वेषण और शोषण के बीच एक दुविधा के रूप में देखा जाता है। यह रणनीति सक्रिय सीखने की समस्या को एक प्रासंगिक दस्यु समस्या के रूप में मॉडलिंग करके इस समझौते का प्रबंधन करती है। उदाहरण के लिए, बाउनेफ़ॉफ़ एट अल। एक्टिव थॉम्पसन सैंपलिंग (एटीएस) नामक एक अनुक्रमिक एल्गोरिथ्म का प्रस्ताव करें, जो प्रत्येक दौर में, पूल पर एक नमूना वितरण प्रदान करता है, इस वितरण से एक बिंदु का नमूना लेता है, और इस नमूना बिंदु लेबल के लिए ओरेकल से पूछताछ करता है।
 * अपेक्षित मॉडल परिवर्तन: उन बिंदुओं को लेबल करें जो वर्तमान मॉडल को सबसे अधिक बदल देंगे।
 * अपेक्षित त्रुटि में कमी: उन बिंदुओं को लेबल करें जो मॉडल की सामान्यीकरण त्रुटि को सबसे अधिक कम करेंगे।
 * सक्रिय शिक्षण के लिए घातीय स्नातक अन्वेषण: इस पेपर में, लेखक एक्सपोनेंटियेटेड ग्रेडिएंट (ईजी)-सक्रिय नामक एक अनुक्रमिक एल्गोरिदम का प्रस्ताव करता है जो इष्टतम यादृच्छिक अन्वेषण द्वारा किसी भी सक्रिय शिक्षण एल्गोरिदम में सुधार कर सकता है।
 * यादृच्छिक नमूनाकरण: एक नमूना यादृच्छिक रूप से चुना जाता है। *अनिश्चितता नमूनाकरण: उन बिंदुओं को लेबल करें जिनके लिए वर्तमान मॉडल कम से कम निश्चित है कि सही आउटपुट क्या होना चाहिए।
 * एंट्रॉपी नमूनाकरण: प्रत्येक नमूने पर एन्ट्रॉपी सूत्र का उपयोग किया जाता है, और उच्चतम एन्ट्रॉपी वाला नमूना सबसे कम निश्चित माना जाता है। **मार्जिन नमूनाकरण: दो उच्चतम वर्ग संभावनाओं के बीच सबसे छोटे अंतर वाले नमूने को सबसे अनिश्चित माना जाता है। **सबसे कम आत्मविश्वास वाला नमूनाकरण: सबसे छोटी सर्वोत्तम संभावना वाला नमूना सबसे अनिश्चित माना जाता है। *समिति द्वारा प्रश्न: विभिन्न मॉडलों को वर्तमान लेबल किए गए डेटा पर प्रशिक्षित किया जाता है, और बिना लेबल वाले डेटा के आउटपुट पर वोट किया जाता है; उन बिंदुओं को लेबल करें जिन पर समिति सबसे अधिक असहमत है
 * विभिन्न उप-स्थानों या विभाजनों से पूछताछ करना: जब अंतर्निहित मॉडल पेड़ों का जंगल है, तो पत्ती नोड्स मूल सुविधा (मशीन लर्निंग) के विभाजन (अतिव्यापी) का प्रतिनिधित्व कर सकते हैं। यह लेबलिंग के लिए गैर-अतिव्यापी या न्यूनतम ओवरलैपिंग विभाजन से उदाहरणों का चयन करने की संभावना प्रदान करता है।
 * विचरण में कमी: उन बिंदुओं को लेबल करें जो आउटपुट विचरण को कम करेंगे, जो त्रुटि के घटकों में से एक है।
 * अनुरूप भविष्यवाणी: भविष्यवाणी करती है कि एक नए डेटा बिंदु में कुछ निर्दिष्ट तरीके से पुराने डेटा बिंदुओं के समान एक लेबल होगा और पुराने उदाहरणों के भीतर समानता की डिग्री का उपयोग भविष्यवाणी में विश्वास का अनुमान लगाने के लिए किया जाता है।
 * बेमेल-पहला सबसे दूर-ट्रैवर्सल: प्राथमिक चयन मानदंड वर्तमान मॉडल और निकटतम-पड़ोसी भविष्यवाणी के बीच भविष्यवाणी बेमेल है। यह गलत पूर्वानुमानित डेटा बिंदुओं को लक्षित करता है। दूसरा चयन मानदंड पहले चयनित डेटा की दूरी है, सबसे दूर वाला पहला। इसका उद्देश्य चयनित डेटा की विविधता को अनुकूलित करना है। *उपयोगकर्ता केंद्रित लेबलिंग रणनीतियाँ: स्कैटर प्लॉट जैसे ग्राफ़ और आंकड़ों में आयामी कमी को लागू करके सीखना पूरा किया जाता है। फिर उपयोगकर्ता को संकलित डेटा (श्रेणीबद्ध, संख्यात्मक, प्रासंगिकता स्कोर, दो उदाहरणों के बीच संबंध) को लेबल करने के लिए कहा जाता है।

न्यूनतम सीमांत हाइपरप्लेन
कुछ सक्रिय शिक्षण एल्गोरिदम समर्थन वेक्टर यंत्र ों (एसवीएम) पर बनाए गए हैं और यह निर्धारित करने के लिए एसवीएम की संरचना का उपयोग करते हैं कि कौन सा डेटा लेबल करना है। ऐसी विधियाँ आमतौर पर मार्जिन (मशीन लर्निंग) की गणना करती हैं, $W$, प्रत्येक बिना लेबल वाले डेटाम का $TU,i$ और इलाज करें $W$ एक के रूप में $n$-उस डेटाम से अलग करने वाले हाइपरप्लेन तक की आयामी दूरी।

न्यूनतम सीमांत हाइपरप्लेन विधियाँ मानती हैं कि डेटा सबसे छोटा है $W$ वे हैं जिनके बारे में एसवीएम सबसे अधिक अनिश्चित है और इसलिए उन्हें इसमें रखा जाना चाहिए $TC,i$ लेबल किया जाना है। अन्य समान विधियाँ, जैसे मैक्सिमम मार्जिनल हाइपरप्लेन, सबसे बड़े डेटा का चयन करती हैं $W$. ट्रेडऑफ़ विधियाँ सबसे छोटे और सबसे बड़े का मिश्रण चुनती हैं $W$एस।

यह भी देखें

 * मशीन लर्निंग अनुसंधान के लिए डेटासेट की सूची

टिप्पणियाँ
[Category:Mach