कॉम्पेटेटिव लर्निंग

प्रतिस्पर्धी शिक्षण कृत्रिम तंत्रिका नेटवर्क में बिना पर्यवेक्षित शिक्षण का एक रूप है, जिसमें नोड्स इनपुट डेटा के सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करते हैं। हेब्बियन शिक्षण का एक प्रकार, प्रतिस्पर्धी शिक्षण नेटवर्क में प्रत्येक नोड की विशेषज्ञता को बढ़ाकर काम करता है। यह डेटा के भीतर क्लस्टर विश्लेषण खोजने के लिए उपयुक्त है।

प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में वेक्टर परिमाणीकरण और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) शामिल हैं।

सिद्धांत
प्रतिस्पर्धी शिक्षण नियम के तीन बुनियादी तत्व हैं:
 * न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं
 * प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा
 * एक तंत्र जो न्यूरॉन्स को इनपुट के दिए गए सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करने की अनुमति देता है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (या प्रति समूह केवल एक न्यूरॉन), सक्रिय (यानी चालू) होता है। प्रतियोगिता जीतने वाले न्यूरॉन को विनर-टेक-ऑल (कंप्यूटिंग) कहा जाता है| विनर-टेक-ऑल न्यूरॉन।

तदनुसार, नेटवर्क के व्यक्तिगत न्यूरॉन्स समान पैटर्न के संयोजन पर विशेषज्ञ बनना सीखते हैं और ऐसा करने से वे इनपुट पैटर्न के विभिन्न वर्गों के लिए 'फीचर डिटेक्टर' बन जाते हैं।

तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।

वास्तुकला और कार्यान्वयन
प्रतिस्पर्धी शिक्षण आमतौर पर तंत्रिका नेटवर्क के साथ कार्यान्वित किया जाता है जिसमें एक छिपी हुई परत होती है जिसे आमतौर पर "प्रतिस्पर्धी परत" के रूप में जाना जाता है। प्रत्येक प्रतिस्पर्धी न्यूरॉन का वर्णन भार के वेक्टर द्वारा किया जाता है $${\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M$$ और इनपुट डेटा के बीच समानता माप की गणना करता है $${\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d$$ और वजन वेक्टर $${\mathbf{w}}_i$$.

प्रत्येक इनपुट वेक्टर के लिए, प्रतिस्पर्धी न्यूरॉन्स एक दूसरे के साथ "प्रतिस्पर्धा" करते हैं यह देखने के लिए कि उनमें से कौन सा उस विशेष इनपुट वेक्टर के सबसे समान है। विजेता न्यूरॉन एम अपना आउटपुट सेट करता है $$o_m = 1$$ और अन्य सभी प्रतिस्पर्धी न्यूरॉन्स अपना आउटपुट निर्धारित करते हैं $$o_i = 0, i = 1,..,M, i \ne m$$.

आमतौर पर, समानता मापने के लिए यूक्लिडियन दूरी के व्युत्क्रम का उपयोग किया जाता है: $$\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|$$ इनपुट वेक्टर के बीच $${\mathbf{x}}^n$$ और वजन वेक्टर $${\mathbf{w}}_i$$.

उदाहरण एल्गोरिथ्म
यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल प्रतिस्पर्धी शिक्षण एल्गोरिदम है।

1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है।

2. जब नेट पर एक इनपुट दिखाया जाता है, तो उच्चतम आउटपुट वाला नोड विजेता माना जाता है। इनपुट को उस नोड के अनुरूप क्लस्टर के भीतर वर्गीकृत किया गया है।

3. विजेता अपने प्रत्येक वजन को अपडेट करता है, वजन को उन कनेक्शनों से स्थानांतरित करता है जो उसे कमजोर सिग्नल देते हैं जो उसे मजबूत सिग्नल देते हैं।

इस प्रकार, जैसे-जैसे अधिक डेटा प्राप्त होता है, प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित होता है जिसका वह प्रतिनिधित्व करता है और इस क्लस्टर में इनपुट के लिए अधिक मजबूती से सक्रिय होता है और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर रूप से सक्रिय होता है।

यह भी देखें

 * सामूहिक शिक्षा
 * तंत्रिका गैस
 * विप्लव वास्तुकला

अतिरिक्त जानकारी और सॉफ्टवेयर

 * ड्राफ्ट रिपोर्ट कुछ प्रतिस्पर्धी सीखने के तरीके (इसमें कई संबंधित एल्गोरिदम का विवरण शामिल है)
 * DemoGNG - प्रतिस्पर्धी शिक्षण विधियों के लिए जावा सिम्युलेटर

श्रेणी:कृत्रिम तंत्रिका नेटवर्क श्रेणी:पर्यवेक्षित न किया गया शिक्षण