कॉम्पेटेटिव लर्निंग

कॉम्पेटेटिव लर्निंग आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं। हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर क्लस्टर को खोजने के लिए सूट है।

कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में क्वांटिजेशन और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।

सिद्धांत
कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:
 * कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं।
 * प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है।
 * एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है।

कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।

आर्किटेक्चर और कार्यान्वयन
कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है। प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को $${\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M$$ के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा $${\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d$$ के बीच समानता माप की गणना की जाती है।

प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट $$o_m = 1$$ प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट $$o_i = 0, i = 1,..,M, i \ne m$$ प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत $$\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|$$ का उपयोग इनपुट संचालन $${\mathbf{x}}^n$$ और वेट-संचालन $${\mathbf{w}}_i$$ के बीच किया जाता है।

एल्गोरिथ्म
यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है:

1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है।

2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है।

3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं।

इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं।

यह भी देखें

 * एसेम्बल लर्निंग
 * न्यूरल गैस
 * पांडेमोनियम आर्किटेक्चर

अतिरिक्त जानकारी और सॉफ्टवेयर

 * ड्राफ्ट रिपोर्ट कुछ कॉम्पेटेटिव सीखने के तरीके (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है)
 * DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर

श्रेणी:आर्टिफिशल न्यूरल नेटवर्क श्रेणी:पर्यवेक्षित न किया गया लर्निंग