तंत्रिका गैस

न्यूरल गैस एक कृत्रिम तंत्रिका नेटवर्क है, जो स्व-संगठित मानचित्र से प्रेरित है और 1991 में थॉमस मार्टिनेट्ज़ और क्लॉस शुल्टेन द्वारा पेश किया गया था। फ़ीचर वेक्टर के आधार पर इष्टतम डेटा प्रतिनिधित्व खोजने के लिए न्यूरल गैस एक सरल एल्गोरिदम है। अनुकूलन प्रक्रिया के दौरान फीचर वैक्टर की गतिशीलता के कारण एल्गोरिदम को न्यूरल गैस बनाया गया था, जो डेटा स्पेस के भीतर खुद को गैस की तरह वितरित करता है। इसे वहां लागू किया जाता है जहां डेटा संपीड़न या वेक्टर परिमाणीकरण एक मुद्दा है, उदाहरण के लिए वाक् पहचान, मूर्ति प्रोद्योगिकी या पैटर्न पहचान. k-मतलब क्लस्टरिंग के लिए एक मजबूत अभिसरण विकल्प के रूप में इसका उपयोग क्लस्टर विश्लेषण के लिए भी किया जाता है।

एल्गोरिथम
संभाव्यता वितरण दिया गया है $$P(x)$$ डेटा वैक्टर का $$x$$ और फ़ीचर वैक्टर की एक सीमित संख्या $$w_i, i = 1,\cdots,N$$.

हर समय कदम के साथ $$t$$, एक डेटा वेक्टर $$x$$ बेतरतीब ढंग से चुना गया $$P(x)$$ पेश की जाती हैं। इसके बाद, दिए गए डेटा वेक्टर से फीचर वैक्टर की दूरी का क्रम $$x$$ निर्धारित किया जाता है। होने देना $$i_0$$ निकटतम फ़ीचर वेक्टर के सूचकांक को निरूपित करें, $$i_1$$ दूसरे निकटतम फ़ीचर वेक्टर का सूचकांक, और $$i_{N-1}$$ फ़ीचर वेक्टर का सूचकांक सबसे दूर $$x$$. फिर प्रत्येक फीचर वेक्टर को उसके अनुसार अनुकूलित किया जाता है

$$ w_{i_k}^{t+1} = w_{i_k}^{t} + \varepsilon\cdot e^{-k/\lambda}\cdot (x-w_{i_k}^{t}), k = 0, \cdots, N-1 $$ साथ $$\varepsilon$$ अनुकूलन चरण आकार के रूप में और $$\lambda$$ तथाकथित पड़ोस सीमा के रूप में। $$\varepsilon$$ और $$\lambda$$ बढ़ने के साथ कम हो जाते हैं $$t$$. पर्याप्त रूप से कई अनुकूलन चरणों के बाद फीचर वैक्टर न्यूनतम प्रतिनिधित्व त्रुटि के साथ डेटा स्थान को कवर करते हैं। तंत्रिका गैस के अनुकूलन चरण की व्याख्या हानि फ़ंक्शन पर क्रमिक वंश के रूप में की जा सकती है। (ऑनलाइन) के-मीन्स क्लस्टरिंग की तुलना में, न केवल निकटतम फीचर वेक्टर को अनुकूलित करके, बल्कि बढ़ते दूरी क्रम के साथ घटते चरण आकार के साथ उन सभी को एल्गोरिदम का अधिक मजबूत अभिसरण प्राप्त किया जा सकता है। न्यूरल गैस मॉडल किसी नोड को नहीं हटाता है और नए नोड भी नहीं बनाता है।

वेरिएंट
तंत्रिका गैस एल्गोरिदम के कई प्रकार साहित्य में मौजूद हैं ताकि इसकी कुछ कमियों को कम किया जा सके। अधिक उल्लेखनीय शायद बर्नड फ्रिट्ज़के की बढ़ती हुई तंत्रिका गैस है, लेकिन किसी को आगे के विस्तार जैसे कि ग्रोइंग व्हेन रिक्वायर्ड नेटवर्क का भी उल्लेख करना चाहिए और साथ ही बढ़ती हुई तंत्रिका गैस भी। एक प्रदर्शन-उन्मुख दृष्टिकोण जो ओवरफिटिंग के जोखिम से बचाता है वह प्लास्टिक न्यूरल गैस मॉडल है।

बढ़ती तंत्रिका गैस
फ्रिट्ज़के ने बढ़ती तंत्रिका गैस (जीएनजी) को एक वृद्धिशील नेटवर्क मॉडल के रूप में वर्णित किया है जो हेब्बियन सीखने जैसे सीखने के नियम का उपयोग करके टोपोलॉजिकल संबंधों को सीखता है, केवल, न्यूरल गैस के विपरीत, इसमें कोई पैरामीटर नहीं है जो समय के साथ बदलता है और यह निरंतर सीखने में सक्षम है, यानी डेटा स्ट्रीम पर सीखना। जीएनजी का व्यापक रूप से कई डोमेन में उपयोग किया गया है, डेटा को क्रमिक रूप से क्लस्टर करने के लिए अपनी क्षमताओं का प्रदर्शन करना। जीएनजी को दो यादृच्छिक रूप से स्थित नोड्स के साथ प्रारंभ किया गया है जो प्रारंभ में शून्य आयु किनारे से जुड़े हुए हैं और जिनकी त्रुटियां 0 पर सेट हैं। चूंकि जीएनजी इनपुट डेटा क्रमिक रूप से एक-एक करके प्रस्तुत किया जाता है, प्रत्येक पुनरावृत्ति पर निम्नलिखित चरणों का पालन किया जाता है:


 * इसमें वर्तमान इनपुट डेटा के दो निकटतम नोड्स के बीच त्रुटियों (दूरियों) की गणना की जाती है।
 * विजेता नोड (केवल निकटतम) की त्रुटि क्रमशः संचित होती है।
 * विजेता नोड और उसके टोपोलॉजिकल पड़ोसी (एक किनारे से जुड़े हुए) अपनी संबंधित त्रुटियों के विभिन्न अंशों द्वारा वर्तमान इनपुट की ओर बढ़ रहे हैं।
 * विजेता नोड से जुड़े सभी किनारों की आयु बढ़ा दी गई है।
 * यदि विजेता नोड और दूसरा-विजेता एक किनारे से जुड़े हुए हैं, तो ऐसा किनारा 0 पर सेट है। अन्यथा, उनके बीच एक किनारा बन जाता है।
 * यदि सीमा से अधिक उम्र वाले किनारे हैं, तो उन्हें हटा दिया जाता है। बिना कनेक्शन वाले नोड्स हटा दिए जाते हैं।
 * यदि वर्तमान पुनरावृत्ति पूर्वनिर्धारित आवृत्ति-निर्माण सीमा का एक पूर्णांक गुणक है, तो सबसे बड़ी त्रुटि वाले नोड (सभी के बीच) और उसके टोपोलॉजिकल पड़ोसी के बीच एक नया नोड डाला जाता है जो उच्चतम त्रुटि पेश करता है। पहले और बाद वाले नोड्स के बीच का लिंक समाप्त हो जाता है (किसी दिए गए कारक से उनकी त्रुटियां कम हो जाती हैं) और नया नोड उन दोनों से जुड़ जाता है। नए नोड की त्रुटि को उस नोड की अद्यतन त्रुटि के रूप में आरंभ किया गया है जिसमें सबसे बड़ी त्रुटि थी (सभी के बीच)।
 * सभी नोड्स की संचित त्रुटि किसी दिए गए कारक से कम हो जाती है।
 * यदि रोकने की कसौटी पूरी नहीं होती है, तो एल्गोरिदम निम्नलिखित इनपुट लेता है। मानदंड युगों की दी गई संख्या हो सकती है, यानी, सभी डेटा प्रस्तुत किए जाने की पूर्व-निर्धारित संख्या, या अधिकतम संख्या में नोड्स की पहुंच।

वृद्धिशील बढ़ती तंत्रिका गैस
जीएनजी एल्गोरिथ्म में प्रेरित एक अन्य तंत्रिका गैस संस्करण वृद्धिशील बढ़ती तंत्रिका गैस (आईजीएनजी) है। लेखक इस एल्गोरिदम का मुख्य लाभ पहले से प्रशिक्षित नेटवर्क को ख़राब किए बिना और पुराने इनपुट डेटा (स्थिरता) को भूले बिना नया डेटा (प्लास्टिसिटी) सीखना प्रस्तावित करते हैं।

आवश्यकता पड़ने पर बढ़ना
नोड्स के बढ़ते सेट के साथ एक नेटवर्क होने से, जैसे कि जीएनजी एल्गोरिदम द्वारा कार्यान्वित एक बड़े लाभ के रूप में देखा गया था, हालांकि पैरामीटर λ की शुरूआत से सीखने पर कुछ सीमाएं देखी गईं, जिसमें नेटवर्क केवल तभी बढ़ने में सक्षम होगा जब पुनरावृत्तियां इस पैरामीटर के एकाधिक थीं। इस समस्या को कम करने का प्रस्ताव एक नया एल्गोरिदम, ग्रोइंग व्हेन रिक्वायर्ड नेटवर्क (जीडब्ल्यूआर) था, जो जब भी नेटवर्क को पता चलता कि मौजूदा नोड्स इनपुट का अच्छी तरह से वर्णन नहीं करेंगे, तो जितनी जल्दी हो सके नोड्स जोड़कर नेटवर्क अधिक तेज़ी से बढ़ेगा।

प्लास्टिक तंत्रिका गैस
केवल नेटवर्क विकसित करने की क्षमता शीघ्रता से ओवरफिटिंग का परिचय दे सकती है; दूसरी ओर, केवल उम्र के आधार पर नोड्स को हटाना, जैसा कि जीएनजी मॉडल में है, यह सुनिश्चित नहीं करता है कि हटाए गए नोड्स वास्तव में बेकार हैं, क्योंकि निष्कासन एक मॉडल पैरामीटर पर निर्भर करता है जिसे इनपुट डेटा की स्ट्रीम की मेमोरी लंबाई के अनुसार सावधानीपूर्वक ट्यून किया जाना चाहिए।

प्लास्टिक न्यूरल गैस मॉडल क्रॉस-वैलिडेशन के एक अनपर्यवेक्षित संस्करण का उपयोग करके नोड्स को जोड़ने या हटाने का निर्णय लेकर इस समस्या को हल किया जाता है, जो अनपर्यवेक्षित सेटिंग के लिए सामान्यीकरण क्षमता की समकक्ष धारणा को नियंत्रित करता है।

जबकि केवल बढ़ने के तरीके केवल वृद्धिशील सीखने के परिदृश्य को पूरा करते हैं, बढ़ने और सिकुड़ने की क्षमता अधिक सामान्य स्ट्रीमिंग डेटा समस्या के लिए उपयुक्त है।

कार्यान्वयन
रैंकिंग जानने के लिए $$i_0, i_1, \ldots, i_{N-1}$$ फीचर वैक्टर में, न्यूरल गैस एल्गोरिदम में सॉर्टिंग शामिल है, जो एक ऐसी प्रक्रिया है जो एनालॉग हार्डवेयर में समानांतरकरण या कार्यान्वयन के लिए आसानी से उधार नहीं देती है। हालाँकि, दोनों समानांतर सॉफ़्टवेयर में कार्यान्वयन और एनालॉग हार्डवेयर वास्तव में डिज़ाइन किए गए थे।

अग्रिम पठन

 * T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.

बाहरी संबंध

 * DemoGNG.js Javascript simulator for Neural Gas (and other network models)
 * Java Competitive Learning Applications Unsupervised Neural Networks (including Self-organizing map) in Java with source codes.
 * formal description of Neural gas algorithm
 * A GNG and GWR Classifier implementation in Matlab