तंत्रिका गैस

तंत्रिका गैस एक कृत्रिम तंत्रिका नेटवर्क है, जो स्व-संगठित मानचित्र से प्रेरित है और 1991 में थॉमस मार्टिनेट्ज़ और क्लॉस शुल्टेन द्वारा प्रस्तावित किया गया है। फ़ीचर सदिश के आधार पर इष्टतम डेटा प्रतिनिधित्व खोजने के लिए तंत्रिका गैस एक सरल एल्गोरिदम है। अनुकूलन प्रक्रिया के समय विशेष सदिश की गतिशीलता के कारण एल्गोरिदम को तंत्रिका गैस नाम दिया गया था, जो डेटा समष्टि के अंतर्गत स्वयं को गैस की तरह वितरित करता है। इसे वहां उपयोजित किया जाता है जहां डेटा संपीड़न या सदिश परिमाणीकरण एक विषय है, उदाहरण के लिए वाक अभिज्ञान, प्रतिबिंब संसाधन या प्रतिरूप अभिज्ञान है। k-अर्थ गुच्छन के लिए एक मजबूत अभिसरण विकल्प के रूप में इसका उपयोग गुच्छ विश्लेषण के लिए भी किया जाता है।

एल्गोरिथम
डेटा सदिश $$x$$ का संभाव्यता वितरण $$P(x)$$ और फ़ीचर सदिश $$w_i, i = 1,\cdots,N$$ की एक सीमित संख्या दी गई है।

प्रत्येक समय $$t$$ के साथ, $$P(x)$$ से यादृच्छिक रूप से चयन किया गया एक डेटा सदिश $$x$$ प्रस्तुत किया जाता है। इसके बाद, डेटा सदिश $$x$$ से विशेष सदिश की दूरी का क्रम निर्धारित किया जाता है। मान लीजिए कि $$i_0$$ निकटतम फ़ीचर सदिश के सूचकांक को दर्शाता है, $$i_1$$ दूसरे निकटतम फ़ीचर सदिश के सूचकांक को दर्शाता है, और $$i_{N-1}$$ $$x$$ से सबसे दूर के फ़ीचर सदिश के सूचकांक को दर्शाता है। प्रत्येक फीचर सदिश को उसके अनुसार अनुकूलित किया जाता है

$$ w_{i_k}^{t+1} = w_{i_k}^{t} + \varepsilon\cdot e^{-k/\lambda}\cdot (x-w_{i_k}^{t}), k = 0, \cdots, N-1 $$ अनुकूलन सोपान आकार के रूप में $$\varepsilon$$ और तथाकथित प्रतिवैस श्रेणी के रूप में $$\lambda$$ के साथ है। $$t$$ बढ़ने के साथ $$\varepsilon$$ और $$\lambda$$ कम हो जाता हैं। पर्याप्त रूप से कई अनुकूलन सोपान के बाद विशेष सदिश न्यूनतम प्रतिनिधित्व त्रुटि के साथ डेटा समष्टि को आवरण करता हैं।

तंत्रिका गैस के अनुकूलन सोपान की व्याख्या लागत फलन पर क्रमिक अवरोहण के रूप में किया जा सकता है। (ऑनलाइन) k-साधन गुच्छन की तुलना में केवल निकटतम नहीं विशेष सदिश को अनुकूलित करके, बल्कि बढ़ते दूरी क्रम के साथ घटते सोपान आकार के साथ उन सभी को एल्गोरिदम का अधिक मजबूत अभिसरण प्राप्त किया जा सकता है। तंत्रिका गैस प्रतिरूप किसी नोड को नहीं हटाता है और नए नोड भी नहीं बनाता है।

परिवर्ती
तंत्रिका गैस एल्गोरिदम के कई प्रकार साहित्य में उपस्थित हैं ताकि इसकी कुछ कमियों को कम किया जा सके। अधिक उल्लेखनीय संभवतः बर्नड फ्रिट्ज़के की बढ़ती हुई तंत्रिका गैस है, लेकिन किसी को आगे के विस्तार जैसे कि आवश्यकता पड़ने पर नेटवर्क विकसित और वार्धिक विकसित तंत्रिका गैस का भी उल्लेख करना चाहिए। एक प्रदर्शन-उन्मुख दृष्टिकोण जो ओवरफिटिंग के जोखिम से बचाता है वह प्लास्टिक तंत्रिका गैस प्रतिरूप है।

प्रगतिशील तंत्रिका गैस
फ्रिट्ज़के ने बढ़ती तंत्रिका गैस (जीएनजी) को एक वार्धिक नेटवर्क प्रतिरूप के रूप में वर्णित किया है जो "हेब्ब-जैसे सीखने के नियम" का उपयोग करके सांस्थितिक संबंधों को सीखता है, केवल, तंत्रिका गैस के विपरीत, इसमें कोई पैरामीटर नहीं है जो समय के साथ बदलता है और यह संतत सीखने में सक्षम है, अर्थात डेटा प्रवाह पर सीखता है। जीएनजी का व्यापक रूप से कई डोमेन में उपयोग किया गया है, जो डेटा गुच्छन के लिए इसकी क्षमताओं को क्रमिक रूप से प्रदर्शित करता है। जीएनजी को दो यादृच्छिक रूप से स्थित नोड्स के साथ प्रारंभ किया गया है जो प्रारंभ में शून्य आयु कोर से जुड़े हुए हैं और जिनकी त्रुटियां 0 पर समुच्चय हैं। जीएनजी निवेश डेटा को क्रमिक रूप से एक-एक करके प्रस्तुत किया जाता है, प्रत्येक पुनरावृत्ति पर निम्नलिखित सोपान का पालन किया जाता है:


 * यह वर्तमान निवेश डेटा के दो निकटतम नोड्स के मध्य त्रुटियों (दूरी) की गणना करता है।
 * विजेता नोड (केवल निकटतम) की त्रुटि क्रमशः संचित होती है।
 * विजेता नोड और उसके सांस्थितिक प्रतिवैस (एक कोर से जुड़े हुए) अपनी संबंधित त्रुटियों के विभिन्न भिन्नात्मक द्वारा वर्तमान निवेश की ओर बढ़ रहे हैं।
 * विजेता नोड से जुड़े सभी कोर की आयु बढ़ा दी गई है।
 * यदि विजेता नोड और दूसरा-विजेता एक कोर से जुड़े हुए हैं, तो ऐसा कोर 0 पर समुच्चय है। अन्यथा, उनके मध्य एक कोर बन जाता है।
 * यदि श्रेणी से अधिक उम्र वाले कोर हैं, तो उन्हें हटा दिया जाता है। बिना संबंधन वाले नोड्स हटा दिए जाते हैं।
 * यदि वर्तमान पुनरावृत्ति पूर्वनिर्धारित आवृत्ति-निर्माण श्रेणी का एक पूर्णांक गुणक है, तो सबसे बड़ी त्रुटि (सभी के मध्य) वाले नोड और उच्चतम त्रुटि प्रस्तावित करने वाले उसके सांस्थितिक प्रतिवैस के मध्य एक नया नोड डाला जाता है। पहले और बाद वाले नोड्स के मध्य का लिंक समाप्त हो जाता है (किसी दिए गए कारक से उनकी त्रुटियां कम हो जाती हैं) और नया नोड उन दोनों से जुड़ जाता है। नए नोड की त्रुटि को उस नोड की अद्यतन त्रुटि के रूप में आरंभ किया जाता है जिसमें सबसे बड़ी त्रुटि होती है (सभी के मध्य)।
 * सभी नोड्स की संचित त्रुटि किसी दिए गए कारक से कम हो जाती है।
 * यदि अवरोधन की मानदंड पूरी नहीं होती है, तो एल्गोरिदम निम्नलिखित निवेश लेता है। मानदंड युगों की दी गई संख्या हो सकती है, अर्थात, सभी डेटा प्रस्तुत किए जाने की पूर्व-निर्धारित संख्या, या अधिकतम संख्या में नोड्स की पहुंच है।

वार्धिक प्रगतिशील तंत्रिका गैस
जीएनजी एल्गोरिथ्म में प्रेरित एक अन्य तंत्रिका गैस संस्करण वार्धिक बढ़ती तंत्रिका गैस (आईजीएनजी) है। लेखक इस एल्गोरिदम का मुख्य लाभ पहले से प्रशिक्षित नेटवर्क को विकृत किए बिना और पुराने निवेश डेटा (स्थिरता) को भूले बिना नया डेटा (प्लास्टिसिटी) सीखना प्रस्तावित करते हैं।

आवश्यकता पड़ने पर प्रगतिशील
नोड्स के बढ़ते समुच्चय के साथ एक नेटवर्क होना जैसे कि जीएनजी एल्गोरिदम द्वारा कार्यान्वित एक बड़े लाभ के रूप में देखा गया था, हालांकि पैरामीटर λ की प्रारंभ से सीखने पर कुछ सीमाएँ देखी गईं, जिसमें नेटवर्क केवल तभी बढ़ने में सक्षम होगा जब पुनरावृत्तियां इस पैरामीटर का एक गुणक था। इस समस्या को कम करने का प्रस्ताव एक नया एल्गोरिदम, आवश्यकता पड़ने पर प्रगतिशील नेटवर्क (जीडब्ल्यूआर) था, जब भी नेटवर्क को पता चलता हैं कि उपस्थित नोड्स निवेश का अच्छी तरह से वर्णन नहीं करेंगे, तो जितनी जल्दी हो सके नोड्स जोड़कर नेटवर्क अधिक तेज़ी से बढ़ता है।

प्लास्टिक तंत्रिका गैस
नेटवर्क विकसित करने की क्षमता शीघ्रता से ओवरफिटिंग का परिचय देती है; दूसरी ओर, केवल उम्र के आधार पर नोड्स को हटाना, जैसा कि जीएनजी प्रतिरूप में होता है, यह सुनिश्चित नहीं करता है कि हटाए गए नोड्स वास्तव में व्यर्थ हैं, क्योंकि स्थानांतरण एक प्रतिरूप पैरामीटर पर निर्भर करता है जिसे निवेश डेटा की स्ट्रीम  मेमोरी विस्तार  के अनुसार सावधानीपूर्वक ट्यून किया जाना चाहिए।

प्लास्टिक तंत्रिका गैस प्रतिरूप अंतः वैधीकरण के एक अनिरीक्षित संस्करण का उपयोग करके नोड्स को जोड़ने या हटाने का निर्णय लेकर इस समस्या का समाधान किया जाता है, जो अनिरीक्षित विन्यास के लिए सामान्यीकरण क्षमता की समतुल्य धारणा को नियंत्रित करता है।

जबकि केवल बढ़ने के प्रकार केवल वार्धिक सीखने के परिदृश्य को पूरा करते हैं, बढ़ने और संकुच की क्षमता अधिक सामान्य स्ट्रीमिंग डेटा समस्या के लिए उपयुक्त है।

कार्यान्वयन
विशेष सदिश की श्रेणीकरण $$i_0, i_1, \ldots, i_{N-1}$$ को खोजने के लिए, तंत्रिका गैस एल्गोरिदम में वर्गीकरण सम्मिलित है, जो एक ऐसी प्रक्रिया है जो एनालॉग हार्डवेयर में आसानी से समानांतरीकरण या कार्यान्वयन के लिए उपयुक्त नहीं है। हालाँकि, समानांतर सॉफ़्टवेयर और एनालॉग हार्डवेयर दोनों में कार्यान्वयन वास्तव में प्रारुप है।

अग्रिम पठन

 * T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.

बाहरी संबंध

 * DemoGNG.js Javascript simulator for Neural Gas (and other network models)
 * Java Competitive Learning Applications Unsupervised Neural Networks (including Self-organizing map) in Java with source codes.
 * formal description of Neural gas algorithm
 * A GNG and GWR Classifier implementation in Matlab