तंत्रिका गैस: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Artificial neural network}} {{distinguish|Nerve gas}} <!--{{dated prod|concern = WP:N WP:V, orphan, WP:COI|month = June|day = 10|year = 2010|ti...")
 
(TEXT)
Line 1: Line 1:
{{short description|Artificial neural network}}
{{short description|Artificial neural network}}
{{distinguish|Nerve gas}}
{{distinguish|तंत्रिका गैस}}
<!--{{dated prod|concern = [[WP:N]] [[WP:V]], orphan, [[WP:COI]]|month = June|day = 10|year = 2010|time = 07:55|timestamp = 20100610075531}}-->
 
<!-- Do not use the "dated prod" template directly; the above line is generated by "subst:prod|reason" -->
'''तंत्रिका गैस''' एक [[कृत्रिम तंत्रिका नेटवर्क]] है, जो [[स्व-संगठित मानचित्र]] से प्रेरित है और 1991 में [[थॉमस मार्टिनेट्ज़]] और [[क्लॉस शुल्टेन]] द्वारा प्रस्तावित किया गया था।<ref>{{cite conference
न्यूरल गैस एक [[कृत्रिम तंत्रिका नेटवर्क]] है, जो [[स्व-संगठित मानचित्र]] से प्रेरित है और 1991 में [[थॉमस मार्टिनेट्ज़]] और [[क्लॉस शुल्टेन]] द्वारा पेश किया गया था।<ref>{{cite conference
|title=A "neural gas" network learns topologies
|title=A "neural gas" network learns topologies
|book-title=Artificial Neural Networks
|book-title=Artificial Neural Networks
Line 11: Line 10:
|pages=397–402
|pages=397–402
|url=http://www.ks.uiuc.edu/Publications/Papers/PDF/MART91B/MART91B.pdf
|url=http://www.ks.uiuc.edu/Publications/Papers/PDF/MART91B/MART91B.pdf
}}</ref> [[फ़ीचर वेक्टर]] के आधार पर इष्टतम डेटा प्रतिनिधित्व खोजने के लिए न्यूरल गैस एक सरल एल्गोरिदम है। अनुकूलन प्रक्रिया के दौरान फीचर वैक्टर की गतिशीलता के कारण एल्गोरिदम को न्यूरल गैस बनाया गया था, जो डेटा स्पेस के भीतर खुद को गैस की तरह वितरित करता है। इसे वहां लागू किया जाता है जहां डेटा संपीड़न या [[वेक्टर परिमाणीकरण]] एक मुद्दा है, उदाहरण के लिए [[वाक् पहचान]],<ref>{{cite conference
}}</ref> [[फ़ीचर वेक्टर|फ़ीचर सदिश]] के आधार पर इष्टतम डेटा प्रतिनिधित्व खोजने के लिए तंत्रिका गैस एक सरल एल्गोरिदम है। अनुकूलन प्रक्रिया के समय विशेष सदिश की गतिशीलता के कारण एल्गोरिदम को <nowiki>''तंत्रिका गैस''</nowiki> नाम दिया गया था, जो डेटा समष्टि के अंतर्गत स्वयं को गैस की तरह वितरित करता है। इसे वहां उपयोजित किया जाता है जहां डेटा संपीड़न या [[वेक्टर परिमाणीकरण|सदिश परिमाणीकरण]] एक विषय है, उदाहरण के लिए [[वाक् पहचान|वाक अभिज्ञान]],<ref>{{cite conference
|url=https://books.google.com/books?id=nJKLv5eheZoC&q=%22neural+gas%22+speech+recognition&pg=PA109
|url=https://books.google.com/books?id=nJKLv5eheZoC&q=%22neural+gas%22+speech+recognition&pg=PA109
|title=Competitive learning methods for efficient Vector Quantizations in a speech recognition environment
|title=Competitive learning methods for efficient Vector Quantizations in a speech recognition environment
Line 20: Line 19:
|editor1=Osvaldo Cairó |editor2=L. Enrique Sucar |editor3=Francisco J. Cantú-Ortiz
|editor1=Osvaldo Cairó |editor2=L. Enrique Sucar |editor3=Francisco J. Cantú-Ortiz
|publisher=Springer
|publisher=Springer
|year=2000}}</ref> [[मूर्ति प्रोद्योगिकी]]<ref>{{Cite conference
|year=2000}}</ref> [[मूर्ति प्रोद्योगिकी|प्रतिबिंब संसाधन]]<ref>{{Cite conference
|chapter-url=https://books.google.com/books?id=xI0g7vqVkdoC&q=%22neural+gas%22+image+processing&pg=PA210
|chapter-url=https://books.google.com/books?id=xI0g7vqVkdoC&q=%22neural+gas%22+image+processing&pg=PA210
|chapter=Automatic landmarking of 2D medical shapes using the growing neural gas network
|chapter=Automatic landmarking of 2D medical shapes using the growing neural gas network
Line 33: Line 32:
|doi=10.1007/11569541_22
|doi=10.1007/11569541_22
|isbn=978-3-540-29411-5
|isbn=978-3-540-29411-5
|page=210}}</ref> या पैटर्न पहचान. [[ k-मतलब क्लस्टरिंग ]] के लिए एक मजबूत अभिसरण विकल्प के रूप में इसका उपयोग [[क्लस्टर विश्लेषण]] के लिए भी किया जाता है।<ref>{{cite conference
|page=210}}</ref> या प्रतिरूप अभिज्ञान है।[[ k-मतलब क्लस्टरिंग | k-अर्थ गुच्छन]] के लिए एक मजबूत अभिसरण विकल्प के रूप में इसका उपयोग [[क्लस्टर विश्लेषण|गुच्छ विश्लेषण]] के लिए भी किया जाता है।<ref>{{cite conference
|chapter-url=https://books.google.com/books?id=JMQk1HJmhv0C&q=%22neural+gas%22+cluster+analysis&pg=PA684
|chapter-url=https://books.google.com/books?id=JMQk1HJmhv0C&q=%22neural+gas%22+cluster+analysis&pg=PA684
|chapter=Modification of the growing neural gas algorithm for cluster analysis
|chapter=Modification of the growing neural gas algorithm for cluster analysis
Line 48: Line 47:
|isbn=978-3-540-76724-4|doi-access=free
|isbn=978-3-540-76724-4|doi-access=free
}}</ref>
}}</ref>
== एल्गोरिथम ==
== एल्गोरिथम ==
संभाव्यता वितरण दिया गया है <math>P(x)</math> डेटा वैक्टर का <math>x</math> और फ़ीचर वैक्टर की एक सीमित संख्या <math>w_i,
डेटा सदिश <math>x</math> का संभाव्यता वितरण <math>P(x)</math> और फ़ीचर सदिश <math>w_i,
  i = 1,\cdots,N</math>.
  i = 1,\cdots,N</math> की एक सीमित संख्या दी गई है।


हर समय कदम के साथ <math>t</math>, एक डेटा वेक्टर <math>x</math> बेतरतीब ढंग से चुना गया <math>P(x)</math> पेश की जाती हैं। इसके बाद, दिए गए डेटा वेक्टर से फीचर वैक्टर की दूरी का क्रम <math>x</math> निर्धारित किया जाता है। होने देना <math>i_0</math> निकटतम फ़ीचर वेक्टर के सूचकांक को निरूपित करें, <math>i_1</math> दूसरे निकटतम फ़ीचर वेक्टर का सूचकांक, और <math>i_{N-1}</math> फ़ीचर वेक्टर का सूचकांक सबसे दूर <math>x</math>. फिर प्रत्येक फीचर वेक्टर को उसके अनुसार अनुकूलित किया जाता है
प्रत्येक समय <math>t</math> के साथ, <math>P(x)</math> से यादृच्छिक रूप से चयन किया गया एक डेटा सदिश <math>x</math> प्रस्तुत किया जाता है। इसके बाद, डेटा सदिश <math>x</math> से विशेष सदिश की दूरी का क्रम निर्धारित किया जाता है। मान लीजिए कि <math>i_0</math> निकटतम फ़ीचर सदिश के सूचकांक को दर्शाता है, <math>i_1</math> दूसरे निकटतम फ़ीचर सदिश के सूचकांक को दर्शाता है, और <math>i_{N-1}</math> <math>x</math> से सबसे दूर के फ़ीचर सदिश के सूचकांक को दर्शाता है। फिर प्रत्येक फीचर सदिश को उसके अनुसार अनुकूलित किया जाता है


<math display="block"> w_{i_k}^{t+1} = w_{i_k}^{t} + \varepsilon\cdot  e^{-k/\lambda}\cdot (x-w_{i_k}^{t}), k = 0, \cdots, N-1 </math>
<math display="block"> w_{i_k}^{t+1} = w_{i_k}^{t} + \varepsilon\cdot  e^{-k/\lambda}\cdot (x-w_{i_k}^{t}), k = 0, \cdots, N-1 </math>
साथ <math>\varepsilon</math> अनुकूलन चरण आकार के रूप में और <math>\lambda</math> तथाकथित पड़ोस सीमा के रूप में। <math>\varepsilon</math> और <math>\lambda</math> बढ़ने के साथ कम हो जाते हैं <math>t</math>. पर्याप्त रूप से कई अनुकूलन चरणों के बाद फीचर वैक्टर न्यूनतम प्रतिनिधित्व त्रुटि के साथ डेटा स्थान को कवर करते हैं।<ref>http://wwwold.ini.rub.de/VDM/research/gsn/JavaPaper/img187.gif{{dead link|date=January 2016}}</ref>
अनुकूलन सोपान आकार के रूप में <math>\varepsilon</math> और तथाकथित प्रतिवैस श्रेणी के रूप में <math>\lambda</math> के साथ है। <math>t</math> बढ़ने के साथ <math>\varepsilon</math> और <math>\lambda</math> कम हो जाते हैं। पर्याप्त रूप से कई अनुकूलन सोपान के बाद विशेष सदिश न्यूनतम प्रतिनिधित्व त्रुटि के साथ डेटा समष्टि को आवरण करते हैं।<ref>http://wwwold.ini.rub.de/VDM/research/gsn/JavaPaper/img187.gif{{dead link|date=January 2016}}</ref>
तंत्रिका गैस के अनुकूलन चरण की व्याख्या हानि फ़ंक्शन पर क्रमिक वंश के रूप में की जा सकती है। (ऑनलाइन) के-मीन्स क्लस्टरिंग की तुलना में, न केवल निकटतम फीचर वेक्टर को अनुकूलित करके, बल्कि बढ़ते दूरी क्रम के साथ घटते चरण आकार के साथ उन सभी को एल्गोरिदम का अधिक मजबूत अभिसरण प्राप्त किया जा सकता है। न्यूरल गैस मॉडल किसी नोड को नहीं हटाता है और नए नोड भी नहीं बनाता है।
 
== वेरिएंट ==
तंत्रिका गैस एल्गोरिदम के कई प्रकार साहित्य में मौजूद हैं ताकि इसकी कुछ कमियों को कम किया जा सके। अधिक उल्लेखनीय शायद बर्नड फ्रिट्ज़के की बढ़ती हुई तंत्रिका गैस है,<ref name=":0">{{cite journal|last1=Fritzke|first1=Bernd|title=एक बढ़ता हुआ न्यूरल गैस नेटवर्क टोपोलॉजी सीखता है|journal=Advances in Neural Information Processing Systems|date=1995|volume=7|pages=625–632|url=https://www.cs.swarthmore.edu/~meeden/DevelopmentalRobotics/fritzke95.ps|access-date=2016-04-26}}</ref> लेकिन किसी को आगे के विस्तार जैसे कि ग्रोइंग व्हेन रिक्वायर्ड नेटवर्क का भी उल्लेख करना चाहिए<ref name=":1">{{cite journal |last1=Marsland|first1=Stephen|last2=Shapiro|first2=Jonathan|last3=Nehmzow|first3=Ulrich|title=एक स्व-संगठित नेटवर्क जो आवश्यकता पड़ने पर बढ़ता है|journal=Neural Networks |date=2002 |volume=15 |issue=8 |pages=1041–1058 |doi=10.1016/s0893-6080(02)00078-3 |pmid=12416693|citeseerx=10.1.1.14.8763}}</ref> और साथ ही बढ़ती हुई तंत्रिका गैस भी।<ref name=":2">{{cite book|last1=Prudent|first1=Yann|last2=Ennaji|first2=Abdellatif|title=Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005 |chapter=An incremental growing neural gas learns topologies |date=2005|volume=2|pages=1211–1216|doi=10.1109/IJCNN.2005.1556026|isbn=978-0-7803-9048-5|s2cid=41517545}}</ref> एक प्रदर्शन-उन्मुख दृष्टिकोण जो ओवरफिटिंग के जोखिम से बचाता है वह प्लास्टिक न्यूरल गैस मॉडल है।<ref name="pgas">{{cite journal |last1=Ridella |first1=Sandro |last2=Rovetta |first2=Stefano |last3=Zunino |first3=Rodolfo |title=अनुकूली वेक्टर परिमाणीकरण के लिए प्लास्टिक एल्गोरिदम|journal=Neural Computing & Applications |doi=10.1007/BF01413708 |date=1998|volume=7|pages=37–51|s2cid=1184174 }}</ref>


तंत्रिका गैस के अनुकूलन सोपान की व्याख्या लागत फलन पर क्रमिक अवरोहण के रूप में की जा सकती है। (ऑनलाइन) k-साधन गुच्छन की तुलना में केवल निकटतम नहीं विशेष सदिश को अनुकूलित करके, बल्कि बढ़ते दूरी क्रम के साथ घटते सोपान आकार के साथ उन सभी को एल्गोरिदम का अधिक मजबूत अभिसरण प्राप्त किया जा सकता है। तंत्रिका गैस प्रतिरूप किसी नोड को नहीं हटाता है और नए नोड भी नहीं बनाता है।


=== बढ़ती तंत्रिका गैस ===
== परिवर्ती ==
फ्रिट्ज़के ने बढ़ती तंत्रिका गैस (जीएनजी) को एक वृद्धिशील नेटवर्क मॉडल के रूप में वर्णित किया है जो हेब्बियन सीखने जैसे सीखने के नियम का उपयोग करके टोपोलॉजिकल संबंधों को सीखता है,<ref name=":0" />केवल, न्यूरल गैस के विपरीत, इसमें कोई पैरामीटर नहीं है जो समय के साथ बदलता है और यह निरंतर सीखने में सक्षम है, यानी डेटा स्ट्रीम पर सीखना। जीएनजी का व्यापक रूप से कई डोमेन में उपयोग किया गया है,<ref>{{cite journal |last1=Iqbal |first1=Hafsa |last2=Campo |first2=Damian |last3=Baydoun |first3=Mohamad |last4=Marcenaro |first4=Lucio |last5=Martin |first5=David |last6=Regazzoni |first6=Carlo |title=अर्ध-स्वायत्त प्रणालियों में असामान्यता का पता लगाने के लिए क्लस्टरिंग अनुकूलन|journal=St International Workshop on Multimodal Understanding and Learning for Embodied Applications |year=2019 |pages=33–41 |doi=10.1145/3347450.3357657 |isbn=978-1-4503-6918-3 |doi-access=free }}</ref> डेटा को क्रमिक रूप से क्लस्टर करने के लिए अपनी क्षमताओं का प्रदर्शन करना। जीएनजी को दो यादृच्छिक रूप से स्थित नोड्स के साथ प्रारंभ किया गया है जो प्रारंभ में शून्य आयु किनारे से जुड़े हुए हैं और जिनकी त्रुटियां 0 पर सेट हैं। चूंकि जीएनजी इनपुट डेटा क्रमिक रूप से एक-एक करके प्रस्तुत किया जाता है, प्रत्येक पुनरावृत्ति पर निम्नलिखित चरणों का पालन किया जाता है:
तंत्रिका गैस एल्गोरिदम के कई प्रकार साहित्य में उपस्थित हैं ताकि इसकी कुछ कमियों को कम किया जा सके। अधिक उल्लेखनीय संभवतः बर्नड फ्रिट्ज़के की बढ़ती हुई तंत्रिका गैस है,<ref name=":0">{{cite journal|last1=Fritzke|first1=Bernd|title=एक बढ़ता हुआ न्यूरल गैस नेटवर्क टोपोलॉजी सीखता है|journal=Advances in Neural Information Processing Systems|date=1995|volume=7|pages=625–632|url=https://www.cs.swarthmore.edu/~meeden/DevelopmentalRobotics/fritzke95.ps|access-date=2016-04-26}}</ref> लेकिन किसी को आगे के विस्तार जैसे कि आवश्यकता पड़ने पर नेटवर्क विकसित<ref name=":1">{{cite journal |last1=Marsland|first1=Stephen|last2=Shapiro|first2=Jonathan|last3=Nehmzow|first3=Ulrich|title=एक स्व-संगठित नेटवर्क जो आवश्यकता पड़ने पर बढ़ता है|journal=Neural Networks |date=2002 |volume=15 |issue=8 |pages=1041–1058 |doi=10.1016/s0893-6080(02)00078-3 |pmid=12416693|citeseerx=10.1.1.14.8763}}</ref> और वार्धिक विकसित तंत्रिका गैस का भी उल्लेख करना चाहिए।<ref name=":2">{{cite book|last1=Prudent|first1=Yann|last2=Ennaji|first2=Abdellatif|title=Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005 |chapter=An incremental growing neural gas learns topologies |date=2005|volume=2|pages=1211–1216|doi=10.1109/IJCNN.2005.1556026|isbn=978-0-7803-9048-5|s2cid=41517545}}</ref> एक प्रदर्शन-उन्मुख दृष्टिकोण जो ओवरफिटिंग के जोखिम से बचाता है वह प्लास्टिक तंत्रिका गैस प्रतिरूप है।<ref name="pgas">{{cite journal |last1=Ridella |first1=Sandro |last2=Rovetta |first2=Stefano |last3=Zunino |first3=Rodolfo |title=अनुकूली वेक्टर परिमाणीकरण के लिए प्लास्टिक एल्गोरिदम|journal=Neural Computing & Applications |doi=10.1007/BF01413708 |date=1998|volume=7|pages=37–51|s2cid=1184174 }}</ref>
=== प्रगतिशील तंत्रिका गैस ===
फ्रिट्ज़के ने बढ़ती तंत्रिका गैस (जीएनजी) को एक वार्धिक नेटवर्क प्रतिरूप के रूप में वर्णित किया है जो "हेब्ब-जैसे सीखने के नियम" का उपयोग करके सांस्थितिक संबंधों को सीखता है,<ref name=":0" />केवल, तंत्रिका गैस के विपरीत, इसमें कोई पैरामीटर नहीं है जो समय के साथ बदलता है और यह संतत सीखने में सक्षम है, अर्थात डेटा प्रवाह पर सीखना है। जीएनजी का व्यापक रूप से कई डोमेन में उपयोग किया गया है,<ref>{{cite journal |last1=Iqbal |first1=Hafsa |last2=Campo |first2=Damian |last3=Baydoun |first3=Mohamad |last4=Marcenaro |first4=Lucio |last5=Martin |first5=David |last6=Regazzoni |first6=Carlo |title=अर्ध-स्वायत्त प्रणालियों में असामान्यता का पता लगाने के लिए क्लस्टरिंग अनुकूलन|journal=St International Workshop on Multimodal Understanding and Learning for Embodied Applications |year=2019 |pages=33–41 |doi=10.1145/3347450.3357657 |isbn=978-1-4503-6918-3 |doi-access=free }}</ref> जो डेटा गुच्छन के लिए इसकी क्षमताओं को क्रमिक रूप से प्रदर्शित करता है। जीएनजी को दो यादृच्छिक रूप से स्थित नोड्स के साथ प्रारंभ किया गया है जो प्रारंभ में शून्य आयु कोर से जुड़े हुए हैं और जिनकी त्रुटियां 0 पर समुच्चय हैं। जीएनजी निवेश डेटा को क्रमिक रूप से एक-एक करके प्रस्तुत किया जाता है, प्रत्येक पुनरावृत्ति पर निम्नलिखित सोपान का पालन किया जाता है:


* इसमें वर्तमान इनपुट डेटा के दो निकटतम नोड्स के बीच त्रुटियों (दूरियों) की गणना की जाती है।
* यह वर्तमान निवेश डेटा के दो निकटतम नोड्स के मध्य त्रुटियों (दूरी) की गणना करता है।
* विजेता नोड (केवल निकटतम) की त्रुटि क्रमशः संचित होती है।
* विजेता नोड (केवल निकटतम) की त्रुटि क्रमशः संचित होती है।
* विजेता नोड और उसके टोपोलॉजिकल पड़ोसी (एक किनारे से जुड़े हुए) अपनी संबंधित त्रुटियों के विभिन्न अंशों द्वारा वर्तमान इनपुट की ओर बढ़ रहे हैं।
* विजेता नोड और उसके सांस्थितिक प्रतिवैस (एक कोर से जुड़े हुए) अपनी संबंधित त्रुटियों के विभिन्न भिन्नात्मक द्वारा वर्तमान निवेश की ओर बढ़ रहे हैं।
* विजेता नोड से जुड़े सभी किनारों की आयु बढ़ा दी गई है।
* विजेता नोड से जुड़े सभी कोर की आयु वृद्धि दी गई है।
* यदि विजेता नोड और दूसरा-विजेता एक किनारे से जुड़े हुए हैं, तो ऐसा किनारा 0 पर सेट है। अन्यथा, उनके बीच एक किनारा बन जाता है।
* यदि विजेता नोड और दूसरा-विजेता एक कोर से जुड़े हुए हैं, तो ऐसा किनारा 0 पर समुच्चय है। अन्यथा, उनके मध्य एक कोर बन जाता है।
* यदि सीमा से अधिक उम्र वाले किनारे हैं, तो उन्हें हटा दिया जाता है। बिना कनेक्शन वाले नोड्स हटा दिए जाते हैं।
* यदि श्रेणी से अधिक उम्र वाले कोर हैं, तो उन्हें हटा दिया जाता है। बिना संबंधन वाले नोड्स हटा दिए जाते हैं।
* यदि वर्तमान पुनरावृत्ति पूर्वनिर्धारित आवृत्ति-निर्माण सीमा का एक पूर्णांक गुणक है, तो सबसे बड़ी त्रुटि वाले नोड (सभी के बीच) और उसके टोपोलॉजिकल पड़ोसी के बीच एक नया नोड डाला जाता है जो उच्चतम त्रुटि पेश करता है। पहले और बाद वाले नोड्स के बीच का लिंक समाप्त हो जाता है (किसी दिए गए कारक से उनकी त्रुटियां कम हो जाती हैं) और नया नोड उन दोनों से जुड़ जाता है। नए नोड की त्रुटि को उस नोड की अद्यतन त्रुटि के रूप में आरंभ किया गया है जिसमें सबसे बड़ी त्रुटि थी (सभी के बीच)।
* यदि वर्तमान पुनरावृत्ति पूर्वनिर्धारित आवृत्ति-निर्माण श्रेणी का एक पूर्णांक गुणक है, तो सबसे बड़ी त्रुटि (सभी के मध्य) वाले नोड और उच्चतम त्रुटि प्रस्तावित करने वाले उसके सांस्थितिक प्रतिवैस के मध्य एक नया नोड डाला जाता है। पहले और बाद वाले नोड्स के मध्य का लिंक समाप्त हो जाता है (किसी दिए गए कारक से उनकी त्रुटियां कम हो जाती हैं) और नया नोड उन दोनों से जुड़ जाता है। नए नोड की त्रुटि को उस नोड की अद्यतन त्रुटि के रूप में आरंभ किया गया है जिसमें सबसे बड़ी त्रुटि थी (सभी के मध्य)।
* सभी नोड्स की संचित त्रुटि किसी दिए गए कारक से कम हो जाती है।
* सभी नोड्स की संचित त्रुटि किसी दिए गए कारक से कम हो जाती है।
* यदि रोकने की कसौटी पूरी नहीं होती है, तो एल्गोरिदम निम्नलिखित इनपुट लेता है। मानदंड युगों की दी गई संख्या हो सकती है, यानी, सभी डेटा प्रस्तुत किए जाने की पूर्व-निर्धारित संख्या, या अधिकतम संख्या में नोड्स की पहुंच।
* यदि अवरोधन की मानदंड पूरी नहीं होती है, तो एल्गोरिदम निम्नलिखित निवेश लेता है। मानदंड युगों की दी गई संख्या हो सकती है, अर्थात, सभी डेटा प्रस्तुत किए जाने की पूर्व-निर्धारित संख्या, या अधिकतम संख्या में नोड्स की पहुंच है।
 
=== वृद्धिशील बढ़ती तंत्रिका गैस ===
जीएनजी एल्गोरिथ्म में प्रेरित एक अन्य तंत्रिका गैस संस्करण वृद्धिशील बढ़ती तंत्रिका गैस (आईजीएनजी) है। लेखक इस एल्गोरिदम का मुख्य लाभ पहले से प्रशिक्षित नेटवर्क को ख़राब किए बिना और पुराने इनपुट डेटा (स्थिरता) को भूले बिना नया डेटा (प्लास्टिसिटी) सीखना प्रस्तावित करते हैं।<ref name=":2" />
 


===आवश्यकता पड़ने पर बढ़ना ===
=== वार्धिक प्रगतिशील तंत्रिका गैस ===
नोड्स के बढ़ते सेट के साथ एक नेटवर्क होने से, जैसे कि जीएनजी एल्गोरिदम द्वारा कार्यान्वित एक बड़े लाभ के रूप में देखा गया था, हालांकि पैरामीटर λ की शुरूआत से सीखने पर कुछ सीमाएं देखी गईं, जिसमें नेटवर्क केवल तभी बढ़ने में सक्षम होगा जब पुनरावृत्तियां इस पैरामीटर के एकाधिक थीं।<ref name=":1" />इस समस्या को कम करने का प्रस्ताव एक नया एल्गोरिदम, ग्रोइंग व्हेन रिक्वायर्ड नेटवर्क (जीडब्ल्यूआर) था, जो जब भी नेटवर्क को पता चलता कि मौजूदा नोड्स इनपुट का अच्छी तरह से वर्णन नहीं करेंगे, तो जितनी जल्दी हो सके नोड्स जोड़कर नेटवर्क अधिक तेज़ी से बढ़ेगा।
जीएनजी एल्गोरिथ्म में प्रेरित एक अन्य तंत्रिका गैस संस्करण वार्धिक बढ़ती तंत्रिका गैस (आईजीएनजी) है। लेखक इस एल्गोरिदम का मुख्य लाभ <nowiki>''पहले से प्रशिक्षित नेटवर्क को विकृत किए बिना और पुराने निवेश डेटा (स्थिरता) को भूले बिना नया डेटा (प्लास्टिसिटी) सीखना''</nowiki> प्रस्तावित करते हैं।<ref name=":2" />
===आवश्यकता पड़ने पर प्रगतिशील ===
नोड्स के बढ़ते समुच्चय के साथ एक नेटवर्क होना जैसे कि जीएनजी एल्गोरिदम द्वारा कार्यान्वित एक बड़े लाभ के रूप में देखा गया था, हालांकि पैरामीटर λ की प्रारंभ से सीखने पर कुछ सीमाएँ देखी गईं, जिसमें नेटवर्क केवल तभी बढ़ने में सक्षम होगा जब पुनरावृत्तियां इस पैरामीटर का एक गुणक था।<ref name=":1" />इस समस्या को कम करने का प्रस्ताव एक नया एल्गोरिदम, आवश्यकता पड़ने पर प्रगतिशील नेटवर्क (जीडब्ल्यूआर) था, जब भी नेटवर्क को पता चलता कि उपस्थिता नोड्स निवेश का अच्छी तरह से वर्णन नहीं करेंगे, तो जितनी जल्दी हो सके नोड्स जोड़कर नेटवर्क अधिक तेज़ी से बढ़ता है।


=== प्लास्टिक तंत्रिका गैस ===
=== प्लास्टिक तंत्रिका गैस ===
केवल नेटवर्क विकसित करने की क्षमता शीघ्रता से ओवरफिटिंग का परिचय दे सकती है; दूसरी ओर, केवल उम्र के आधार पर नोड्स को हटाना, जैसा कि जीएनजी मॉडल में है, यह सुनिश्चित नहीं करता है कि हटाए गए नोड्स वास्तव में बेकार हैं, क्योंकि निष्कासन एक मॉडल पैरामीटर पर निर्भर करता है जिसे इनपुट डेटा की स्ट्रीम की मेमोरी लंबाई के अनुसार सावधानीपूर्वक ट्यून किया जाना चाहिए।
नेटवर्क विकसित करने की क्षमता शीघ्रता से ओवरफिटिंग का परिचय दे सकती है; दूसरी ओर, केवल उम्र के आधार पर नोड्स को हटाना, जैसा कि जीएनजी प्रतिरूप में होता है, यह सुनिश्चित नहीं करता है कि हटाए गए नोड्स वास्तव में व्यर्थ हैं, क्योंकि स्थानांतरण एक प्रतिरूप पैरामीटर पर निर्भर करता है जिसे निवेश डेटा की स्ट्रीम की <nowiki>''</nowiki>मेमोरी विस्तार<nowiki>''</nowiki> के अनुसार सावधानीपूर्वक ट्यून किया जाना चाहिए।


प्लास्टिक न्यूरल गैस मॉडल<ref name="pgas" />क्रॉस-वैलिडेशन के एक अनपर्यवेक्षित संस्करण का उपयोग करके नोड्स को जोड़ने या हटाने का निर्णय लेकर इस समस्या को हल किया जाता है, जो अनपर्यवेक्षित सेटिंग के लिए सामान्यीकरण क्षमता की समकक्ष धारणा को नियंत्रित करता है।
<nowiki>''प्लास्टिक तंत्रिका गैस''</nowiki> प्रतिरूप<ref name="pgas" />अंतः वैधीकरण के एक अनिरीक्षित संस्करण का उपयोग करके नोड्स को जोड़ने या हटाने का निर्णय लेकर इस समस्या को समाधान किया जाता है, जो अनिरीक्षित विन्यास के लिए <nowiki>''सामान्यीकरण क्षमता''</nowiki> की समतुल्य धारणा को नियंत्रित करता है।


जबकि केवल बढ़ने के तरीके केवल वृद्धिशील सीखने के परिदृश्य को पूरा करते हैं, बढ़ने और सिकुड़ने की क्षमता अधिक सामान्य [[स्ट्रीमिंग डेटा]] समस्या के लिए उपयुक्त है।
जबकि केवल बढ़ने के प्रकार केवल वार्धिक सीखने के परिदृश्य को पूरा करते हैं, बढ़ने और संकुच की क्षमता अधिक सामान्य [[स्ट्रीमिंग डेटा]] समस्या के लिए उपयुक्त है।


== कार्यान्वयन ==
== कार्यान्वयन ==


रैंकिंग जानने के लिए <math>i_0, i_1, \ldots, i_{N-1}</math> फीचर वैक्टर में, न्यूरल गैस एल्गोरिदम में सॉर्टिंग शामिल है, जो एक ऐसी प्रक्रिया है जो एनालॉग हार्डवेयर में समानांतरकरण या कार्यान्वयन के लिए आसानी से उधार नहीं देती है। हालाँकि, दोनों समानांतर सॉफ़्टवेयर में कार्यान्वयन <ref>{{cite book|last1=Ancona |first1=Fabio |last2=Rovetta |first2=Stefano |last3=Zunino |first3=Rodolfo |title=Proceedings of International Conference on Neural Networks (ICNN'96) |chapter=A parallel approach to plastic neural gas |doi=10.1109/ICNN.1996.548878 |date=1996|volume=1 |pages=126–130 |isbn=0-7803-3210-5 |s2cid=61686854 }}</ref> और एनालॉग हार्डवेयर<ref>{{cite book|last1=Ancona |first1=Fabio |last2=Rovetta |first2=Stefano |last3=Zunino |first3=Rodolfo |title=Proceedings of International Conference on Neural Networks (ICNN'97) |chapter=Hardware implementation of the neural gas |doi=10.1109/ICNN.1997.616161 |date=1997|volume=2 |pages=991–994 |isbn=0-7803-4122-8 |s2cid=62480597 }}</ref> वास्तव में डिज़ाइन किए गए थे।
विशेष सदिश की श्रेणीकरण <math>i_0, i_1, \ldots, i_{N-1}</math> को खोजने के लिए, तंत्रिका गैस एल्गोरिदम में वर्गीकरण सम्मिलित है, जो एक ऐसी प्रक्रिया है जो एनालॉग हार्डवेयर में आसानी से समानांतरीकरण या कार्यान्वयन के लिए उपयुक्त नहीं है। हालाँकि, समानांतर सॉफ़्टवेयर<ref>{{cite book|last1=Ancona |first1=Fabio |last2=Rovetta |first2=Stefano |last3=Zunino |first3=Rodolfo |title=Proceedings of International Conference on Neural Networks (ICNN'96) |chapter=A parallel approach to plastic neural gas |doi=10.1109/ICNN.1996.548878 |date=1996|volume=1 |pages=126–130 |isbn=0-7803-3210-5 |s2cid=61686854 }}</ref> और एनालॉग हार्डवेयर<ref>{{cite book|last1=Ancona |first1=Fabio |last2=Rovetta |first2=Stefano |last3=Zunino |first3=Rodolfo |title=Proceedings of International Conference on Neural Networks (ICNN'97) |chapter=Hardware implementation of the neural gas |doi=10.1109/ICNN.1997.616161 |date=1997|volume=2 |pages=991–994 |isbn=0-7803-4122-8 |s2cid=62480597 }}</ref> दोनों में कार्यान्वयन वास्तव में प्रारुप किए गए थे।


== संदर्भ ==
== संदर्भ ==
{{Reflist}}
{{Reflist}}


== अग्रिम पठन ==
== अग्रिम पठन ==
* T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.
* T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.
* {{cite journal | last1 = Martinetz | first1 = T. | last2 = Schulten | first2 = K. | year = 1994 | title = Topology representing networks | journal = Neural Networks | volume = 7 | issue = 3| pages = 507–522 | doi=10.1016/0893-6080(94)90109-0}}
* {{cite journal | last1 = Martinetz | first1 = T. | last2 = Schulten | first2 = K. | year = 1994 | title = Topology representing networks | journal = Neural Networks | volume = 7 | issue = 3| pages = 507–522 | doi=10.1016/0893-6080(94)90109-0}}


== बाहरी संबंध ==
== बाहरी संबंध ==

Revision as of 23:55, 8 August 2023

तंत्रिका गैस एक कृत्रिम तंत्रिका नेटवर्क है, जो स्व-संगठित मानचित्र से प्रेरित है और 1991 में थॉमस मार्टिनेट्ज़ और क्लॉस शुल्टेन द्वारा प्रस्तावित किया गया था।[1] फ़ीचर सदिश के आधार पर इष्टतम डेटा प्रतिनिधित्व खोजने के लिए तंत्रिका गैस एक सरल एल्गोरिदम है। अनुकूलन प्रक्रिया के समय विशेष सदिश की गतिशीलता के कारण एल्गोरिदम को ''तंत्रिका गैस'' नाम दिया गया था, जो डेटा समष्टि के अंतर्गत स्वयं को गैस की तरह वितरित करता है। इसे वहां उपयोजित किया जाता है जहां डेटा संपीड़न या सदिश परिमाणीकरण एक विषय है, उदाहरण के लिए वाक अभिज्ञान,[2] प्रतिबिंब संसाधन[3] या प्रतिरूप अभिज्ञान है। k-अर्थ गुच्छन के लिए एक मजबूत अभिसरण विकल्प के रूप में इसका उपयोग गुच्छ विश्लेषण के लिए भी किया जाता है।[4]

एल्गोरिथम

डेटा सदिश का संभाव्यता वितरण और फ़ीचर सदिश की एक सीमित संख्या दी गई है।

प्रत्येक समय के साथ, से यादृच्छिक रूप से चयन किया गया एक डेटा सदिश प्रस्तुत किया जाता है। इसके बाद, डेटा सदिश से विशेष सदिश की दूरी का क्रम निर्धारित किया जाता है। मान लीजिए कि निकटतम फ़ीचर सदिश के सूचकांक को दर्शाता है, दूसरे निकटतम फ़ीचर सदिश के सूचकांक को दर्शाता है, और से सबसे दूर के फ़ीचर सदिश के सूचकांक को दर्शाता है। फिर प्रत्येक फीचर सदिश को उसके अनुसार अनुकूलित किया जाता है

अनुकूलन सोपान आकार के रूप में और तथाकथित प्रतिवैस श्रेणी के रूप में के साथ है। बढ़ने के साथ और कम हो जाते हैं। पर्याप्त रूप से कई अनुकूलन सोपान के बाद विशेष सदिश न्यूनतम प्रतिनिधित्व त्रुटि के साथ डेटा समष्टि को आवरण करते हैं।[5]

तंत्रिका गैस के अनुकूलन सोपान की व्याख्या लागत फलन पर क्रमिक अवरोहण के रूप में की जा सकती है। (ऑनलाइन) k-साधन गुच्छन की तुलना में केवल निकटतम नहीं विशेष सदिश को अनुकूलित करके, बल्कि बढ़ते दूरी क्रम के साथ घटते सोपान आकार के साथ उन सभी को एल्गोरिदम का अधिक मजबूत अभिसरण प्राप्त किया जा सकता है। तंत्रिका गैस प्रतिरूप किसी नोड को नहीं हटाता है और नए नोड भी नहीं बनाता है।

परिवर्ती

तंत्रिका गैस एल्गोरिदम के कई प्रकार साहित्य में उपस्थित हैं ताकि इसकी कुछ कमियों को कम किया जा सके। अधिक उल्लेखनीय संभवतः बर्नड फ्रिट्ज़के की बढ़ती हुई तंत्रिका गैस है,[6] लेकिन किसी को आगे के विस्तार जैसे कि आवश्यकता पड़ने पर नेटवर्क विकसित[7] और वार्धिक विकसित तंत्रिका गैस का भी उल्लेख करना चाहिए।[8] एक प्रदर्शन-उन्मुख दृष्टिकोण जो ओवरफिटिंग के जोखिम से बचाता है वह प्लास्टिक तंत्रिका गैस प्रतिरूप है।[9]

प्रगतिशील तंत्रिका गैस

फ्रिट्ज़के ने बढ़ती तंत्रिका गैस (जीएनजी) को एक वार्धिक नेटवर्क प्रतिरूप के रूप में वर्णित किया है जो "हेब्ब-जैसे सीखने के नियम" का उपयोग करके सांस्थितिक संबंधों को सीखता है,[6]केवल, तंत्रिका गैस के विपरीत, इसमें कोई पैरामीटर नहीं है जो समय के साथ बदलता है और यह संतत सीखने में सक्षम है, अर्थात डेटा प्रवाह पर सीखना है। जीएनजी का व्यापक रूप से कई डोमेन में उपयोग किया गया है,[10] जो डेटा गुच्छन के लिए इसकी क्षमताओं को क्रमिक रूप से प्रदर्शित करता है। जीएनजी को दो यादृच्छिक रूप से स्थित नोड्स के साथ प्रारंभ किया गया है जो प्रारंभ में शून्य आयु कोर से जुड़े हुए हैं और जिनकी त्रुटियां 0 पर समुच्चय हैं। जीएनजी निवेश डेटा को क्रमिक रूप से एक-एक करके प्रस्तुत किया जाता है, प्रत्येक पुनरावृत्ति पर निम्नलिखित सोपान का पालन किया जाता है:

  • यह वर्तमान निवेश डेटा के दो निकटतम नोड्स के मध्य त्रुटियों (दूरी) की गणना करता है।
  • विजेता नोड (केवल निकटतम) की त्रुटि क्रमशः संचित होती है।
  • विजेता नोड और उसके सांस्थितिक प्रतिवैस (एक कोर से जुड़े हुए) अपनी संबंधित त्रुटियों के विभिन्न भिन्नात्मक द्वारा वर्तमान निवेश की ओर बढ़ रहे हैं।
  • विजेता नोड से जुड़े सभी कोर की आयु वृद्धि दी गई है।
  • यदि विजेता नोड और दूसरा-विजेता एक कोर से जुड़े हुए हैं, तो ऐसा किनारा 0 पर समुच्चय है। अन्यथा, उनके मध्य एक कोर बन जाता है।
  • यदि श्रेणी से अधिक उम्र वाले कोर हैं, तो उन्हें हटा दिया जाता है। बिना संबंधन वाले नोड्स हटा दिए जाते हैं।
  • यदि वर्तमान पुनरावृत्ति पूर्वनिर्धारित आवृत्ति-निर्माण श्रेणी का एक पूर्णांक गुणक है, तो सबसे बड़ी त्रुटि (सभी के मध्य) वाले नोड और उच्चतम त्रुटि प्रस्तावित करने वाले उसके सांस्थितिक प्रतिवैस के मध्य एक नया नोड डाला जाता है। पहले और बाद वाले नोड्स के मध्य का लिंक समाप्त हो जाता है (किसी दिए गए कारक से उनकी त्रुटियां कम हो जाती हैं) और नया नोड उन दोनों से जुड़ जाता है। नए नोड की त्रुटि को उस नोड की अद्यतन त्रुटि के रूप में आरंभ किया गया है जिसमें सबसे बड़ी त्रुटि थी (सभी के मध्य)।
  • सभी नोड्स की संचित त्रुटि किसी दिए गए कारक से कम हो जाती है।
  • यदि अवरोधन की मानदंड पूरी नहीं होती है, तो एल्गोरिदम निम्नलिखित निवेश लेता है। मानदंड युगों की दी गई संख्या हो सकती है, अर्थात, सभी डेटा प्रस्तुत किए जाने की पूर्व-निर्धारित संख्या, या अधिकतम संख्या में नोड्स की पहुंच है।

वार्धिक प्रगतिशील तंत्रिका गैस

जीएनजी एल्गोरिथ्म में प्रेरित एक अन्य तंत्रिका गैस संस्करण वार्धिक बढ़ती तंत्रिका गैस (आईजीएनजी) है। लेखक इस एल्गोरिदम का मुख्य लाभ ''पहले से प्रशिक्षित नेटवर्क को विकृत किए बिना और पुराने निवेश डेटा (स्थिरता) को भूले बिना नया डेटा (प्लास्टिसिटी) सीखना'' प्रस्तावित करते हैं।[8]

आवश्यकता पड़ने पर प्रगतिशील

नोड्स के बढ़ते समुच्चय के साथ एक नेटवर्क होना जैसे कि जीएनजी एल्गोरिदम द्वारा कार्यान्वित एक बड़े लाभ के रूप में देखा गया था, हालांकि पैरामीटर λ की प्रारंभ से सीखने पर कुछ सीमाएँ देखी गईं, जिसमें नेटवर्क केवल तभी बढ़ने में सक्षम होगा जब पुनरावृत्तियां इस पैरामीटर का एक गुणक था।[7]इस समस्या को कम करने का प्रस्ताव एक नया एल्गोरिदम, आवश्यकता पड़ने पर प्रगतिशील नेटवर्क (जीडब्ल्यूआर) था, जब भी नेटवर्क को पता चलता कि उपस्थिता नोड्स निवेश का अच्छी तरह से वर्णन नहीं करेंगे, तो जितनी जल्दी हो सके नोड्स जोड़कर नेटवर्क अधिक तेज़ी से बढ़ता है।

प्लास्टिक तंत्रिका गैस

नेटवर्क विकसित करने की क्षमता शीघ्रता से ओवरफिटिंग का परिचय दे सकती है; दूसरी ओर, केवल उम्र के आधार पर नोड्स को हटाना, जैसा कि जीएनजी प्रतिरूप में होता है, यह सुनिश्चित नहीं करता है कि हटाए गए नोड्स वास्तव में व्यर्थ हैं, क्योंकि स्थानांतरण एक प्रतिरूप पैरामीटर पर निर्भर करता है जिसे निवेश डेटा की स्ट्रीम की ''मेमोरी विस्तार'' के अनुसार सावधानीपूर्वक ट्यून किया जाना चाहिए।

''प्लास्टिक तंत्रिका गैस'' प्रतिरूप[9]अंतः वैधीकरण के एक अनिरीक्षित संस्करण का उपयोग करके नोड्स को जोड़ने या हटाने का निर्णय लेकर इस समस्या को समाधान किया जाता है, जो अनिरीक्षित विन्यास के लिए ''सामान्यीकरण क्षमता'' की समतुल्य धारणा को नियंत्रित करता है।

जबकि केवल बढ़ने के प्रकार केवल वार्धिक सीखने के परिदृश्य को पूरा करते हैं, बढ़ने और संकुच की क्षमता अधिक सामान्य स्ट्रीमिंग डेटा समस्या के लिए उपयुक्त है।

कार्यान्वयन

विशेष सदिश की श्रेणीकरण को खोजने के लिए, तंत्रिका गैस एल्गोरिदम में वर्गीकरण सम्मिलित है, जो एक ऐसी प्रक्रिया है जो एनालॉग हार्डवेयर में आसानी से समानांतरीकरण या कार्यान्वयन के लिए उपयुक्त नहीं है। हालाँकि, समानांतर सॉफ़्टवेयर[11] और एनालॉग हार्डवेयर[12] दोनों में कार्यान्वयन वास्तव में प्रारुप किए गए थे।

संदर्भ

  1. Thomas Martinetz and Klaus Schulten (1991). "A "neural gas" network learns topologies" (PDF). Artificial Neural Networks. Elsevier. pp. 397–402.
  2. F. Curatelli; O. Mayora-Iberra (2000). "Competitive learning methods for efficient Vector Quantizations in a speech recognition environment". In Osvaldo Cairó; L. Enrique Sucar; Francisco J. Cantú-Ortiz (eds.). MICAI 2000: Advances in artificial intelligence : Mexican International Conference on Artificial Intelligence, Acapulco, Mexico, April 2000 : proceedings. Springer. p. 109. ISBN 978-3-540-67354-5.
  3. Angelopoulou, Anastassia; Psarrou, Alexandra; Garcia Rodriguez, Jose; Revett, Kenneth (2005). "Computer Vision for Biomedical Image Applications". In Yanxi Liu; Tianzi Jiang; Changshui Zhang (eds.). Computer vision for biomedical image applications: first international workshop, CVBIA 2005, Beijing, China, October 21, 2005 : proceedings. Lecture Notes in Computer Science. Vol. 3765. Springer. p. 210. doi:10.1007/11569541_22. ISBN 978-3-540-29411-5.
  4. Fernando Canales; Max Chacon (2007). "Progress in Pattern Recognition, Image Analysis and Applications". In Luis Rueda; Domingo Mery (eds.). Progress in pattern recognition, image analysis and applications: 12th Iberoamerican Congress on Pattern Recognition, CIARP 2007, Viña del Mar-Valparaiso, Chile, November 13–16, 2007 ; proceedings. Lecture Notes in Computer Science. Vol. 4756. Springer. pp. 684–693. doi:10.1007/978-3-540-76725-1_71. ISBN 978-3-540-76724-4.
  5. http://wwwold.ini.rub.de/VDM/research/gsn/JavaPaper/img187.gif[dead link]
  6. 6.0 6.1 Fritzke, Bernd (1995). "एक बढ़ता हुआ न्यूरल गैस नेटवर्क टोपोलॉजी सीखता है". Advances in Neural Information Processing Systems. 7: 625–632. Retrieved 2016-04-26.
  7. 7.0 7.1 Marsland, Stephen; Shapiro, Jonathan; Nehmzow, Ulrich (2002). "एक स्व-संगठित नेटवर्क जो आवश्यकता पड़ने पर बढ़ता है". Neural Networks. 15 (8): 1041–1058. CiteSeerX 10.1.1.14.8763. doi:10.1016/s0893-6080(02)00078-3. PMID 12416693.
  8. 8.0 8.1 Prudent, Yann; Ennaji, Abdellatif (2005). "An incremental growing neural gas learns topologies". Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005. Vol. 2. pp. 1211–1216. doi:10.1109/IJCNN.2005.1556026. ISBN 978-0-7803-9048-5. S2CID 41517545.
  9. 9.0 9.1 Ridella, Sandro; Rovetta, Stefano; Zunino, Rodolfo (1998). "अनुकूली वेक्टर परिमाणीकरण के लिए प्लास्टिक एल्गोरिदम". Neural Computing & Applications. 7: 37–51. doi:10.1007/BF01413708. S2CID 1184174.
  10. Iqbal, Hafsa; Campo, Damian; Baydoun, Mohamad; Marcenaro, Lucio; Martin, David; Regazzoni, Carlo (2019). "अर्ध-स्वायत्त प्रणालियों में असामान्यता का पता लगाने के लिए क्लस्टरिंग अनुकूलन". St International Workshop on Multimodal Understanding and Learning for Embodied Applications: 33–41. doi:10.1145/3347450.3357657. ISBN 978-1-4503-6918-3.
  11. Ancona, Fabio; Rovetta, Stefano; Zunino, Rodolfo (1996). "A parallel approach to plastic neural gas". Proceedings of International Conference on Neural Networks (ICNN'96). Vol. 1. pp. 126–130. doi:10.1109/ICNN.1996.548878. ISBN 0-7803-3210-5. S2CID 61686854.
  12. Ancona, Fabio; Rovetta, Stefano; Zunino, Rodolfo (1997). "Hardware implementation of the neural gas". Proceedings of International Conference on Neural Networks (ICNN'97). Vol. 2. pp. 991–994. doi:10.1109/ICNN.1997.616161. ISBN 0-7803-4122-8. S2CID 62480597.

अग्रिम पठन

  • T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.
  • Martinetz, T.; Schulten, K. (1994). "Topology representing networks". Neural Networks. 7 (3): 507–522. doi:10.1016/0893-6080(94)90109-0.

बाहरी संबंध