तंत्रिका विकास: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(3 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Distinguish|Evolution of nervous systems|Neural development|Neural Darwinism}}
{{Distinguish|तंत्रिका तंत्र का विकास|तंत्रिका विकास|तंत्रिका डार्विनवाद}}


न्यूरोइवोल्यूशन, या न्यूरो-इवोल्यूशन, कृत्रिम बुद्धिमत्ता का रूप है जो [[कृत्रिम तंत्रिका नेटवर्क]] (एएनएन), पैरामीटर और नियम उत्पन्न करने के लिए [[विकासवादी एल्गोरिदम]] का उपयोग करता है।<ref>{{Cite news|url=https://www.oreilly.com/ideas/neuroevolution-a-different-kind-of-deep-learning|title=Neuroevolution: A different kind of deep learning|last=Stanley|first=Kenneth O.|date=2017-07-13|work=O'Reilly Media|access-date=2017-09-04|language=en}}</ref> इसका प्रयोग सबसे अधिक [[कृत्रिम जीवन]], सामान्य खेल-कूद में किया जाता है<ref>{{cite journal|last1=Risi |first1=Sebastian|last2=Togelius|first2=Julian |title= Neuroevolution in Games: State of the Art and Open Challenges |journal=IEEE Transactions on Computational Intelligence and AI in Games |volume=9|pages=25–41|year= 2017 |arxiv=1410.7326|doi=10.1109/TCIAIG.2015.2494596|s2cid=11245845}}</ref> और [[विकासवादी रोबोटिक्स]]। मुख्य लाभ यह है कि न्यूरोइवोल्यूशन को पर्यवेक्षित शिक्षण की तुलना में अधिक व्यापक रूप से लागू किया जा सकता है, जिसके लिए सही इनपुट-आउटपुट जोड़े के पाठ्यक्रम की आवश्यकता होती है। इसके विपरीत, न्यूरोइवोल्यूशन को किसी कार्य में नेटवर्क के प्रदर्शन को मापने की आवश्यकता होती है। उदाहरण के लिए, किसी खेल के नतीजे (यानी, चाहे खिलाड़ी जीता या हारा) को वांछित रणनीतियों के लेबल वाले उदाहरण प्रदान किए बिना आसानी से मापा जा सकता है। न्यूरोइवोल्यूशन का उपयोग आमतौर पर सुदृढीकरण सीखने के प्रतिमान के हिस्से के रूप में किया जाता है, और इसकी तुलना पारंपरिक गहन शिक्षण तकनीकों से की जा सकती है जो निश्चित टोपोलॉजी के साथ तंत्रिका नेटवर्क पर [[ ढतला हुआ वंश |ढतला हुआ वंश]] का उपयोग करते हैं।
'''तंत्रिका विकास''' या न्यूरो-इवोल्यूशन, कृत्रिम बुद्धिमत्ता (आर्टिफीशियल इंटीलिजेंस) का ऐसा रूप है, जो [[कृत्रिम तंत्रिका नेटवर्क]] (एएनएन), पैरामीटर और इसके विभिन्न नियमों को उत्पन्न करने के लिए [[विकासवादी एल्गोरिदम|विकासवादी कलन विधि]] का उपयोग करता है।<ref>{{Cite news|url=https://www.oreilly.com/ideas/neuroevolution-a-different-kind-of-deep-learning|title=Neuroevolution: A different kind of deep learning|last=Stanley|first=Kenneth O.|date=2017-07-13|work=O'Reilly Media|access-date=2017-09-04|language=en}}</ref> इसका प्रयोग सबसे अधिक [[कृत्रिम जीवन]], सामान्य खेल-कूद में और इसी के साथ ही [[विकासवादी रोबोटिक्स]] किया जाता है।<ref>{{cite journal|last1=Risi |first1=Sebastian|last2=Togelius|first2=Julian |title= Neuroevolution in Games: State of the Art and Open Challenges |journal=IEEE Transactions on Computational Intelligence and AI in Games |volume=9|pages=25–41|year= 2017 |arxiv=1410.7326|doi=10.1109/TCIAIG.2015.2494596|s2cid=11245845}}</ref> इसका मुख्य लाभ यह है कि तंत्रिका विकास को पर्यवेक्षित शिक्षण की तुलना में अधिक व्यापक रूप से लागू किया जा सकता है, जिसके लिए सही इनपुट-आउटपुट जोड़े के पाठ्यक्रम की आवश्यकता होती है। इसके विपरीत, तंत्रिका विकास को किसी कार्य में नेटवर्क के प्रदर्शन को मापने की आवश्यकता होती है। उदाहरण के लिए, किसी खेल के परिणाम अर्ताथ, चाहे खिलाड़ी जीत रहा हो या हार रहा हो इसके वांछित रणनीतियों के लेबल वाले उदाहरण प्रदान किए बिना सरलता से मापा जा सकता है। इस प्रकार तंत्रिका विकास का उपयोग सामान्यतः सुदृढीकरण सीखने के प्रतिमान के इस भाग के रूप में उपयोग किया जाता है, और इसकी तुलना पारंपरिक गहन शिक्षण तकनीकों से की जा सकती है जो निश्चित टोपोलॉजी के साथ तंत्रिका नेटवर्क पर [[ ढतला हुआ वंश |ढतले हुआ वंशाशैली]] का उपयोग करते हैं।


==सुविधाएँ==
==सुविधाएँ==


कई न्यूरोइवोल्यूशन [[एल्गोरिदम]] को परिभाषित किया गया है। सामान्य अंतर उन एल्गोरिदम के बीच है जो निश्चित नेटवर्क टोपोलॉजी (कभी-कभी पारंपरिक न्यूरोएवोल्यूशन कहा जाता है) के लिए केवल कनेक्शन वेट की ताकत विकसित करते हैं, और एल्गोरिदम जो नेटवर्क की टोपोलॉजी और उसके वेट (टोपोलॉजी और वेट इवॉल्विंग आर्टिफिशियल न्यूरल नेटवर्क एल्गोरिदम के लिए TWEANNs कहा जाता है) दोनों को विकसित करते हैं।
इस प्रकार की कई तंत्रिकाओं के विकास में उपयोग की जाने वाली [[एल्गोरिदम|कलन विधि]] को परिभाषित किया गया है। जिसे सामान्य रूप से इनके बीचे के अंतर के आधार पर उन कलन विधि के बीच में इंगित करते है, जो निश्चित नेटवर्क टोपोलॉजी जिसे पारंपरिक तंत्रिका विकास कहा जाता है, जिसके लिए केवल कनेक्शन वेट की शक्ति को विकसित करते हैं, और इस कलन विधि के लिए जो नेटवर्क की टोपोलॉजी और उसके भार के अनुसार किसी टोपोलॉजी और वेट इवॉल्विंग आर्टिफिशियल न्यूरल नेटवर्क कलन विधि के लिए ट्विआंस कहा जाता है, जिसे दोनों के लिए विकसित करते हैं।


उन तरीकों के बीच अलग अंतर किया जा सकता है जो एएनएन की संरचना को उसके मापदंडों के समानांतर विकसित करते हैं (जो मानक विकासवादी एल्गोरिदम लागू करते हैं) और जो उन्हें अलग से विकसित करते हैं ([[मेमेटिक एल्गोरिदम]] के माध्यम से)।<ref>{{cite book |doi=10.1007/978-3-540-87700-4_61 |chapter=Countering Poisonous Inputs with Memetic Neuroevolution |title=Parallel Problem Solving from Nature – PPSN X |series=Lecture Notes in Computer Science |year=2008 |last1=Togelius |first1=Julian |last2=Schaul |first2=Tom |last3=Schmidhuber |first3=Jürgen |last4=Gomez |first4=Faustino |volume=5199 |pages=610–619 |isbn=978-3-540-87699-1 }}</ref>
इन विधियों के बीच अलग से अंतर किया जा सकता है, जो एएनएन की संरचना को उसके मापदंडों के समानांतर विकसित करते हैं, जो इस प्रकार के विभिन्न मानकों वाले विकासवादी कलन विधि को लागू करते हैं और जो उन्हें अलग से विकसित करते हैं, इस प्रकार [[मेमेटिक एल्गोरिदम|मेमेटिक कलन विधि]] के माध्यम से इसे प्रदर्शित किया जाता हैं।<ref>{{cite book |doi=10.1007/978-3-540-87700-4_61 |chapter=Countering Poisonous Inputs with Memetic Neuroevolution |title=Parallel Problem Solving from Nature – PPSN X |series=Lecture Notes in Computer Science |year=2008 |last1=Togelius |first1=Julian |last2=Schaul |first2=Tom |last3=Schmidhuber |first3=Jürgen |last4=Gomez |first4=Faustino |volume=5199 |pages=610–619 |isbn=978-3-540-87699-1 }}</ref>
==ग्रेडिएंट डिसेंट के साथ तुलना==
==ग्रेडिएंट डिसेंट की तुलना==
अधिकांश तंत्रिका नेटवर्क न्यूरोइवोल्यूशन के बजाय ग्रेडिएंट डिसेंट का उपयोग करते हैं। हालाँकि, 2017 के आसपास [[ उबेर |उबेर]] के शोधकर्ताओं ने कहा कि उन्होंने पाया है कि सरल संरचनात्मक न्यूरोएवोल्यूशन एल्गोरिदम परिष्कृत आधुनिक उद्योग-मानक ग्रेडिएंट-डिसेंट [[ध्यान लगा के पढ़ना या सीखना]] एल्गोरिदम के साथ प्रतिस्पर्धी थे, आंशिक रूप से क्योंकि न्यूरोएवोल्यूशन के स्थानीय मिनीमा में फंसने की संभावना कम पाई गई थी। विज्ञान में (पत्रिका),
अधिकांश तंत्रिका नेटवर्क तंत्रिका विकास के अतिरिक्त ग्रेडिएंट डिसेंट का उपयोग करते हैं। चूंकि, 2017 के आसपास के समय में [[ उबेर |उबेर]] के शोधकर्ताओं ने कहा कि उन्होंने पाया है कि सरल संरचनात्मक तंत्रिका विकास कलन विधि परिष्कृत आधुनिक उद्योग-मानक ग्रेडिएंट-डिसेंट [[ध्यान लगा के पढ़ना या सीखना]] मुख्य रूप से कलन विधि के साथ प्रतिस्पर्धी थे, जिसके आधार पर आंशिक रूप से इस प्रकार तंत्रिका विकास के स्थानीय मिनीमा में फंसने की संभावना कम पाई गई थी। विज्ञान की पत्रिकाओं में पत्रकार मैथ्यू हटसन ने अनुमान लगाया कि तंत्रिका विकास के सफल होने का कारण जहां यह पहले विफल हो गया था वह 2010 के दशक में उपलब्ध कम्प्यूटेशनल शक्ति में वृद्धि के कारण है।<ref>{{cite journal |last1=Hutson |first1=Matthew |title=समस्याओं को हल करने के लिए कृत्रिम बुद्धिमत्ता 'विकसित' हो सकती है|journal=Science |date=11 January 2018 |doi=10.1126/science.aas9715 }}</ref>
पत्रकार मैथ्यू हटसन ने अनुमान लगाया कि न्यूरोइवोल्यूशन के सफल होने का कारण जहां यह पहले विफल हो गया था वह 2010 के दशक में उपलब्ध कम्प्यूटेशनल शक्ति में वृद्धि के कारण है।<ref>{{cite journal |last1=Hutson |first1=Matthew |title=समस्याओं को हल करने के लिए कृत्रिम बुद्धिमत्ता 'विकसित' हो सकती है|journal=Science |date=11 January 2018 |doi=10.1126/science.aas9715 }}</ref>
 
यह दिखाया जा सकता है कि न्यूरोइवोल्यूशन और ग्रेडिएंट डिसेंट के बीच पत्राचार है।<ref>{{cite journal |last1=Whitelam |first1=Stephen |last2=Selin |first2=Viktor |last3=Park |first3=Sang-Won |last4=Tamblyn |first4=Isaac |title=न्यूरोइवोल्यूशन और ग्रेडिएंट डिसेंट के बीच पत्राचार|journal=Nature Communications |date=2 November 2021 |volume=12 |issue=1 |pages=6317 |doi=10.1038/s41467-021-26568-2 |pmid=34728632 |pmc=8563972 |arxiv=2008.06643 |bibcode=2021NatCo..12.6317W }}</ref>
यह दिखाया जा सकता है कि तंत्रिका विकास और ग्रेडिएंट डिसेंट के बीच का पत्राचार है।<ref>{{cite journal |last1=Whitelam |first1=Stephen |last2=Selin |first2=Viktor |last3=Park |first3=Sang-Won |last4=Tamblyn |first4=Isaac |title=न्यूरोइवोल्यूशन और ग्रेडिएंट डिसेंट के बीच पत्राचार|journal=Nature Communications |date=2 November 2021 |volume=12 |issue=1 |pages=6317 |doi=10.1038/s41467-021-26568-2 |pmid=34728632 |pmc=8563972 |arxiv=2008.06643 |bibcode=2021NatCo..12.6317W }}</ref>
==प्रत्यक्ष और अप्रत्यक्ष एन्कोडिंग==
==प्रत्यक्ष और अप्रत्यक्ष एन्कोडिंग==


विकासवादी एल्गोरिदम [[जीनोटाइप]] (जिन्हें [[जीनोम]] भी कहा जाता है) की आबादी पर काम करते हैं। न्यूरोइवोल्यूशन में, जीनोटाइप को तंत्रिका नेटवर्क [[फेनोटाइप]] में मैप किया जाता है जिसका मूल्यांकन उसके [[फिटनेस कार्य]] को प्राप्त करने के लिए किसी कार्य पर किया जाता है।
विकासवादी कलन विधि [[जीनोटाइप]] जिन्हें [[जीनोम]] भी कहा जाता है, जिसकी आबादी पर कार्य करते हैं। इस प्रकार के तंत्रिका विकास में, जीनोटाइप को तंत्रिका नेटवर्क [[फेनोटाइप]] में मैप किया जाता है जिसका मूल्यांकन उसके [[फिटनेस कार्य]] को प्राप्त करने के लिए किसी कार्य पर किया जाता है।
 
प्रत्यक्ष एन्कोडिंग योजनाओं में जीनोटाइप सीधे फेनोटाइप पर मैप होता है। तंत्रिका नेटवर्क में प्रत्येक न्यूरॉन और कनेक्शन सीधे और स्पष्ट रूप से जीनोटाइप में निर्दिष्ट होता है। इसके विपरीत, अप्रत्यक्ष एन्कोडिंग योजनाओं में जीनोटाइप अप्रत्यक्ष रूप से निर्दिष्ट करता है कि नेटवर्क कैसे उत्पन्न किया जाना चाहिए।<ref name="cgegecco">{{Citation |last1=Kassahun|first1=Yohannes|last2=Sommer|first2=Gerald|last3=Edgington|first3=Mark|last4=Metzen|first4=Jan Hendrik|last5=Kirchner|first5=Frank|date=2007|contribution=Common genetic encoding for both direct and indirect encodings of networks|title=Genetic and Evolutionary Computation Conference |publisher=ACM Press|pages=1029–1036|citeseerx=10.1.1.159.705}}</ref>


प्रत्यक्ष एन्कोडिंग योजनाओं में जीनोटाइप सीधे फेनोटाइप पर मैप होता है। अर्थात्, तंत्रिका नेटवर्क में प्रत्येक न्यूरॉन और कनेक्शन सीधे और स्पष्ट रूप से जीनोटाइप में निर्दिष्ट होता है। इसके विपरीत, अप्रत्यक्ष एन्कोडिंग योजनाओं में जीनोटाइप अप्रत्यक्ष रूप से निर्दिष्ट करता है कि नेटवर्क कैसे उत्पन्न किया जाना चाहिए।<ref name="cgegecco">{{Citation |last1=Kassahun|first1=Yohannes|last2=Sommer|first2=Gerald|last3=Edgington|first3=Mark|last4=Metzen|first4=Jan Hendrik|last5=Kirchner|first5=Frank|date=2007|contribution=Common genetic encoding for both direct and indirect encodings of networks|title=Genetic and Evolutionary Computation Conference |publisher=ACM Press|pages=1029–1036|citeseerx=10.1.1.159.705}}</ref>
अप्रत्यक्ष एन्कोडिंग का उपयोग अधिकांशतः कई उद्देश्यों को प्राप्त करने के लिए किया जाता है:<ref name="cgegecco" /><ref name="hyperneat">{{citation|last=Gauci |first= Stanley |contribution=Generating Large-Scale Neural Networks Through Discovering Geometric Regularities |title=Genetic and Evolutionary Computation Conference|year=2007 |location=New York, NY |publisher=ACM |contribution-url=http://eplex.cs.ucf.edu/papers/gauci_gecco07.pdf}}</ref><ref name="gruau94">{{Cite book|title=सेलुलर एन्कोडिंग और जेनेटिक एल्गोरिदम का उपयोग करके तंत्रिका नेटवर्क संश्लेषण।|last1=Gruau|first1=Frédéric|last2=I|first2=L'universite Claude Bernard-lyon|last3=Doctorat|first3=Of A. Diplome De|last4=Demongeot|first4=M. Jacques|last5=Cosnard|first5=Examinators M. Michel|last6=Mazoyer|first6=M. Jacques|last7=Peretto|first7=M. Pierre|last8=Whitley|first8=M. Darell|date=1994|citeseerx = 10.1.1.29.5939}}</ref><ref>{{Cite journal|last1=Clune|first1=J.|last2=Stanley|first2=Kenneth O.|last3=Pennock|first3=R. T.|last4=Ofria|first4=C.|date=June 2011|title=नियमितता के सातत्य में अप्रत्यक्ष एन्कोडिंग के प्रदर्शन पर|journal=IEEE Transactions on Evolutionary Computation|volume=15|issue=3|pages=346–367|doi=10.1109/TEVC.2010.2104157|issn=1089-778X|citeseerx=10.1.1.375.6731|s2cid=3008628}}</ref><ref name="eshyperalife">{{cite journal |last1=Risi |first1=Sebastian |last2=Stanley |first2=Kenneth O. |title=न्यूरॉन्स के प्लेसमेंट, घनत्व और कनेक्टिविटी को विकसित करने के लिए एक उन्नत हाइपरक्यूब-आधारित एन्कोडिंग|journal=Artificial Life |date=October 2012 |volume=18 |issue=4 |pages=331–363 |doi=10.1162/ARTL_a_00071 |pmid=22938563 |s2cid=3256786 |url=https://stars.library.ucf.edu/cgi/viewcontent.cgi?article=4196&context=facultybib2010 }}</ref>
अप्रत्यक्ष एन्कोडिंग का उपयोग अक्सर कई उद्देश्यों को प्राप्त करने के लिए किया जाता है:<ref name="cgegecco"/><ref name=hyperneat>{{citation|last=Gauci |first= Stanley |contribution=Generating Large-Scale Neural Networks Through Discovering Geometric Regularities |title=Genetic and Evolutionary Computation Conference|year=2007 |location=New York, NY |publisher=ACM |contribution-url=http://eplex.cs.ucf.edu/papers/gauci_gecco07.pdf}}</ref><ref name=gruau94>{{Cite book|title=सेलुलर एन्कोडिंग और जेनेटिक एल्गोरिदम का उपयोग करके तंत्रिका नेटवर्क संश्लेषण।|last1=Gruau|first1=Frédéric|last2=I|first2=L'universite Claude Bernard-lyon|last3=Doctorat|first3=Of A. Diplome De|last4=Demongeot|first4=M. Jacques|last5=Cosnard|first5=Examinators M. Michel|last6=Mazoyer|first6=M. Jacques|last7=Peretto|first7=M. Pierre|last8=Whitley|first8=M. Darell|date=1994|citeseerx = 10.1.1.29.5939}}</ref><ref>{{Cite journal|last1=Clune|first1=J.|last2=Stanley|first2=Kenneth O.|last3=Pennock|first3=R. T.|last4=Ofria|first4=C.|date=June 2011|title=नियमितता के सातत्य में अप्रत्यक्ष एन्कोडिंग के प्रदर्शन पर|journal=IEEE Transactions on Evolutionary Computation|volume=15|issue=3|pages=346–367|doi=10.1109/TEVC.2010.2104157|issn=1089-778X|citeseerx=10.1.1.375.6731|s2cid=3008628}}</ref><ref name=eshyperalife>{{cite journal |last1=Risi |first1=Sebastian |last2=Stanley |first2=Kenneth O. |title=न्यूरॉन्स के प्लेसमेंट, घनत्व और कनेक्टिविटी को विकसित करने के लिए एक उन्नत हाइपरक्यूब-आधारित एन्कोडिंग|journal=Artificial Life |date=October 2012 |volume=18 |issue=4 |pages=331–363 |doi=10.1162/ARTL_a_00071 |pmid=22938563 |s2cid=3256786 |url=https://stars.library.ucf.edu/cgi/viewcontent.cgi?article=4196&context=facultybib2010 }}</ref>
* मॉड्यूलैरिटी और अन्य नियमितताएं पायी जाती हैं,
* मॉड्यूलैरिटी और अन्य नियमितताएं;
* फेनोटाइप को छोटे जीनोटाइप में संपीड़ित करना, छोटा खोज स्थान प्रदान करना सम्मिलित हैं,
* फेनोटाइप को छोटे जीनोटाइप में संपीड़ित करना, छोटा खोज स्थान प्रदान करना;
* खोज स्थान (जीनोम) को समस्या डोमेन पर मैप करना सम्मिलित हैं।
* खोज स्थान (जीनोम) को समस्या डोमेन पर मैप करना।


===अप्रत्यक्ष एन्कोडिंग के लिए भ्रूणजन्य प्रणालियों का वर्गीकरण===
===अप्रत्यक्ष एन्कोडिंग के लिए भ्रूणजन्य प्रणालियों का वर्गीकरण===


परंपरागत रूप से अप्रत्यक्ष एन्कोडिंग जो कृत्रिम [[भ्रूणविज्ञान]] (जिसे [[कृत्रिम विकास]] के रूप में भी जाना जाता है) को व्याकरणिक दृष्टिकोण बनाम कोशिका रसायन विज्ञान दृष्टिकोण की तर्ज पर वर्गीकृत किया गया है।<ref name=taxae>{{cite journal |last1=Stanley |first1=Kenneth O. |last2=Miikkulainen |first2=Risto |title=कृत्रिम भ्रूणजनन के लिए एक वर्गीकरण|journal=Artificial Life |date=April 2003 |volume=9 |issue=2 |pages=93–130 |doi=10.1162/106454603322221487 |pmid=12906725 |s2cid=2124332 }}</ref> पूर्व व्याकरणिक पुनर्लेखन प्रणालियों के रूप में नियमों के सेट विकसित करता है। उत्तरार्द्ध यह नकल करने का प्रयास करता है कि जीन अभिव्यक्ति के माध्यम से जीव विज्ञान में भौतिक संरचनाएं कैसे उभरती हैं। अप्रत्यक्ष एन्कोडिंग प्रणालियाँ अक्सर दोनों दृष्टिकोणों के पहलुओं का उपयोग करती हैं।
परंपरागत रूप से अप्रत्यक्ष एन्कोडिंग जो कृत्रिम [[भ्रूणविज्ञान]] जिसे [[कृत्रिम विकास]] के रूप में भी जाना जाता है, जिसको व्याकरणिक दृष्टिकोण बनाम कोशिका रसायन विज्ञान दृष्टिकोण से  वर्गीकृत किया गया है।<ref name=taxae>{{cite journal |last1=Stanley |first1=Kenneth O. |last2=Miikkulainen |first2=Risto |title=कृत्रिम भ्रूणजनन के लिए एक वर्गीकरण|journal=Artificial Life |date=April 2003 |volume=9 |issue=2 |pages=93–130 |doi=10.1162/106454603322221487 |pmid=12906725 |s2cid=2124332 }}</ref> इसके पूर्व व्याकरणिक पुनर्लेखन प्रणालियों के रूप में नियमों के सेट विकसित करता है। इस प्रकार इसके उत्तरार्द्ध समय में यह नकल करने का प्रयास करता है कि जीन अभिव्यक्ति के माध्यम से जीव विज्ञान में भौतिक संरचनाएं कैसे उभरती हैं। इसके आधार पर अप्रत्यक्ष एन्कोडिंग प्रणालियाँ अधिकांशतः दोनों दृष्टिकोणों के पहलुओं का उपयोग करती हैं।


स्टेनली और मिइक्कुलैनेन<ref name=taxae />भ्रूणजन्य प्रणालियों के लिए वर्गीकरण का प्रस्ताव करें जिसका उद्देश्य उनके अंतर्निहित गुणों को प्रतिबिंबित करना है। वर्गीकरण पांच सतत आयामों की पहचान करता है, जिसके साथ किसी भी भ्रूणीय प्रणाली को रखा जा सकता है:
स्टेनली और मिइक्कुलैनेन<ref name=taxae />भ्रूणजन्य प्रणालियों के लिए वर्गीकरण का प्रस्ताव करें जिसका उद्देश्य उनके अंतर्निहित गुणों को प्रतिबिंबित करना है। इस प्रकार के वर्गीकरण को पांच सतत आयामों के साथ पहचाना जाता है, जिसके साथ किसी भी भ्रूणीय प्रणाली को रखा जा सकता है:
* कोशिका (न्यूरॉन) भाग्य: परिपक्व फेनोटाइप में कोशिका की अंतिम विशेषताएँ और भूमिका। यह आयाम किसी कोशिका के भाग्य का निर्धारण करने के लिए उपयोग की जाने वाली विधियों की संख्या की गणना करता है।
* कोशिका (न्यूरॉन) भाग्य: परिपक्व फेनोटाइप में कोशिका की अंतिम विशेषताएँ और भूमिका हैं। यह आयाम किसी कोशिका के भाग्य का निर्धारण करने के लिए उपयोग की जाने वाली विधियों की संख्या की गणना करता है।
* लक्ष्यीकरण: वह विधि जिसके द्वारा कनेक्शन को स्रोत कोशिकाओं से लक्ष्य कोशिकाओं तक निर्देशित किया जाता है। यह विशिष्ट लक्ष्यीकरण (स्रोत और लक्ष्य स्पष्ट रूप से पहचाने जाते हैं) से लेकर सापेक्ष लक्ष्यीकरण (उदाहरण के लिए, दूसरे के सापेक्ष कोशिकाओं के स्थानों के आधार पर) तक होता है।
* लक्ष्यीकरण: वह विधि जिसके द्वारा कनेक्शन को स्रोत कोशिकाओं से लक्ष्य कोशिकाओं तक निर्देशित किया जाता है। यह विशिष्ट लक्ष्यों को भेदने के आधार पर स्रोत और लक्ष्य स्पष्ट रूप से पहचाने जाते हैं, जिससे लेकर सापेक्ष लक्ष्यीकरण को उदाहरण के रूप में दूसरे के सापेक्ष कोशिकाओं के स्थानों के आधार तक सम्मिलित किया जाता है।
* हेटेरोक्रोनी: भ्रूणजनन के दौरान घटनाओं का समय और क्रम। घटनाओं के समय को बदलने के लिए तंत्रों की संख्या की गणना करता है।
* हेटेरोक्रोनी: भ्रूणजनन के दौरान घटनाओं का समय और घटना क्रम के आधार पर माना जाता हैं। इन घटनाओं के समय के परिवर्तन के लिए तंत्रों की संख्या की गणना करता है।
* कैनालाइज़ेशन: जीनोम उत्परिवर्तन (भंगुरता) के प्रति कितना सहनशील है। सटीक जीनोटाइपिक निर्देशों की आवश्यकता से लेकर सटीक उत्परिवर्तन की उच्च सहनशीलता तक होती है।
* कैनालाइज़ेशन: जीनोम उत्परिवर्तन (भंगुरता) के प्रति कितना सहनशील है। सटीक जीनोटाइपिक निर्देशों की आवश्यकता से लेकर सटीक उत्परिवर्तन की उच्च सहनशीलता तक होती है।
* जटिलीकरण: समय के साथ जीनोम (और इसलिए फेनोटाइप) के जटिलीकरण की अनुमति देने के लिए सिस्टम की क्षमता (विकासवादी एल्गोरिदम और जीनोटाइप से फेनोटाइप मैपिंग सहित)। केवल निश्चित आकार के जीनोम की अनुमति देने से लेकर अत्यधिक परिवर्तनशील लंबाई वाले जीनोम की अनुमति देने तक।
* जटिलीकरण: समय के साथ जीनोम (और इसलिए फेनोटाइप) के जटिलीकरण की अनुमति देने के लिए सिस्टम की क्षमता को विकासवादी कलन विधि और जीनोटाइप से फेनोटाइप मैपिंग सहित सम्मिलित किया जा सकता हैं। जिसके लिए केवल निश्चित आकार के जीनोम की अनुमति देने से लेकर अत्यधिक परिवर्तनशील लंबाई वाले जीनोम की अनुमति देने तक अभिव्यक्त किया जाता हैं।


==उदाहरण==
==उदाहरण==


न्यूरोइवोल्यूशन विधियों के उदाहरण (प्रत्यक्ष एन्कोडिंग वाले आवश्यक रूप से गैर-भ्रूणजनित होते हैं):
तंत्रिका विकास विधियों के उदाहरण (प्रत्यक्ष एन्कोडिंग वाले आवश्यक रूप से गैर-भ्रूणजनित होते हैं):
{| class="wikitable" border="1"
{| class="wikitable" border="1"
|-
|-
! Method
! विधि
! Encoding
! एनकोडिंग
! Evolutionary algorithm
! विकासवादी कलन विधि
! Aspects evolved
! विकसित पहलू
|-
|-
| Neuro-genetic evolution by E. Ronald, 1994<ref>{{citation |contribution=Genetic Lander: An experiment in accurate neuro-genetic control |first1=Edmund |last1=Ronald |first2= March |last2=Schoenauer |title=PPSN III 1994 Parallel Programming Solving from Nature |pages=452–461 |citeseerx=10.1.1.56.3139 |year=1994 }}</ref>
| ई. रोनाल्ड द्वारा न्यूरो-जेनेटिक इवोल्यूशन, 1994<ref>{{citation |contribution=Genetic Lander: An experiment in accurate neuro-genetic control |first1=Edmund |last1=Ronald |first2= March |last2=Schoenauer |title=PPSN III 1994 Parallel Programming Solving from Nature |pages=452–461 |citeseerx=10.1.1.56.3139 |year=1994 }}</ref>
| Direct
| प्रत्यक्ष
| [[Genetic algorithm]]
| [[Genetic algorithm|जेनेटिक एल्गोरिद्म]]
| Network Weights
| नेटवर्क भार
|-
|-
| Cellular Encoding (CE) by F. Gruau, 1994<ref name=gruau94/>
| एफ. ग्रुउ द्वारा सेल्युलर एनकोडिंग (सीई), 1994<ref name=gruau94/>
| Indirect, embryogenic (grammar tree using [[S-expressions]])
| अप्रत्यक्ष, भ्रूणजन्य (एस-अभिव्यक्तियों का उपयोग करके व्याकरण वृक्ष)
| [[Genetic programming]]
| [[Genetic programming|आनुवंशिक प्रोग्रामिंग]]
| Structure and parameters (simultaneous, complexification)
| संरचना और पैरामीटर (एक साथ, जटिलता)
|-
|-
| GNARL by Angeline et al., 1994<ref>{{cite journal |last1=Angeline |first1=P.J. |last2=Saunders |first2=G.M. |last3=Pollack |first3=J.B. |title=An evolutionary algorithm that constructs recurrent neural networks |journal=IEEE Transactions on Neural Networks |date=January 1994 |volume=5 |issue=1 |pages=54–65 |doi=10.1109/72.265960 |pmid=18267779 |citeseerx=10.1.1.64.1853 }}</ref>
| एंजेलिन एट अल द्वारा जीएनएआरएल, 1994<ref>{{cite journal |last1=Angeline |first1=P.J. |last2=Saunders |first2=G.M. |last3=Pollack |first3=J.B. |title=An evolutionary algorithm that constructs recurrent neural networks |journal=IEEE Transactions on Neural Networks |date=January 1994 |volume=5 |issue=1 |pages=54–65 |doi=10.1109/72.265960 |pmid=18267779 |citeseerx=10.1.1.64.1853 }}</ref>
| Direct
| प्रत्यक्ष
| [[Evolutionary programming]]
| [[Evolutionary programming|विकासवादी प्रोग्रामिंग]]
| Structure and parameters (simultaneous, complexification)
| संरचना और पैरामीटर (एक साथ, जटिलता)
|-
|-
| EPNet by Yao and Liu, 1997<ref>{{cite journal |last1=Yao |first1=X. |last2=Liu |first2=Y. |title=A new evolutionary system for evolving artificial neural networks |journal=IEEE Transactions on Neural Networks |date=May 1997 |volume=8 |issue=3 |pages=694–713 |doi=10.1109/72.572107 |pmid=18255671 }}</ref>
| याओ और लियू द्वारा ईपीनेट, 1997<ref>{{cite journal |last1=Yao |first1=X. |last2=Liu |first2=Y. |title=A new evolutionary system for evolving artificial neural networks |journal=IEEE Transactions on Neural Networks |date=May 1997 |volume=8 |issue=3 |pages=694–713 |doi=10.1109/72.572107 |pmid=18255671 }}</ref>
| Direct
| प्रत्यक्ष
| [[Evolutionary programming]] (combined with [[backpropagation]] and [[simulated annealing]])
| [[Evolutionary programming|विकासवादी प्रोग्रामिंग]] (बैकप्रॉपैगेशन और सिम्युलेटेड एनीलिंग के साथ संयुक्त)
| Structure and parameters (mixed, complexification and simplification)
| संरचना और पैरामीटर (मिश्रित, जटिलता और सरलीकरण)
|-
|-
| [[NeuroEvolution of Augmenting Topologies]] (NEAT) by Stanley and Miikkulainen, 2002<ref name=autogenerated1>{{cite web|title=Real-Time Neuroevolution in the NERO Video Game|first1=Kenneth O. |last1=Stanley |first2=Bobby D. |last2=Bryant |first3=Risto |last3=Miikkulainen|url=http://nn.cs.utexas.edu/downloads/papers/stanley.ieeetec05.pdf |date=December 2005 }}</ref><ref>{{cite journal |last1=Stanley |first1=Kenneth O. |last2=Miikkulainen |first2=Risto |title=Evolving Neural Networks through Augmenting Topologies |journal=Evolutionary Computation |date=June 2002 |volume=10 |issue=2 |pages=99–127 |doi=10.1162/106365602320169811 |pmid=12180173 |citeseerx=10.1.1.638.3910 |s2cid=498161 }}</ref>
| स्टेनली और मिइक्कुलैनेन द्वारा न्यूरोइवोल्यूशन ऑफ़ ऑगमेंटिंग टोपोलॉजीज़ (एनईएटी), 2002<ref name=autogenerated1>{{cite web|title=Real-Time Neuroevolution in the NERO Video Game|first1=Kenneth O. |last1=Stanley |first2=Bobby D. |last2=Bryant |first3=Risto |last3=Miikkulainen|url=http://nn.cs.utexas.edu/downloads/papers/stanley.ieeetec05.pdf |date=December 2005 }}</ref><ref>{{cite journal |last1=Stanley |first1=Kenneth O. |last2=Miikkulainen |first2=Risto |title=Evolving Neural Networks through Augmenting Topologies |journal=Evolutionary Computation |date=June 2002 |volume=10 |issue=2 |pages=99–127 |doi=10.1162/106365602320169811 |pmid=12180173 |citeseerx=10.1.1.638.3910 |s2cid=498161 }}</ref>
| Direct
| प्रत्यक्ष
| [[Genetic algorithm]]. Tracks genes with historical markings to allow crossover between different topologies, protects innovation via speciation.
| जेनेटिक एल्गोरिद्म जिसके लिए विभिन्न टोपोलॉजी के बीच क्रॉसओवर की अनुमति देने के लिए ऐतिहासिक चिह्नों के साथ जीन को ट्रैक करता है, प्रजातिकरण के माध्यम से नवाचार की रक्षा करता है।
| Structure and parameters
| संरचना और पैरामीटर
|-
|-
| [[HyperNEAT|Hypercube-based NeuroEvolution of Augmenting Topologies]] (HyperNEAT) by Stanley, D'Ambrosio, Gauci, 2008<ref name=hyperneat />
| हाइपरक्यूब-आधारित न्यूरोइवोल्यूशन ऑफ़ ऑगमेंटिंग टोपोलॉजीज़ (हाइपरएनईएटी) स्टैनली, डी'अम्ब्रोसियो, गौसी द्वारा, 2008<ref name=hyperneat />
| Indirect, non-embryogenic (spatial patterns generated by a [[Compositional pattern-producing network]] (CPPN) within a [[hypercube]] are interpreted as connectivity patterns in a lower-dimensional space)
| प्रत्यक्षतः गैर-भ्रूणजन्य (हाइपरक्यूब के भीतर एक कंपोजिटल पैटर्न-उत्पादक नेटवर्क (सीपीपीएन) द्वारा उत्पन्न स्थानिक पैटर्न को निचले-आयामी स्थान में कनेक्टिविटी पैटर्न के रूप में व्याख्या किया जाता है)
| [[Genetic algorithm]]. The NEAT algorithm (above) is used to evolve the CPPN.
| जेनेटिक एल्गोरिद्म CPPN को विकसित करने के लिए एनईएटी एल्गोरिथम (ऊपर) का उपयोग किया जाता है।
| Parameters, structure fixed (functionally fully connected)
| पैरामीटर, संरचना तय (कार्यात्मक रूप से पूरी तरह से जुड़ा हुआ)
|-
|-
| [[ES-HyperNEAT|Evolvable Substrate Hypercube-based NeuroEvolution of Augmenting Topologies]] (ES-HyperNEAT) by Risi, Stanley 2012<ref name=eshyperalife/>
| रिसी, स्टेनली 2012 द्वारा इवोल्वेबल सब्सट्रेट हाइपरक्यूब-आधारित न्यूरोइवोल्यूशन ऑफ ऑगमेंटिंग टोपोलॉजी (ईएस-हाइपरनीट)<ref name=eshyperalife/>
| Indirect, non-embryogenic (spatial patterns generated by a [[Compositional pattern-producing network]] (CPPN) within a [[hypercube]] are interpreted as connectivity patterns in a lower-dimensional space)
| प्रत्यक्षतः, गैर-भ्रूणजन्य (हाइपरक्यूब के भीतर एक कंपोजिटल पैटर्न-उत्पादक नेटवर्क (सीपीपीएन) द्वारा उत्पन्न स्थानिक पैटर्न को निचले-आयामी स्थान में कनेक्टिविटी पैटर्न के रूप में व्याख्या किया जाता है)
| [[Genetic algorithm]]. The NEAT algorithm (above) is used to evolve the CPPN.
| जेनेटिक एल्गोरिद्म। CPPN को विकसित करने के लिए एनईएटी एल्गोरिथम (ऊपर) का उपयोग किया जाता है।
| Parameters and network structure
| पैरामीटर और नेटवर्क संरचना
|-
|-
| [[Evolutionary Acquisition of Neural Topologies]] (EANT/EANT2) by Kassahun and Sommer, 2005<ref>{{citation|first1=Yohannes |last1=Kassahun |first2=Gerald |last2=Sommer|contribution=Efficient reinforcement learning through evolutionary acquisition of neural topologies|title=13th European Symposium on Artificial Neural Networks |pages= 259–266|location= Bruges, Belgium |date=April 2005 |contribution-url=http://www.ks.informatik.uni-kiel.de/~yk/ESANN2005EANT.pdf}}</ref> / Siebel and Sommer, 2007<ref>{{cite journal |last1=Siebel |first1=Nils T. |last2=Sommer |first2=Gerald |title=Evolutionary reinforcement learning of artificial neural networks |journal=International Journal of Hybrid Intelligent Systems |date=17 October 2007 |volume=4 |issue=3 |pages=171–183 |doi=10.3233/his-2007-4304 }}</ref>
| कसाहुन और सोमर द्वारा तंत्रिका टोपोलॉजी का विकासवादी अधिग्रहण (ईएएनटी/ईएएनटी2), 2005<ref>{{citation|first1=Yohannes |last1=Kassahun |first2=Gerald |last2=Sommer|contribution=Efficient reinforcement learning through evolutionary acquisition of neural topologies|title=13th European Symposium on Artificial Neural Networks |pages= 259–266|location= Bruges, Belgium |date=April 2005 |contribution-url=http://www.ks.informatik.uni-kiel.de/~yk/ESANN2005EANT.pdf}}</ref> / सीबेल और सोमर, 2007<ref>{{cite journal |last1=Siebel |first1=Nils T. |last2=Sommer |first2=Gerald |title=Evolutionary reinforcement learning of artificial neural networks |journal=International Journal of Hybrid Intelligent Systems |date=17 October 2007 |volume=4 |issue=3 |pages=171–183 |doi=10.3233/his-2007-4304 }}</ref>
| Direct and indirect, potentially embryogenic (Common Genetic Encoding<ref name=cgegecco />)
| प्रत्यक्ष और अंतःप्रत्यक्ष, संभावित भ्रूणजन्य (सामान्य आनुवंशिक एन्कोडिंग)।<ref name=cgegecco />)
| [[Evolutionary programming]]/[[Evolution strategies]]
| विकासवादी योजनाएं/विकास रणनीतियाँ
| Structure and parameters (separately, complexification)
| संरचना और पैरामीटर (अलग से, जटिलता)
|-
|-
| [[Interactively Constrained Neuro-Evolution]] (ICONE) by Rempis, 2012<ref>{{cite thesis |last1=Rempis |first1=Christian Wilhelm |title=Evolving Complex Neuro-Controllers with Interactively Constrained Neuro-Evolution |date=2012 |url=https://osnadocs.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2012101710370 }}</ref>
| रेम्पिस द्वारा इंटरैक्टिवली कॉन्स्ट्रेन्ड न्यूरो-इवोल्यूशन (ICONE), 2012<ref>{{cite thesis |last1=Rempis |first1=Christian Wilhelm |title=Evolving Complex Neuro-Controllers with Interactively Constrained Neuro-Evolution |date=2012 |url=https://osnadocs.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2012101710370 }}</ref>
| Direct, includes constraint masks to restrict the search to specific topology / parameter manifolds.
| डायरेक्ट, खोज को विशिष्ट टोपोलॉजी/पैरामीटर मैनिफ़ोल्ड तक सीमित करने के लिए बाधा मास्क शामिल करता है।
| [[Evolutionary algorithm]]. Uses constraint masks to drastically reduce the search space through exploiting [[domain knowledge]].
| विकासवादी एल्गोरिदम. डोमेन ज्ञान का दोहन करके खोज स्थान को काफी कम करने के लिए बाधा मास्क का उपयोग करता है।
| Structure and parameters (separately, complexification, interactive)
| संरचना और पैरामीटर (अलग से, जटिलता, इंटरैक्टिव)
|-
|-
| [[Deus Ex Neural Network]] (DXNN) by Gene Sher, 2012<ref>{{cite book |doi=10.1007/978-1-4614-4463-3 |title=Handbook of Neuroevolution Through Erlang |year=2013 |last1=Sher |first1=Gene I. |isbn=978-1-4614-4462-6 |s2cid=21777855 }}</ref>
| जीन शेर द्वारा ड्यूस एक्स न्यूरल नेटवर्क (DXNN), 2012<ref>{{cite book |doi=10.1007/978-1-4614-4463-3 |title=Handbook of Neuroevolution Through Erlang |year=2013 |last1=Sher |first1=Gene I. |isbn=978-1-4614-4462-6 |s2cid=21777855 }}</ref>
| Direct/Indirect, includes constraints, local tuning, and allows for evolution to integrate new sensors and actuators.
| प्रत्यक्ष/प्रत्यक्ष में बाधाएं, स्थानीय ट्यूनिंग शामिल है, और नए सेंसर और एक्चुएटर्स को एकीकृत करने के लिए विकास की अनुमति देता है।
| [[Memetic algorithm]]. Evolves network structure and parameters on different time-scales.  
| मेमेटिक एल्गोरिदम. विभिन्न समय-पैमानों पर नेटवर्क संरचना और पैरामीटर विकसित करता है।  
| Structure and parameters (separately, complexification, interactive)
| संरचना और पैरामीटर (अलग से, जटिलता, इंटरैक्टिव)
|-
|-
| [[Spectrum-diverse Unified Neuroevolution Architecture]] (SUNA) by Danilo Vasconcellos Vargas, Junichi Murata<ref>{{cite journal|first1=Danilo Vasconcellos |last1=Vargas |first2=Junichi |last2=Murata |journal=IEEE Transactions on Neural Networks and Learning Systems |volume=28 |issue=8 |pages=1759–1773 |title=Spectrum-Diverse Neuroevolution With Unified Neural Models|doi=10.1109/TNNLS.2016.2551748 |pmid=28113564 |year=2019 |arxiv=1902.06703 |bibcode=2019arXiv190206703V |s2cid=206757620 }}</ref> ([https://github.com/zweifel/Physis-Shard Download code])
| स्पेक्ट्रम-विविध एकीकृत न्यूरोएवोल्यूशन आर्किटेक्चर (SUNA) डैनिलो वास्कोनसेलोस वर्गास, जुनिची मुराता द्वारा<ref>{{cite journal|first1=Danilo Vasconcellos |last1=Vargas |first2=Junichi |last2=Murata |journal=IEEE Transactions on Neural Networks and Learning Systems |volume=28 |issue=8 |pages=1759–1773 |title=Spectrum-Diverse Neuroevolution With Unified Neural Models|doi=10.1109/TNNLS.2016.2551748 |pmid=28113564 |year=2019 |arxiv=1902.06703 |bibcode=2019arXiv190206703V |s2cid=206757620 }}</ref> ([https://github.com/zweifel/Physis-Shard कोड डाउनलोड करें])
| Direct, introduces the [[Unified Neural Representation]] (representation integrating most of the neural network features from the literature).
| प्रत्यक्ष, एकीकृत तंत्रिका प्रतिनिधित्व (साहित्य से अधिकांश तंत्रिका नेटवर्क सुविधाओं को एकीकृत करने वाला प्रतिनिधित्व) का परिचय देता है।
| Genetic Algorithm with a diversity preserving mechanism called [[Spectrum-diversity]] that scales well with chromosome size, is problem independent and focus more on obtaining diversity of high level behaviours/approaches. To achieve this diversity the concept of [[chromosome Spectrum]] is introduced and used together with a [[Novelty Map Population]].    
| विविधता संरक्षण तंत्र के साथ आनुवंशिक एल्गोरिदम जिसे स्पेक्ट्रम-विविधता कहा जाता है, जो गुणसूत्र आकार के साथ अच्छी तरह से मापता है, समस्या से स्वतंत्र है और उच्च स्तरीय व्यवहार/दृष्टिकोण की विविधता प्राप्त करने पर अधिक ध्यान केंद्रित करता है। इस विविधता को प्राप्त करने के लिए क्रोमोसोम स्पेक्ट्रम की अवधारणा को नवीनता मानचित्र जनसंख्या के साथ पेश और उपयोग किया जाता है।    
| Structure and parameters (mixed, complexification and simplification)
| संरचना और पैरामीटर (मिश्रित, जटिलता और सरलीकरण)
|-
|-
| [[Modular Agent-Based Evolver]] (MABE) by Clifford Bohm, Arend Hintze, and others.<ref>{{cite journal|first1=Jeffrey |last1=Edlund |first2=Nicolas |last2=Chaumont |first3=Arend |last3=Hintze |first4=Christof |last4=Koch |first5=Giulio  
| क्लिफोर्ड बोहम, अरेंड हिंट्ज़ और अन्य द्वारा मॉड्यूलर एजेंट-आधारित इवोल्वर (एमएबीई)<ref>{{cite journal|first1=Jeffrey |last1=Edlund |first2=Nicolas |last2=Chaumont |first3=Arend |last3=Hintze |first4=Christof |last4=Koch |first5=Giulio  
|last5=Tononi |first6=Christoph |last6=Adami |journal=PLOS Computational Biology |volume=7 |issue=10 |pages=e1002236 |title=Integrated Information Increases with Fitness in the Evolution of Animats|doi=10.1371/journal.pcbi.1002236 |pmid=22028639 |pmc=3197648 |year=2011 |arxiv=1103.1791 |bibcode=2011PLSCB...7E2236E }}</ref> ([https://github.com/Hintzelab/MABE Download code])
|last5=Tononi |first6=Christoph |last6=Adami |journal=PLOS Computational Biology |volume=7 |issue=10 |pages=e1002236 |title=Integrated Information Increases with Fitness in the Evolution of Animats|doi=10.1371/journal.pcbi.1002236 |pmid=22028639 |pmc=3197648 |year=2011 |arxiv=1103.1791 |bibcode=2011PLSCB...7E2236E }}</ref> ([https://github.com/zweifel/Physis-Shard][https://github.com/Hintzelab/MABE कोड डाउनलोड करें])
| Direct or indirect encoding of [[Markov network]]s, Neural Networks, genetic programming, and other arbitrarily customizable controllers.
| मार्कोव नेटवर्क, न्यूरल नेटवर्क, जेनेटिक प्रोग्रामिंग और अन्य मनमाने ढंग से अनुकूलन योग्य नियंत्रकों की प्रत्यक्ष या अप्रत्यक्ष एन्कोडिंग।
| Provides evolutionary algorithms, genetic programming algorithms, and allows customized algorithms, along with specification of arbitrary constraints.    
| विकासवादी एल्गोरिदम, आनुवंशिक प्रोग्रामिंग एल्गोरिदम प्रदान करता है, और मनमानी बाधाओं के विनिर्देशन के साथ-साथ अनुकूलित एल्गोरिदम की अनुमति देता है।    
| Evolvable aspects include the neural model and allows for the evolution of morphology and sexual selection among others.
| विकास योग्य पहलुओं में तंत्रिका मॉडल शामिल है और दूसरों के बीच आकृति विज्ञान और यौन चयन के विकास की अनुमति देता है।
|-
|-
|Covariance Matrix Adaptation with Hypervolume Sorted Adaptive Grid Algorithm (CMA-HAGA) by Shahin Rostami, and others.<ref>{{cite journal |last1=Rostami |first1=Shahin |last2=Neri |first2=Ferrante |title=A fast hypervolume driven selection mechanism for many-objective optimisation problems |journal=Swarm and Evolutionary Computation |date=June 2017 |volume=34 |pages=50–67 |doi=10.1016/j.swevo.2016.12.002 |hdl=2086/13102 |hdl-access=free }}</ref><ref>{{cite book |doi=10.1109/CIBCB.2017.8058553 |chapter=Multi-objective evolution of artificial neural networks in multi-class medical diagnosis problems with class imbalance |title=2017 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB) |year=2017 |last1=Shenfield |first1=Alex |last2=Rostami |first2=Shahin |pages=1–8 |isbn=978-1-4673-8988-4 |s2cid=22674515 |chapter-url=http://eprints.bournemouth.ac.uk/29999/1/CIBCB2017_fetal.pdf }}</ref>
|शाहीन रोस्तामी और अन्य द्वारा हाइपरवॉल्यूम सॉर्टेड एडेप्टिव ग्रिड एल्गोरिथम (सीएमए-एचएजीए) के साथ सहप्रसरण मैट्रिक्स अनुकूलन।<ref>{{cite journal |last1=Rostami |first1=Shahin |last2=Neri |first2=Ferrante |title=A fast hypervolume driven selection mechanism for many-objective optimisation problems |journal=Swarm and Evolutionary Computation |date=June 2017 |volume=34 |pages=50–67 |doi=10.1016/j.swevo.2016.12.002 |hdl=2086/13102 |hdl-access=free }}</ref><ref>{{cite book |doi=10.1109/CIBCB.2017.8058553 |chapter=Multi-objective evolution of artificial neural networks in multi-class medical diagnosis problems with class imbalance |title=2017 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB) |year=2017 |last1=Shenfield |first1=Alex |last2=Rostami |first2=Shahin |pages=1–8 |isbn=978-1-4673-8988-4 |s2cid=22674515 |chapter-url=http://eprints.bournemouth.ac.uk/29999/1/CIBCB2017_fetal.pdf }}</ref>
|Direct, includes an [[atavism]] feature which enables traits to disappear and re-appear at different generations.
|डायरेक्ट, में एक एटविज्म सुविधा शामिल है जो लक्षणों को गायब होने और विभिन्न पीढ़ियों में फिर से प्रकट होने में सक्षम बनाती है।
|Multi-Objective [[Evolution strategy|Evolution Strategy]] with [[Preference Articulation]] ([[Computational Steering]])
|प्राथमिकता अभिव्यक्ति के साथ बहुउद्देश्यीय विकास रणनीति (कम्प्यूटेशनल संचालन)
|Structure, weights, and biases.
|संरचना, भार और पूर्वाग्रह।
|}
|}
==यह भी देखें==
==यह भी देखें==
* [[स्वचालित मशीन लर्निंग]] (ऑटोएमएल)
* [[स्वचालित मशीन लर्निंग]] (ऑटोएमएल)
* [[विकासवादी संगणना]]
* [[विकासवादी संगणना]]
* [[ऑगमेंटिंग टोपोलॉजी का न्यूरोइवोल्यूशन]] (NEAT)
* [[ऑगमेंटिंग टोपोलॉजी का न्यूरोइवोल्यूशन|ऑगमेंटिंग टोपोलॉजी का तंत्रिका विकास]] (एनईएटी)
* [[नूजेनेसिस]]
* [[नूजेनेसिस]]
* [[हाइपरनीट]] (NEAT का जनरेटिव संस्करण)
* [[हाइपरनीट]] (एनईएटी का जनरेटिव संस्करण)
* [[तंत्रिका टोपोलॉजी का विकासवादी अधिग्रहण]] (ईएएनटी/ईएएनटी2)
* [[तंत्रिका टोपोलॉजी का विकासवादी अधिग्रहण]] (ईएएनटी/ईएएनटी2)


Line 121: Line 122:
==बाहरी संबंध==
==बाहरी संबंध==
* {{Cite web|url=http://beacon-center.org/blog/2012/08/13/evolution-101-neuroevolution/|title=Evolution 101: Neuroevolution {{!}} BEACON|website=beacon-center.org|language=en-US|access-date=2018-01-14}}
* {{Cite web|url=http://beacon-center.org/blog/2012/08/13/evolution-101-neuroevolution/|title=Evolution 101: Neuroevolution {{!}} BEACON|website=beacon-center.org|language=en-US|access-date=2018-01-14}}
* {{Cite web|url=http://nn.cs.utexas.edu/keyword?neuroevolution|title=NNRG Areas - Neuroevolution|website=nn.cs.utexas.edu|publisher=University of Texas |access-date=2018-01-14}} (has downloadable papers on NEAT and applications)
* {{Cite web|url=http://nn.cs.utexas.edu/keyword?neuroevolution|title=NNRG Areas - Neuroevolution|website=nn.cs.utexas.edu|publisher=University of Texas |access-date=2018-01-14}} (has downloadable papers on एनईएटी and applications)
* {{Cite web|url=http://sharpneat.sourceforge.net/|title=SharpNEAT Neuroevolution Framework|website=sharpneat.sourceforge.net|language=en|access-date=2018-01-14}} mature [[Open Source]] neuroevolution project implemented in C#/.Net.
* {{Cite web|url=http://sharpneat.sourceforge.net/|title=SharpNEAT Neuroevolution Framework|website=sharpneat.sourceforge.net|language=en|access-date=2018-01-14}} mature [[Open Source]] neuroevolution project implemented in C#/.Net.
* [http://ANNEvolve.sourceforge.net ANNEvolve is an Open Source AI Research Project] (Downloadable source code in C and Python with a tutorial & miscellaneous writings and illustrations
* [http://ANNEvolve.sourceforge.net ANNEvolve is an Open Source AI Research Project] (Downloadable source code in C and Python with a tutorial & miscellaneous writings and illustrations
Line 128: Line 129:
* {{Cite web|url=https://github.com/CorticalComputer|title=CorticalComputer (Gene)|website=GitHub|access-date=2018-01-14}} Source code for the DXNN Neuroevolutionary system.
* {{Cite web|url=https://github.com/CorticalComputer|title=CorticalComputer (Gene)|website=GitHub|access-date=2018-01-14}} Source code for the DXNN Neuroevolutionary system.
* {{Cite web|url=http://eplex.cs.ucf.edu/ESHyperNEAT|title=ES-HyperNEAT Users Page|website=eplex.cs.ucf.edu|language=en|access-date=2018-01-14}}
* {{Cite web|url=http://eplex.cs.ucf.edu/ESHyperNEAT|title=ES-HyperNEAT Users Page|website=eplex.cs.ucf.edu|language=en|access-date=2018-01-14}}
[[Category: विकासवादी एल्गोरिदम]] [[Category: कृत्रिम तंत्रिका प्रसार]]


[[Category: Machine Translated Page]]
[[Category:Articles with hatnote templates targeting a nonexistent page]]
[[Category:CS1 English-language sources (en)]]
[[Category:Created On 25/07/2023]]
[[Category:Created On 25/07/2023]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:कृत्रिम तंत्रिका प्रसार]]
[[Category:विकासवादी एल्गोरिदम]]

Latest revision as of 10:03, 23 August 2023

तंत्रिका विकास या न्यूरो-इवोल्यूशन, कृत्रिम बुद्धिमत्ता (आर्टिफीशियल इंटीलिजेंस) का ऐसा रूप है, जो कृत्रिम तंत्रिका नेटवर्क (एएनएन), पैरामीटर और इसके विभिन्न नियमों को उत्पन्न करने के लिए विकासवादी कलन विधि का उपयोग करता है।[1] इसका प्रयोग सबसे अधिक कृत्रिम जीवन, सामान्य खेल-कूद में और इसी के साथ ही विकासवादी रोबोटिक्स किया जाता है।[2] इसका मुख्य लाभ यह है कि तंत्रिका विकास को पर्यवेक्षित शिक्षण की तुलना में अधिक व्यापक रूप से लागू किया जा सकता है, जिसके लिए सही इनपुट-आउटपुट जोड़े के पाठ्यक्रम की आवश्यकता होती है। इसके विपरीत, तंत्रिका विकास को किसी कार्य में नेटवर्क के प्रदर्शन को मापने की आवश्यकता होती है। उदाहरण के लिए, किसी खेल के परिणाम अर्ताथ, चाहे खिलाड़ी जीत रहा हो या हार रहा हो इसके वांछित रणनीतियों के लेबल वाले उदाहरण प्रदान किए बिना सरलता से मापा जा सकता है। इस प्रकार तंत्रिका विकास का उपयोग सामान्यतः सुदृढीकरण सीखने के प्रतिमान के इस भाग के रूप में उपयोग किया जाता है, और इसकी तुलना पारंपरिक गहन शिक्षण तकनीकों से की जा सकती है जो निश्चित टोपोलॉजी के साथ तंत्रिका नेटवर्क पर ढतले हुआ वंशाशैली का उपयोग करते हैं।

सुविधाएँ

इस प्रकार की कई तंत्रिकाओं के विकास में उपयोग की जाने वाली कलन विधि को परिभाषित किया गया है। जिसे सामान्य रूप से इनके बीचे के अंतर के आधार पर उन कलन विधि के बीच में इंगित करते है, जो निश्चित नेटवर्क टोपोलॉजी जिसे पारंपरिक तंत्रिका विकास कहा जाता है, जिसके लिए केवल कनेक्शन वेट की शक्ति को विकसित करते हैं, और इस कलन विधि के लिए जो नेटवर्क की टोपोलॉजी और उसके भार के अनुसार किसी टोपोलॉजी और वेट इवॉल्विंग आर्टिफिशियल न्यूरल नेटवर्क कलन विधि के लिए ट्विआंस कहा जाता है, जिसे दोनों के लिए विकसित करते हैं।

इन विधियों के बीच अलग से अंतर किया जा सकता है, जो एएनएन की संरचना को उसके मापदंडों के समानांतर विकसित करते हैं, जो इस प्रकार के विभिन्न मानकों वाले विकासवादी कलन विधि को लागू करते हैं और जो उन्हें अलग से विकसित करते हैं, इस प्रकार मेमेटिक कलन विधि के माध्यम से इसे प्रदर्शित किया जाता हैं।[3]

ग्रेडिएंट डिसेंट की तुलना

अधिकांश तंत्रिका नेटवर्क तंत्रिका विकास के अतिरिक्त ग्रेडिएंट डिसेंट का उपयोग करते हैं। चूंकि, 2017 के आसपास के समय में उबेर के शोधकर्ताओं ने कहा कि उन्होंने पाया है कि सरल संरचनात्मक तंत्रिका विकास कलन विधि परिष्कृत आधुनिक उद्योग-मानक ग्रेडिएंट-डिसेंट ध्यान लगा के पढ़ना या सीखना मुख्य रूप से कलन विधि के साथ प्रतिस्पर्धी थे, जिसके आधार पर आंशिक रूप से इस प्रकार तंत्रिका विकास के स्थानीय मिनीमा में फंसने की संभावना कम पाई गई थी। विज्ञान की पत्रिकाओं में पत्रकार मैथ्यू हटसन ने अनुमान लगाया कि तंत्रिका विकास के सफल होने का कारण जहां यह पहले विफल हो गया था वह 2010 के दशक में उपलब्ध कम्प्यूटेशनल शक्ति में वृद्धि के कारण है।[4]

यह दिखाया जा सकता है कि तंत्रिका विकास और ग्रेडिएंट डिसेंट के बीच का पत्राचार है।[5]

प्रत्यक्ष और अप्रत्यक्ष एन्कोडिंग

विकासवादी कलन विधि जीनोटाइप जिन्हें जीनोम भी कहा जाता है, जिसकी आबादी पर कार्य करते हैं। इस प्रकार के तंत्रिका विकास में, जीनोटाइप को तंत्रिका नेटवर्क फेनोटाइप में मैप किया जाता है जिसका मूल्यांकन उसके फिटनेस कार्य को प्राप्त करने के लिए किसी कार्य पर किया जाता है।

प्रत्यक्ष एन्कोडिंग योजनाओं में जीनोटाइप सीधे फेनोटाइप पर मैप होता है। तंत्रिका नेटवर्क में प्रत्येक न्यूरॉन और कनेक्शन सीधे और स्पष्ट रूप से जीनोटाइप में निर्दिष्ट होता है। इसके विपरीत, अप्रत्यक्ष एन्कोडिंग योजनाओं में जीनोटाइप अप्रत्यक्ष रूप से निर्दिष्ट करता है कि नेटवर्क कैसे उत्पन्न किया जाना चाहिए।[6]

अप्रत्यक्ष एन्कोडिंग का उपयोग अधिकांशतः कई उद्देश्यों को प्राप्त करने के लिए किया जाता है:[6][7][8][9][10]

  • मॉड्यूलैरिटी और अन्य नियमितताएं पायी जाती हैं,
  • फेनोटाइप को छोटे जीनोटाइप में संपीड़ित करना, छोटा खोज स्थान प्रदान करना सम्मिलित हैं,
  • खोज स्थान (जीनोम) को समस्या डोमेन पर मैप करना सम्मिलित हैं।

अप्रत्यक्ष एन्कोडिंग के लिए भ्रूणजन्य प्रणालियों का वर्गीकरण

परंपरागत रूप से अप्रत्यक्ष एन्कोडिंग जो कृत्रिम भ्रूणविज्ञान जिसे कृत्रिम विकास के रूप में भी जाना जाता है, जिसको व्याकरणिक दृष्टिकोण बनाम कोशिका रसायन विज्ञान दृष्टिकोण से वर्गीकृत किया गया है।[11] इसके पूर्व व्याकरणिक पुनर्लेखन प्रणालियों के रूप में नियमों के सेट विकसित करता है। इस प्रकार इसके उत्तरार्द्ध समय में यह नकल करने का प्रयास करता है कि जीन अभिव्यक्ति के माध्यम से जीव विज्ञान में भौतिक संरचनाएं कैसे उभरती हैं। इसके आधार पर अप्रत्यक्ष एन्कोडिंग प्रणालियाँ अधिकांशतः दोनों दृष्टिकोणों के पहलुओं का उपयोग करती हैं।

स्टेनली और मिइक्कुलैनेन[11]भ्रूणजन्य प्रणालियों के लिए वर्गीकरण का प्रस्ताव करें जिसका उद्देश्य उनके अंतर्निहित गुणों को प्रतिबिंबित करना है। इस प्रकार के वर्गीकरण को पांच सतत आयामों के साथ पहचाना जाता है, जिसके साथ किसी भी भ्रूणीय प्रणाली को रखा जा सकता है:

  • कोशिका (न्यूरॉन) भाग्य: परिपक्व फेनोटाइप में कोशिका की अंतिम विशेषताएँ और भूमिका हैं। यह आयाम किसी कोशिका के भाग्य का निर्धारण करने के लिए उपयोग की जाने वाली विधियों की संख्या की गणना करता है।
  • लक्ष्यीकरण: वह विधि जिसके द्वारा कनेक्शन को स्रोत कोशिकाओं से लक्ष्य कोशिकाओं तक निर्देशित किया जाता है। यह विशिष्ट लक्ष्यों को भेदने के आधार पर स्रोत और लक्ष्य स्पष्ट रूप से पहचाने जाते हैं, जिससे लेकर सापेक्ष लक्ष्यीकरण को उदाहरण के रूप में दूसरे के सापेक्ष कोशिकाओं के स्थानों के आधार तक सम्मिलित किया जाता है।
  • हेटेरोक्रोनी: भ्रूणजनन के दौरान घटनाओं का समय और घटना क्रम के आधार पर माना जाता हैं। इन घटनाओं के समय के परिवर्तन के लिए तंत्रों की संख्या की गणना करता है।
  • कैनालाइज़ेशन: जीनोम उत्परिवर्तन (भंगुरता) के प्रति कितना सहनशील है। सटीक जीनोटाइपिक निर्देशों की आवश्यकता से लेकर सटीक उत्परिवर्तन की उच्च सहनशीलता तक होती है।
  • जटिलीकरण: समय के साथ जीनोम (और इसलिए फेनोटाइप) के जटिलीकरण की अनुमति देने के लिए सिस्टम की क्षमता को विकासवादी कलन विधि और जीनोटाइप से फेनोटाइप मैपिंग सहित सम्मिलित किया जा सकता हैं। जिसके लिए केवल निश्चित आकार के जीनोम की अनुमति देने से लेकर अत्यधिक परिवर्तनशील लंबाई वाले जीनोम की अनुमति देने तक अभिव्यक्त किया जाता हैं।

उदाहरण

तंत्रिका विकास विधियों के उदाहरण (प्रत्यक्ष एन्कोडिंग वाले आवश्यक रूप से गैर-भ्रूणजनित होते हैं):

विधि एनकोडिंग विकासवादी कलन विधि विकसित पहलू
ई. रोनाल्ड द्वारा न्यूरो-जेनेटिक इवोल्यूशन, 1994[12] प्रत्यक्ष जेनेटिक एल्गोरिद्म नेटवर्क भार
एफ. ग्रुउ द्वारा सेल्युलर एनकोडिंग (सीई), 1994[8] अप्रत्यक्ष, भ्रूणजन्य (एस-अभिव्यक्तियों का उपयोग करके व्याकरण वृक्ष) आनुवंशिक प्रोग्रामिंग संरचना और पैरामीटर (एक साथ, जटिलता)
एंजेलिन एट अल द्वारा जीएनएआरएल, 1994[13] प्रत्यक्ष विकासवादी प्रोग्रामिंग संरचना और पैरामीटर (एक साथ, जटिलता)
याओ और लियू द्वारा ईपीनेट, 1997[14] प्रत्यक्ष विकासवादी प्रोग्रामिंग (बैकप्रॉपैगेशन और सिम्युलेटेड एनीलिंग के साथ संयुक्त) संरचना और पैरामीटर (मिश्रित, जटिलता और सरलीकरण)
स्टेनली और मिइक्कुलैनेन द्वारा न्यूरोइवोल्यूशन ऑफ़ ऑगमेंटिंग टोपोलॉजीज़ (एनईएटी), 2002[15][16] प्रत्यक्ष जेनेटिक एल्गोरिद्म जिसके लिए विभिन्न टोपोलॉजी के बीच क्रॉसओवर की अनुमति देने के लिए ऐतिहासिक चिह्नों के साथ जीन को ट्रैक करता है, प्रजातिकरण के माध्यम से नवाचार की रक्षा करता है। संरचना और पैरामीटर
हाइपरक्यूब-आधारित न्यूरोइवोल्यूशन ऑफ़ ऑगमेंटिंग टोपोलॉजीज़ (हाइपरएनईएटी) स्टैनली, डी'अम्ब्रोसियो, गौसी द्वारा, 2008[7] प्रत्यक्षतः गैर-भ्रूणजन्य (हाइपरक्यूब के भीतर एक कंपोजिटल पैटर्न-उत्पादक नेटवर्क (सीपीपीएन) द्वारा उत्पन्न स्थानिक पैटर्न को निचले-आयामी स्थान में कनेक्टिविटी पैटर्न के रूप में व्याख्या किया जाता है) जेनेटिक एल्गोरिद्म CPPN को विकसित करने के लिए एनईएटी एल्गोरिथम (ऊपर) का उपयोग किया जाता है। पैरामीटर, संरचना तय (कार्यात्मक रूप से पूरी तरह से जुड़ा हुआ)
रिसी, स्टेनली 2012 द्वारा इवोल्वेबल सब्सट्रेट हाइपरक्यूब-आधारित न्यूरोइवोल्यूशन ऑफ ऑगमेंटिंग टोपोलॉजी (ईएस-हाइपरनीट)[10] प्रत्यक्षतः, गैर-भ्रूणजन्य (हाइपरक्यूब के भीतर एक कंपोजिटल पैटर्न-उत्पादक नेटवर्क (सीपीपीएन) द्वारा उत्पन्न स्थानिक पैटर्न को निचले-आयामी स्थान में कनेक्टिविटी पैटर्न के रूप में व्याख्या किया जाता है) जेनेटिक एल्गोरिद्म। CPPN को विकसित करने के लिए एनईएटी एल्गोरिथम (ऊपर) का उपयोग किया जाता है। पैरामीटर और नेटवर्क संरचना
कसाहुन और सोमर द्वारा तंत्रिका टोपोलॉजी का विकासवादी अधिग्रहण (ईएएनटी/ईएएनटी2), 2005[17] / सीबेल और सोमर, 2007[18] प्रत्यक्ष और अंतःप्रत्यक्ष, संभावित भ्रूणजन्य (सामान्य आनुवंशिक एन्कोडिंग)।[6]) विकासवादी योजनाएं/विकास रणनीतियाँ संरचना और पैरामीटर (अलग से, जटिलता)
रेम्पिस द्वारा इंटरैक्टिवली कॉन्स्ट्रेन्ड न्यूरो-इवोल्यूशन (ICONE), 2012[19] डायरेक्ट, खोज को विशिष्ट टोपोलॉजी/पैरामीटर मैनिफ़ोल्ड तक सीमित करने के लिए बाधा मास्क शामिल करता है। विकासवादी एल्गोरिदम. डोमेन ज्ञान का दोहन करके खोज स्थान को काफी कम करने के लिए बाधा मास्क का उपयोग करता है। संरचना और पैरामीटर (अलग से, जटिलता, इंटरैक्टिव)
जीन शेर द्वारा ड्यूस एक्स न्यूरल नेटवर्क (DXNN), 2012[20] प्रत्यक्ष/प्रत्यक्ष में बाधाएं, स्थानीय ट्यूनिंग शामिल है, और नए सेंसर और एक्चुएटर्स को एकीकृत करने के लिए विकास की अनुमति देता है। मेमेटिक एल्गोरिदम. विभिन्न समय-पैमानों पर नेटवर्क संरचना और पैरामीटर विकसित करता है। संरचना और पैरामीटर (अलग से, जटिलता, इंटरैक्टिव)
स्पेक्ट्रम-विविध एकीकृत न्यूरोएवोल्यूशन आर्किटेक्चर (SUNA) डैनिलो वास्कोनसेलोस वर्गास, जुनिची मुराता द्वारा[21] (कोड डाउनलोड करें) प्रत्यक्ष, एकीकृत तंत्रिका प्रतिनिधित्व (साहित्य से अधिकांश तंत्रिका नेटवर्क सुविधाओं को एकीकृत करने वाला प्रतिनिधित्व) का परिचय देता है। विविधता संरक्षण तंत्र के साथ आनुवंशिक एल्गोरिदम जिसे स्पेक्ट्रम-विविधता कहा जाता है, जो गुणसूत्र आकार के साथ अच्छी तरह से मापता है, समस्या से स्वतंत्र है और उच्च स्तरीय व्यवहार/दृष्टिकोण की विविधता प्राप्त करने पर अधिक ध्यान केंद्रित करता है। इस विविधता को प्राप्त करने के लिए क्रोमोसोम स्पेक्ट्रम की अवधारणा को नवीनता मानचित्र जनसंख्या के साथ पेश और उपयोग किया जाता है। संरचना और पैरामीटर (मिश्रित, जटिलता और सरलीकरण)
क्लिफोर्ड बोहम, अरेंड हिंट्ज़ और अन्य द्वारा मॉड्यूलर एजेंट-आधारित इवोल्वर (एमएबीई)।[22] ([1]कोड डाउनलोड करें) मार्कोव नेटवर्क, न्यूरल नेटवर्क, जेनेटिक प्रोग्रामिंग और अन्य मनमाने ढंग से अनुकूलन योग्य नियंत्रकों की प्रत्यक्ष या अप्रत्यक्ष एन्कोडिंग। विकासवादी एल्गोरिदम, आनुवंशिक प्रोग्रामिंग एल्गोरिदम प्रदान करता है, और मनमानी बाधाओं के विनिर्देशन के साथ-साथ अनुकूलित एल्गोरिदम की अनुमति देता है। विकास योग्य पहलुओं में तंत्रिका मॉडल शामिल है और दूसरों के बीच आकृति विज्ञान और यौन चयन के विकास की अनुमति देता है।
शाहीन रोस्तामी और अन्य द्वारा हाइपरवॉल्यूम सॉर्टेड एडेप्टिव ग्रिड एल्गोरिथम (सीएमए-एचएजीए) के साथ सहप्रसरण मैट्रिक्स अनुकूलन।[23][24] डायरेक्ट, में एक एटविज्म सुविधा शामिल है जो लक्षणों को गायब होने और विभिन्न पीढ़ियों में फिर से प्रकट होने में सक्षम बनाती है। प्राथमिकता अभिव्यक्ति के साथ बहुउद्देश्यीय विकास रणनीति (कम्प्यूटेशनल संचालन) संरचना, भार और पूर्वाग्रह।

यह भी देखें

संदर्भ

  1. Stanley, Kenneth O. (2017-07-13). "Neuroevolution: A different kind of deep learning". O'Reilly Media (in English). Retrieved 2017-09-04.
  2. Risi, Sebastian; Togelius, Julian (2017). "Neuroevolution in Games: State of the Art and Open Challenges". IEEE Transactions on Computational Intelligence and AI in Games. 9: 25–41. arXiv:1410.7326. doi:10.1109/TCIAIG.2015.2494596. S2CID 11245845.
  3. Togelius, Julian; Schaul, Tom; Schmidhuber, Jürgen; Gomez, Faustino (2008). "Countering Poisonous Inputs with Memetic Neuroevolution". Parallel Problem Solving from Nature – PPSN X. Lecture Notes in Computer Science. Vol. 5199. pp. 610–619. doi:10.1007/978-3-540-87700-4_61. ISBN 978-3-540-87699-1.
  4. Hutson, Matthew (11 January 2018). "समस्याओं को हल करने के लिए कृत्रिम बुद्धिमत्ता 'विकसित' हो सकती है". Science. doi:10.1126/science.aas9715.
  5. Whitelam, Stephen; Selin, Viktor; Park, Sang-Won; Tamblyn, Isaac (2 November 2021). "न्यूरोइवोल्यूशन और ग्रेडिएंट डिसेंट के बीच पत्राचार". Nature Communications. 12 (1): 6317. arXiv:2008.06643. Bibcode:2021NatCo..12.6317W. doi:10.1038/s41467-021-26568-2. PMC 8563972. PMID 34728632.
  6. 6.0 6.1 6.2 Kassahun, Yohannes; Sommer, Gerald; Edgington, Mark; Metzen, Jan Hendrik; Kirchner, Frank (2007), "Common genetic encoding for both direct and indirect encodings of networks", Genetic and Evolutionary Computation Conference, ACM Press, pp. 1029–1036, CiteSeerX 10.1.1.159.705
  7. 7.0 7.1 Gauci, Stanley (2007), "Generating Large-Scale Neural Networks Through Discovering Geometric Regularities" (PDF), Genetic and Evolutionary Computation Conference, New York, NY: ACM
  8. 8.0 8.1 Gruau, Frédéric; I, L'universite Claude Bernard-lyon; Doctorat, Of A. Diplome De; Demongeot, M. Jacques; Cosnard, Examinators M. Michel; Mazoyer, M. Jacques; Peretto, M. Pierre; Whitley, M. Darell (1994). सेलुलर एन्कोडिंग और जेनेटिक एल्गोरिदम का उपयोग करके तंत्रिका नेटवर्क संश्लेषण।. CiteSeerX 10.1.1.29.5939.
  9. Clune, J.; Stanley, Kenneth O.; Pennock, R. T.; Ofria, C. (June 2011). "नियमितता के सातत्य में अप्रत्यक्ष एन्कोडिंग के प्रदर्शन पर". IEEE Transactions on Evolutionary Computation. 15 (3): 346–367. CiteSeerX 10.1.1.375.6731. doi:10.1109/TEVC.2010.2104157. ISSN 1089-778X. S2CID 3008628.
  10. 10.0 10.1 Risi, Sebastian; Stanley, Kenneth O. (October 2012). "न्यूरॉन्स के प्लेसमेंट, घनत्व और कनेक्टिविटी को विकसित करने के लिए एक उन्नत हाइपरक्यूब-आधारित एन्कोडिंग". Artificial Life. 18 (4): 331–363. doi:10.1162/ARTL_a_00071. PMID 22938563. S2CID 3256786.
  11. 11.0 11.1 Stanley, Kenneth O.; Miikkulainen, Risto (April 2003). "कृत्रिम भ्रूणजनन के लिए एक वर्गीकरण". Artificial Life. 9 (2): 93–130. doi:10.1162/106454603322221487. PMID 12906725. S2CID 2124332.
  12. Ronald, Edmund; Schoenauer, March (1994), "Genetic Lander: An experiment in accurate neuro-genetic control", PPSN III 1994 Parallel Programming Solving from Nature, pp. 452–461, CiteSeerX 10.1.1.56.3139
  13. Angeline, P.J.; Saunders, G.M.; Pollack, J.B. (January 1994). "An evolutionary algorithm that constructs recurrent neural networks". IEEE Transactions on Neural Networks. 5 (1): 54–65. CiteSeerX 10.1.1.64.1853. doi:10.1109/72.265960. PMID 18267779.
  14. Yao, X.; Liu, Y. (May 1997). "A new evolutionary system for evolving artificial neural networks". IEEE Transactions on Neural Networks. 8 (3): 694–713. doi:10.1109/72.572107. PMID 18255671.
  15. Stanley, Kenneth O.; Bryant, Bobby D.; Miikkulainen, Risto (December 2005). "Real-Time Neuroevolution in the NERO Video Game" (PDF).
  16. Stanley, Kenneth O.; Miikkulainen, Risto (June 2002). "Evolving Neural Networks through Augmenting Topologies". Evolutionary Computation. 10 (2): 99–127. CiteSeerX 10.1.1.638.3910. doi:10.1162/106365602320169811. PMID 12180173. S2CID 498161.
  17. Kassahun, Yohannes; Sommer, Gerald (April 2005), "Efficient reinforcement learning through evolutionary acquisition of neural topologies" (PDF), 13th European Symposium on Artificial Neural Networks, Bruges, Belgium, pp. 259–266{{citation}}: CS1 maint: location missing publisher (link)
  18. Siebel, Nils T.; Sommer, Gerald (17 October 2007). "Evolutionary reinforcement learning of artificial neural networks". International Journal of Hybrid Intelligent Systems. 4 (3): 171–183. doi:10.3233/his-2007-4304.
  19. Rempis, Christian Wilhelm (2012). Evolving Complex Neuro-Controllers with Interactively Constrained Neuro-Evolution (Thesis).
  20. Sher, Gene I. (2013). Handbook of Neuroevolution Through Erlang. doi:10.1007/978-1-4614-4463-3. ISBN 978-1-4614-4462-6. S2CID 21777855.
  21. Vargas, Danilo Vasconcellos; Murata, Junichi (2019). "Spectrum-Diverse Neuroevolution With Unified Neural Models". IEEE Transactions on Neural Networks and Learning Systems. 28 (8): 1759–1773. arXiv:1902.06703. Bibcode:2019arXiv190206703V. doi:10.1109/TNNLS.2016.2551748. PMID 28113564. S2CID 206757620.
  22. Edlund, Jeffrey; Chaumont, Nicolas; Hintze, Arend; Koch, Christof; Tononi, Giulio; Adami, Christoph (2011). "Integrated Information Increases with Fitness in the Evolution of Animats". PLOS Computational Biology. 7 (10): e1002236. arXiv:1103.1791. Bibcode:2011PLSCB...7E2236E. doi:10.1371/journal.pcbi.1002236. PMC 3197648. PMID 22028639.
  23. Rostami, Shahin; Neri, Ferrante (June 2017). "A fast hypervolume driven selection mechanism for many-objective optimisation problems". Swarm and Evolutionary Computation. 34: 50–67. doi:10.1016/j.swevo.2016.12.002. hdl:2086/13102.
  24. Shenfield, Alex; Rostami, Shahin (2017). "Multi-objective evolution of artificial neural networks in multi-class medical diagnosis problems with class imbalance" (PDF). 2017 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB). pp. 1–8. doi:10.1109/CIBCB.2017.8058553. ISBN 978-1-4673-8988-4. S2CID 22674515.

बाहरी संबंध