परसेप्ट्रॉन: Difference between revisions
From Vigyanwiki
No edit summary |
No edit summary |
||
| Line 5: | Line 5: | ||
==इतिहास== | ==इतिहास== | ||
[[File:Mark I perceptron.jpeg|thumb|left|मार्क परसेप्ट्रॉन यंत्र, परसेप्ट्रॉन कलन विधि का पहला कार्यान्वयन। 400-पिक्सेल छवि बनाने के लिए इसे 20×20 [[कैडमियम सल्फाइड]] [[ फोटो सेल ]] वाले कैमरे से जोड़ा गया था। मुख्य दृश्यमान विशेषता एक पैच पैनल है जो इनपुट सुविधाओं के विभिन्न संयोजन समूह करता है। दाईं ओर, [[ तनाव नापने का यंत्र ]] की सरणियाँ जो अनुकूली भार लागू करती | [[File:Mark I perceptron.jpeg|thumb|left|मार्क परसेप्ट्रॉन यंत्र, परसेप्ट्रॉन कलन विधि का पहला कार्यान्वयन। 400-पिक्सेल छवि बनाने के लिए इसे 20×20 [[कैडमियम सल्फाइड]] [[ फोटो सेल |फोटो सेल]] वाले कैमरे से जोड़ा गया था। मुख्य दृश्यमान विशेषता एक पैच पैनल है जो इनपुट सुविधाओं के विभिन्न संयोजन समूह करता है। दाईं ओर, [[ तनाव नापने का यंत्र |तनाव नापने का यंत्र]] की सरणियाँ जो अनुकूली भार लागू करती है।{{r|bishop}}{{rp|213}}|alt=]] | ||
{{see also|कृत्रिम बुद्धिमत्ता का इतिहास#परसेप्ट्रॉन और कनेक्शनवाद पर हमला|एआई विंटर#1969 में कनेक्शनवाद का परित्याग}} | {{see also|कृत्रिम बुद्धिमत्ता का इतिहास#परसेप्ट्रॉन और कनेक्शनवाद पर हमला|एआई विंटर#1969 में कनेक्शनवाद का परित्याग}} | ||
परसेप्ट्रॉन का आविष्कार 1943 में [[वॉरेन मैकुलोच]] और [[वाल्टर पिट्स]] द्वारा किया गया था।<ref>{{cite journal |last1=McCulloch |first1=W |last2=Pitts |first2=W |title=तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना|journal=Bulletin of Mathematical Biophysics |date=1943 |volume=5 |issue=4 |pages=115–133 |doi=10.1007/BF02478259 |url=https://www.bibsonomy.org/bibtex/13e8e0d06f376f3eb95af89d5a2f15957/schaul}}</ref> पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में [[फ्रैंक रोसेनब्लैट]] द्वारा निर्मित एक यंत्र | परसेप्ट्रॉन का आविष्कार 1943 में [[वॉरेन मैकुलोच]] और [[वाल्टर पिट्स]] द्वारा किया गया था।<ref>{{cite journal |last1=McCulloch |first1=W |last2=Pitts |first2=W |title=तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना|journal=Bulletin of Mathematical Biophysics |date=1943 |volume=5 |issue=4 |pages=115–133 |doi=10.1007/BF02478259 |url=https://www.bibsonomy.org/bibtex/13e8e0d06f376f3eb95af89d5a2f15957/schaul}}</ref> पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में [[फ्रैंक रोसेनब्लैट]] द्वारा निर्मित एक यंत्र था,<ref>{{cite journal |last=Rosenblatt |first=Frank |year=1957 |title=The Perceptron—a perceiving and recognizing automaton |journal=Report 85-460-1 |publisher=Cornell Aeronautical Laboratory }}</ref> जिसे संयुक्त राज्य नौसेना अनुसंधान कार्यालय द्वारा वित्त पोषित किया गया था।<ref name="Olazaran">{{cite journal |first=Mikel |last=Olazaran |title=परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन|journal=Social Studies of Science |volume=26 |issue=3 |year=1996 |jstor=285702|doi=10.1177/030631296026003005 |pages=611–659|s2cid=16786738 }}</ref> | ||
[[File:330-PSA-80-60 (USN 710739) (20897323365).jpg|thumb|मार्क 1 परसेप्ट्रॉन का कैमरा प्रणाली।]]परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के | [[File:330-PSA-80-60 (USN 710739) (20897323365).jpg|thumb|मार्क 1 परसेप्ट्रॉन का कैमरा प्रणाली।]]परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के अतिरिक्त एक यंत्र होना था, और जबकि इसका पहला कार्यान्वयन [[आईबीएम 704]] के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस यंत्र को [[छवि पहचान]] के लिए डिज़ाइन किया गया था, इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो यादृच्छिक रूप से न्यूरॉन्स से जुड़ी हुई थी। वजन को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के समय वज़न अपडेट विद्युत मोटर द्वारा किया गया था।<ref name="bishop">{{cite book |first=Christopher M. |last=Bishop |year=2006 |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer |isbn=0-387-31073-8 }}</ref>{{rp|193}} | ||
1958 में अमेरिकी नौसेना द्वारा आयोजित एक | 1958 में अमेरिकी नौसेना द्वारा आयोजित एक पत्रकार सम्मेलन में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में विवरण दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक विवाद उत्पन्न हो गया, रोसेनब्लैट के विवरणों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक विद्युतिए कंप्यूटर का भ्रूण बताया, जिससे नौसेना को उम्मीद थी कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।<ref name="Olazaran"/> | ||
चूँकि परसेप्ट्रोन प्रारंभ में आशाजनक लग रहा था, यह जल्दी ही सिद्ध हो गया कि परसेप्ट्रोन को प्रतिरूप के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका संजाल अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक [[फीडफॉरवर्ड न्यूरल नेटवर्क|फीडफॉरवर्ड न्यूरल संजाल]] (जिसे [[मल्टीलेयर परसेप्ट्रॉन|बहुपरत परसेप्ट्रॉन]] भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण ऊर्जा होती है। | |||
एकल बहुपरत परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य प्रतिरूप सीखने में सक्षम होता है।<ref name="Sejnowski">{{Cite book |last=Sejnowski |first=Terrence J.|author-link=Terry Sejnowski|url=https://books.google.com/books?id=9xZxDwAAQBAJ |title=गहन शिक्षण क्रांति|date=2018|publisher=MIT Press |isbn=978-0-262-03803-4 |language=en|page=47}}</ref> कुछ चरण सक्रियण फ़ंक्शन के साथ वर्गीकरण कार्य के लिए, एक एकल नोड में प्रतिरूप बनाने वाले डेटा बिंदुओं को विभाजित करने वाली एक एकल रेखा होती है। अधिक नोड्स अधिक विभाजन रेखाएँ बना सकती है, लेकिन अधिक जटिल वर्गीकरण बनाने के लिए उन रेखाओं को संयोजित करना होता है। परसेप्ट्रॉन की दूसरी परत, या यहां तक कि रैखिक नोड्स, कई अन्यथा गैर-वियोज्य समस्याओं को हल करने के लिए पर्याप्त होता है। | |||
1969 में, [[मार्विन मिंस्की]] और [[सेमुर पैपर्ट]] की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि | 1969 में, [[मार्विन मिंस्की]] और [[सेमुर पैपर्ट]] की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि संजाल के इन वर्गों के लिए [[XOR|एक्सओआर]] फ़ंक्शन सीखना असंभव था। उन्होंने यह अनुमान लगाया कि एक समान परिणाम बहुपरत परसेप्ट्रॉन संजाल के लिए होता है। चूँकि, यह सच नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि बहुपरत परसेप्ट्रॉन एक्सओआर फ़ंक्शन का उत्पादन करने में सक्षम थे। (अधिक जानकारी के लिए [[परसेप्ट्रॉन (पुस्तक)]] पर पेज देखें।) फिर भी, अधिकांशतः गलत विधि से प्रचारित किए जाने वाले मिन्स्की/पेपर [[तंत्रिका नेटवर्क|तंत्रिका संजाल]] अनुसंधान की रुचि और वित्त पोषण में महत्वपूर्ण गिरावट का कारण बना था। 1980 के दशक में तंत्रिका संजाल अनुसंधान के पुनरुत्थान का अनुभव होने में दस साल और लग गए।<ref name="Sejnowski"/> इस पाठ को 1987 में परसेप्ट्रॉन - विस्तारित संस्करण के रूप में पुनर्मुद्रित किया गया था जहां मूल पाठ में कुछ त्रुटियां दिखाई गई है और उन्हें ठीक किया गया है। | ||
2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी | 2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी यूएस [[ राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र |राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र]] प्रयास का हिस्सा थे।<ref>{{Cite journal |last=O’Connor |first=Jack |date=2022-06-21 |title=Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery |url=https://www.tandfonline.com/doi/full/10.1080/08850607.2022.2073542 |journal=International Journal of Intelligence and CounterIntelligence |language=en |pages=1–15 |doi=10.1080/08850607.2022.2073542 |s2cid=249946000 |issn=0885-0607}}</ref> | ||
[[कर्नेल परसेप्ट्रॉन]] कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा | |||
परसेप्ट्रॉन एक जैविक [[न्यूरॉन]] का एक सरलीकृत | [[कर्नेल परसेप्ट्रॉन]] कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा प्रस्तुत किया गया था।<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव|journal=Automation and Remote Control |volume=25 |pages=821–837 }}</ref> सामान्य गैर-वियोज्य स्थिति में परसेप्ट्रॉन कलन विधि के लिए सीमा सीमा की गारंटी सबसे पहले [[योव दोस्त]] और [[रॉबर्ट शापिरे]] (1998) द्वारा दी गई थी।<ref name="largemargin">{{Cite journal |doi=10.1023/A:1007662407062 |year=1999 |title=परसेप्ट्रॉन एल्गोरिथम का उपयोग करके बड़े मार्जिन का वर्गीकरण|last1=Freund |first1=Y. |author-link1=Yoav Freund |journal=[[Machine Learning (journal)|Machine Learning]] |volume=37 |issue=3 |pages=277–296 |last2=Schapire |first2=R. E. |s2cid=5885617 |author-link2=Robert Schapire |url=http://cseweb.ucsd.edu/~yfreund/papers/LargeMarginsUsingPerceptron.pdf|doi-access=free }}</ref><ref>{{cite arXiv |last1=Mohri |first1=Mehryar |last2=Rostamizadeh |first2=Afshin |title=परसेप्ट्रॉन गलती सीमा|eprint=1305.0208 |year=2013 |class=cs.LG }}</ref> | ||
परसेप्ट्रॉन एक जैविक [[न्यूरॉन]] का एक सरलीकृत नमूना है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अधिकांशतः [[जैविक न्यूरॉन मॉडल|जैविक न्यूरॉन नमूना]] की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक नमूना वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।<ref>{{cite journal |last1=Cash |first1=Sydney |first2=Rafael |last2=Yuste |title=CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग|journal=[[Neuron (journal)|Neuron]] |volume=22 |issue=2 |year=1999 |pages=383–394 |doi=10.1016/S0896-6273(00)81098-3 |pmid=10069343 |doi-access=free }}</ref> | |||
== परिभाषा == | == परिभाषा == | ||
आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि है जिसे रैखिक वर्गीकरण | आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि होती है जिसे रैखिक वर्गीकरण परिभाषा कहा जाता है: एक फ़ंक्शन जो इसके इनपुट को अंकित करता है <math>\mathbf{x}</math> (एक वास्तविक-मूल्यवान [[सदिश स्थल]]) एक आउटपुट मान के लिए <math>f(\mathbf{x})</math> (एकल [[बाइनरी फ़ंक्शन|द्विआधारी फ़ंक्शन]] मान): | ||
:<math> | :<math> | ||
| Line 29: | Line 31: | ||
जहाँ <math>\mathbf{w}</math> वास्तविक-मूल्यवान भार का एक वेक्टर है, <math>\mathbf{w} \cdot \mathbf{x}</math> [[डॉट उत्पाद]] है <math>\sum_{i=1}^m w_i x_i</math>, जहाँ {{mvar|m}} परसेप्ट्रॉन में इनपुट की संख्या है, और {{mvar|b}} पूर्वाग्रह है. पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है। | जहाँ <math>\mathbf{w}</math> वास्तविक-मूल्यवान भार का एक वेक्टर है, <math>\mathbf{w} \cdot \mathbf{x}</math> [[डॉट उत्पाद]] है <math>\sum_{i=1}^m w_i x_i</math>, जहाँ {{mvar|m}} परसेप्ट्रॉन में इनपुट की संख्या है, और {{mvar|b}} पूर्वाग्रह है. पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है। | ||
मान <math>f(\mathbf{x})</math> (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है <math>\mathbf{x}</math> द्विआधारी वर्गीकरण समस्या के स्थिति में, सकारात्मक या नकारात्मक उदाहरण के रूप में होता है। यदि {{mvar|b}} नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होता है <math>|b|</math> वर्गीकारक न्यूरॉन को 0 सीमा से ऊपर धकेलता है। स्थानिक रूप से, पूर्वाग्रह [[निर्णय सीमा]] की स्थिति को बदल देता है। यदि अधिगम समूह रैखिक रूप से अलग करने योग्य नहीं होता है तो परसेप्ट्रॉन अधिगम कलन विधि समाप्त नहीं होती है। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन [[एकमात्र]] समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।<ref>{{cite book |last1=Liou |first1=D.-R. |last2=Liou |first2=J.-W. |last3=Liou |first3=C.-Y. |title=परसेप्ट्रॉन का व्यवहार सीखना|isbn=978-1-477554-73-9 |publisher=iConcept Press |year=2013}}</ref> | |||
तंत्रिका | |||
तंत्रिका संजाल के संदर्भ में, एक परसेप्ट्रॉन एक [[कृत्रिम न्यूरॉन]] होता है जो सक्रियण फ़ंक्शन के रूप में [[हेविसाइड स्टेप फ़ंक्शन]] का उपयोग करता है। परसेप्ट्रॉन कलन विधि को बहुपरत परसेप्ट्रॉन से अलग करने के लिए एकल बहुपरत परसेप्ट्रॉन भी कहा जाता है। एक रैखिक वर्गीकारक के रूप में, एकल बहुपरत परसेप्ट्रॉन सबसे सरल फीडफॉरवर्ड न्यूरल संजाल होता है। | |||
== | ==अधिगम कलन विधि== | ||
नीचे | नीचे एकल बहुपरत परसेप्ट्रॉन के लिए सीखने के कलन विधि का एक उदाहरण दिया गया है। बहुपरत परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत उपस्थित होती है, [[पश्चप्रचार]] जैसे अधिक परिष्कृत कलन विधि का उपयोग किया जाता है। यदि सक्रियण फ़ंक्शन या परसेप्ट्रॉन द्वारा की जा रही अंतर्निहित प्रक्रिया गैर रैखिक प्रणाली होती है, तो वैकल्पिक शिक्षण कलन विधि जैसे [[डेल्टा नियम]] का उपयोग किया जाता है। फिर भी, नीचे दिए गए चरणों में वर्णित शिक्षण कलन विधि अधिकांशतः काम करती है, यहां तक कि गैर-रेखीय सक्रियण कार्यों वाले बहुपरत परसेप्ट्रोन के लिए भी काम करती है। | ||
जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका | जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका संजाल में संयुक्त होता है, तो प्रत्येक आउटपुट न्यूरॉन अन्य सभी से स्वतंत्र रूप से संचालित होते है, इस प्रकार, प्रत्येक आउटपुट को सीखने पर अलगाव में विचार किया जा सकता है। | ||
=== परिभाषाएँ === | === परिभाषाएँ === | ||
हम पहले कुछ चर परिभाषित करते | हम पहले कुछ चर परिभाषित करते है: | ||
* | *r परसेप्ट्रॉन सीखने की दर है। सीखने की दर 0 और 1 के बीच है। बड़े मान वजन परिवर्तन को अधिक अस्थिर बनाते है। | ||
*<math>y = f(\mathbf{z}) </math> इनपुट वेक्टर के लिए परसेप्ट्रॉन से आउटपुट को दर्शाता है <math>\mathbf{z}</math>. | *<math>y = f(\mathbf{z}) </math> इनपुट वेक्टर के लिए परसेप्ट्रॉन से आउटपुट को दर्शाता है <math>\mathbf{z}</math>. | ||
*<math>D = \{(\mathbf{x}_1,d_1),\dots,(\mathbf{x}_s,d_s)\} </math> का प्रशिक्षण समूह है <math>s</math> | *<math>D = \{(\mathbf{x}_1,d_1),\dots,(\mathbf{x}_s,d_s)\} </math> का प्रशिक्षण समूह है <math>s</math>, जहाँ: | ||
** <math>\mathbf{x}_j</math> है <math>n</math>-आयामी इनपुट वेक्टर | ** <math>\mathbf{x}_j</math> है <math>n</math>-आयामी इनपुट वेक्टर है | ||
** <math>d_j </math> उस इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है। | ** <math>d_j </math> उस इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है। | ||
हम सुविधाओं के मान इस प्रकार दिखाते | हम सुविधाओं के मान इस प्रकार दिखाते है: | ||
*<math>x_{j,i} </math> का मान है <math>i</math>की विशेषता <math>j</math> | *<math>x_{j,i} </math> का मान है <math>i</math> की विशेषता <math>j</math> वह प्रशिक्षण इनपुट वेक्टर है | ||
*<math>x_{j,0} = 1 </math>. | *<math>x_{j,0} = 1 </math>. | ||
वज़न दर्शाने के लिए: | वज़न दर्शाने के लिए: | ||
*<math>w_i </math> | *<math>w_i </math>वज़न वेक्टर में मान को, <math>i</math> के मान से गुणा किया जाता है | ||
*क्योंकि <math>x_{j,0} = 1 </math>, | *क्योंकि <math>x_{j,0} = 1 </math>, <math>w_0 </math> प्रभावी रूप से एक पूर्वाग्रह होता है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के अतिरिक्त करते है <math>b</math>. | ||
समय-निर्भरता दर्शाने के लिए है <math>\mathbf{w}</math>, हम उपयोग करते है: | |||
*<math>w_i(t) </math> वजन है <math>i</math> समय | *<math>w_i(t) </math> वजन है <math>i</math> समय है <math>t</math> | ||
=== चरण === | === चरण === | ||
| Line 69: | Line 72: | ||
| For [[offline learning]], the second step may be repeated until the iteration error <math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math> is less than a user-specified error threshold <math>\gamma </math>, or a predetermined number of iterations have been completed, where ''s'' is again the size of the sample set. | | For [[offline learning]], the second step may be repeated until the iteration error <math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math> is less than a user-specified error threshold <math>\gamma </math>, or a predetermined number of iterations have been completed, where ''s'' is again the size of the sample set. | ||
}} | }} | ||
कलन विधि चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अपडेट करता है। | |||
[[File:Perceptron example.svg|500px|thumb |right|अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है]] | [[File:Perceptron example.svg|500px|thumb |right|अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है]] | ||
[[Image:Perceptron.svg|right|thumb|500px|उचित भार इनपुट पर लागू होते | [[Image:Perceptron.svg|right|thumb|500px|उचित भार इनपुट पर लागू होते है, और परिणामी भारित योग एक फ़ंक्शन को पास कर दिया जाता है जो आउटपुट ओ उत्पन्न करता है।]] | ||
===अभिसरण=== | ===अभिसरण=== | ||
परसेप्ट्रॉन एक रैखिक वर्गीकारक है, इसलिए यदि प्रशिक्षण समूह सही | परसेप्ट्रॉन एक रैखिक वर्गीकारक होता है, इसलिए यदि प्रशिक्षण समूह सही तरह से वर्गीकृत किया गया है तो यह कभी भी सभी इनपुट वैक्टर के साथ सीमा तक नहीं पहुँचता है {{mvar|D}} रैखिक रूप से अलग करने योग्य नहीं होता है, अर्थात यदि सकारात्मक उदाहरणों को हाइपरप्लेन द्वारा नकारात्मक उदाहरणों से अलग नहीं किया जा सकता है। इस स्थिति में, मानक शिक्षण कलन विधि के अनुसार धीरे-धीरे कोई अनुमानित समाधान नहीं निकाला जाता है, जबकि इसके अतिरिक्त, सीखना पूरी तरह से विफल हो जाता है। इसलिए, यदि प्रशिक्षण समूह की रैखिक पृथक्करण प्राथमिकता से ज्ञात नहीं होता है, तो नीचे दिए गए प्रशिक्षण प्रकारों में से एक का उपयोग किया जाता है। | ||
यदि प्रशिक्षण समूह रैखिक रूप से अलग करने योग्य है, तो परसेप्ट्रॉन के अभिसरण की जिम्मेदारी होती है।<ref>{{Cite journal|last=Novikoff|first=Albert J.|date=1963|title=परसेप्ट्रॉन के लिए अभिसरण प्रमाण पर|journal=Office of Naval Research}}</ref> इसके अतिरिक्त, प्रशिक्षण के समय परसेप्ट्रॉन अपने वजन को कितनी बार समायोजित करता है इसकी एक ऊपरी सीमा होती है। | |||
मान लेते है कि दो वर्गों के इनपुट वैक्टर को एक सीमा के साथ हाइपरप्लेन द्वारा अलग किया जाता है <math>\gamma </math>, अर्थात एक वजन वेक्टर उपस्थित है <math>\mathbf{w}, ||\mathbf{w}||=1</math>, और एक पूर्वाग्रह शब्द {{mvar|b}} ऐसा है कि <math>\mathbf{w}\cdot\mathbf{x}_j > \gamma </math> सभी के लिए <math>j</math> साथ <math>d_j=1</math> और <math>\mathbf{w}\cdot\mathbf{x}_j < -\gamma </math> सभी के लिए <math>j</math> साथ <math>d_j=0</math>, जहाँ <math>d_j</math> इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है <math>j</math>. और {{mvar|R}} किसी इनपुट वेक्टर के अधिकतम मानदंड को निरूपित करता है। नोविकॉफ (1962) ने सिद्ध किया कि इस स्थिति में परसेप्ट्रॉन कलन विधि बनाने के बाद अभिसरण करता है <math>O(R^2/\gamma^2)</math> अद्यतन. प्रमाण का विचार यह है कि वजन वेक्टर को हमेशा एक सीमाबद्ध द्वारा उस दिशा में समायोजित किया जाता है जिसके साथ इसका नकारात्मक डॉट उत्पाद होता है, और इस प्रकार इसे ऊपर से सीमित किया जा सकता है {{math|''O''({{sqrt|''t''}})}}, जहाँ {{mvar|t}} भार वेक्टर में परिवर्तनों की संख्या है। चूँकि, इसे नीचे भी सीमित किया जा सकता है {{math|''O''(''t'')}} क्योंकि यदि कोई (अज्ञात) संतोषजनक भार वेक्टर उपस्थित है, तो प्रत्येक परिवर्तन इस (अज्ञात) दिशा में सकारात्मक मात्रा में प्रगति करता है जो केवल इनपुट वेक्टर पर निर्भर करता है। | |||
[[File:Perceptron cant choose.svg|thumb|300px|बिंदुओं के दो वर्ग, और दो अनंत रैखिक सीमाएँ जो उन्हें अलग करती है। यदि सीमाएँ एक दूसरे से लगभग समकोण पर है, परसेप्ट्रॉन कलन विधि के पास उनके बीच चयन करने का कोई विधि नहीं होती है।]]जबकि परसेप्ट्रॉन कलन विधि को रैखिक रूप से अलग किए जाने योग्य प्रशिक्षण समूह के स्थिति में कुछ समाधान पर एकत्रित होने की जिम्मेदारी दी जाती है, फिर भी यह कोई भी समाधान चुन सकता है और समस्याएं अलग-अलग गुणवत्ता के कई समाधान स्वीकार कर सकती है।<ref>{{cite book |last=Bishop |first=Christopher M |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer Science+Business Media, LLC |isbn=978-0387-31073-2 |chapter=Chapter 4. Linear Models for Classification |pages=194|date=2006-08-17 }}</ref> इष्टतम स्थिरता का परसेप्ट्रॉन, जिसे आजकल रैखिक [[ समर्थन वेक्टर यंत्र |समर्थन वेक्टर यंत्र]] के रूप में जाना जाता है, इस समस्या को हल करने के लिए डिज़ाइन किया गया था।<ref name="KrauthMezard87">{{cite journal |first1=W. |last1=Krauth |first2=M. |last2=Mezard |title=तंत्रिका नेटवर्क में इष्टतम स्थिरता के साथ लर्निंग एल्गोरिदम|journal=Journal of Physics A: Mathematical and General |volume=20 |issue= 11|pages=L745–L752 |year=1987 |doi=10.1088/0305-4470/20/11/013 |bibcode=1987JPhA...20L.745K }}</ref> | |||
== प्रकार == | |||
पॉकेट कलन विधि (गैलेंट, 1990) परसेप्ट्रॉन सीखने की | |||