परसेप्ट्रॉन: Difference between revisions
No edit summary |
No edit summary |
||
| Line 2: | Line 2: | ||
{{Redirect|परसेप्ट्रॉन|1969 की पुस्तक|परसेप्ट्रॉन (पुस्तक)}} | {{Redirect|परसेप्ट्रॉन|1969 की पुस्तक|परसेप्ट्रॉन (पुस्तक)}} | ||
{{Machine learning|पर्यवेक्षित अध्ययन}} | {{Machine learning|पर्यवेक्षित अध्ययन}} | ||
[[ यंत्र अधिगम |यंत्र अधिगम]] में, '''परसेप्ट्रॉन''' (या मैककुलोच-पिट्स न्यूरॉन) द्विआधारी वर्गीकरण के [[पर्यवेक्षित वर्गीकरण|पर्यवेक्षित]] [[पर्यवेक्षित वर्गीकरण|वर्गीकरण]] के लिए एक कलन विधि होती है। [[द्विआधारी वर्गीकरण]] एक | [[ यंत्र अधिगम |यंत्र अधिगम]] में, '''परसेप्ट्रॉन''' (या मैककुलोच-पिट्स न्यूरॉन) द्विआधारी वर्गीकरण के [[पर्यवेक्षित वर्गीकरण|पर्यवेक्षित]] [[पर्यवेक्षित वर्गीकरण|वर्गीकरण]] के लिए एक कलन विधि होती है। [[द्विआधारी वर्गीकरण]] एक फंक्शन होता है जो यह निर्धारित कर सकता है कि संख्याओं के वेक्टर द्वारा दर्शाया गया इनपुट किसी विशिष्ट वर्ग से संबंधित है या संबंधित नहीं है।{{r|largemargin}} यह एक प्रकार का [[ रैखिक वर्गीकारक |रैखिक वर्गीकारक]] होता है, अर्थात एक वर्गीकरण कलन विधि जो [[ फ़ीचर वेक्टर |विशेष वेक्टर]] के साथ वजन के एक समूह को मिलाकर एक [[रैखिक भविष्यवक्ता फ़ंक्शन|रैखिक भविष्यवक्ता फंक्शन]] के आधार पर अपनी भविष्यवाणियां करता है।ka | ||
==इतिहास== | ==इतिहास== | ||
| Line 8: | Line 8: | ||
{{see also|कृत्रिम बुद्धिमत्ता का इतिहास#परसेप्ट्रॉन और कनेक्शनवाद पर आक्रमण|एआई विंटर#1969 में कनेक्शनवाद का परित्याग}} | {{see also|कृत्रिम बुद्धिमत्ता का इतिहास#परसेप्ट्रॉन और कनेक्शनवाद पर आक्रमण|एआई विंटर#1969 में कनेक्शनवाद का परित्याग}} | ||
परसेप्ट्रॉन का आविष्कार 1943 में [[वॉरेन मैकुलोच]] और [[वाल्टर पिट्स]] द्वारा किया गया था।<ref>{{cite journal |last1=McCulloch |first1=W |last2=Pitts |first2=W |title=तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना|journal=Bulletin of Mathematical Biophysics |date=1943 |volume=5 |issue=4 |pages=115–133 |doi=10.1007/BF02478259 |url=https://www.bibsonomy.org/bibtex/13e8e0d06f376f3eb95af89d5a2f15957/schaul}}</ref> पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में [[फ्रैंक रोसेनब्लैट]] द्वारा निर्मित एक यंत्र था,<ref>{{cite journal |last=Rosenblatt |first=Frank |year=1957 |title=The Perceptron—a perceiving and recognizing automaton |journal=Report 85-460-1 |publisher=Cornell Aeronautical Laboratory }}</ref> जिसे संयुक्त राज्य नौसेना अनुसंधान कार्यालय द्वारा वित्त पोषित किया गया था।<ref name="Olazaran">{{cite journal |first=Mikel |last=Olazaran |title=परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन|journal=Social Studies of Science |volume=26 |issue=3 |year=1996 |jstor=285702|doi=10.1177/030631296026003005 |pages=611–659|s2cid=16786738 }}</ref> | परसेप्ट्रॉन का आविष्कार 1943 में [[वॉरेन मैकुलोच]] और [[वाल्टर पिट्स]] द्वारा किया गया था।<ref>{{cite journal |last1=McCulloch |first1=W |last2=Pitts |first2=W |title=तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना|journal=Bulletin of Mathematical Biophysics |date=1943 |volume=5 |issue=4 |pages=115–133 |doi=10.1007/BF02478259 |url=https://www.bibsonomy.org/bibtex/13e8e0d06f376f3eb95af89d5a2f15957/schaul}}</ref> पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में [[फ्रैंक रोसेनब्लैट]] द्वारा निर्मित एक यंत्र था,<ref>{{cite journal |last=Rosenblatt |first=Frank |year=1957 |title=The Perceptron—a perceiving and recognizing automaton |journal=Report 85-460-1 |publisher=Cornell Aeronautical Laboratory }}</ref> जिसे संयुक्त राज्य नौसेना अनुसंधान कार्यालय द्वारा वित्त पोषित किया गया था।<ref name="Olazaran">{{cite journal |first=Mikel |last=Olazaran |title=परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन|journal=Social Studies of Science |volume=26 |issue=3 |year=1996 |jstor=285702|doi=10.1177/030631296026003005 |pages=611–659|s2cid=16786738 }}</ref> | ||
[[File:330-PSA-80-60 (USN 710739) (20897323365).jpg|thumb|मार्क 1 परसेप्ट्रॉन का कैमरा प्रणाली।]]परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के अतिरिक्त एक यंत्र होना था, और जबकि इसका पहला कार्यान्वयन [[आईबीएम 704]] के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस यंत्र को [[छवि पहचान]] के लिए डिज़ाइन किया गया था, इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो यादृच्छिक रूप से न्यूरॉन्स से जुड़ी हुई थी। वजन को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के समय | [[File:330-PSA-80-60 (USN 710739) (20897323365).jpg|thumb|मार्क 1 परसेप्ट्रॉन का कैमरा प्रणाली।]]परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के अतिरिक्त एक यंत्र होना था, और जबकि इसका पहला कार्यान्वयन [[आईबीएम 704]] के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस यंत्र को [[छवि पहचान]] के लिए डिज़ाइन किया गया था, इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो यादृच्छिक रूप से न्यूरॉन्स से जुड़ी हुई थी। वजन को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के समय वजन अद्यतन विद्युत मोटर द्वारा किया गया था।<ref name="bishop">{{cite book |first=Christopher M. |last=Bishop |year=2006 |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer |isbn=0-387-31073-8 }}</ref>{{rp|193}} | ||
1958 में अमेरिकी नौसेना द्वारा आयोजित एक पत्रकार सम्मेलन में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में विवरण दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक विवाद उत्पन्न हो गया, रोसेनब्लैट के विवरणों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक विद्युतिए कंप्यूटर का भ्रूण बताया, जिससे नौसेना को उम्मीद थी कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।<ref name="Olazaran"/> | 1958 में अमेरिकी नौसेना द्वारा आयोजित एक पत्रकार सम्मेलन में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में विवरण दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक विवाद उत्पन्न हो गया, रोसेनब्लैट के विवरणों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक विद्युतिए कंप्यूटर का भ्रूण बताया, जिससे नौसेना को उम्मीद थी कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।<ref name="Olazaran"/> | ||
| Line 14: | Line 14: | ||
चूँकि परसेप्ट्रोन प्रारंभ में आशाजनक लग रहा था, यह जल्दी ही सिद्ध हो गया कि परसेप्ट्रोन को प्रतिरूप के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका संजाल अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक [[फीडफॉरवर्ड न्यूरल नेटवर्क|फीडफॉरवर्ड न्यूरल संजाल]] (जिसे [[मल्टीलेयर परसेप्ट्रॉन|बहुपरत परसेप्ट्रॉन]] भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण ऊर्जा होती है। | चूँकि परसेप्ट्रोन प्रारंभ में आशाजनक लग रहा था, यह जल्दी ही सिद्ध हो गया कि परसेप्ट्रोन को प्रतिरूप के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका संजाल अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक [[फीडफॉरवर्ड न्यूरल नेटवर्क|फीडफॉरवर्ड न्यूरल संजाल]] (जिसे [[मल्टीलेयर परसेप्ट्रॉन|बहुपरत परसेप्ट्रॉन]] भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण ऊर्जा होती है। | ||
एकल बहुपरत परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य प्रतिरूप सीखने में सक्षम होता है।<ref name="Sejnowski">{{Cite book |last=Sejnowski |first=Terrence J.|author-link=Terry Sejnowski|url=https://books.google.com/books?id=9xZxDwAAQBAJ |title=गहन शिक्षण क्रांति|date=2018|publisher=MIT Press |isbn=978-0-262-03803-4 |language=en|page=47}}</ref> कुछ चरण | एकल बहुपरत परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य प्रतिरूप सीखने में सक्षम होता है।<ref name="Sejnowski">{{Cite book |last=Sejnowski |first=Terrence J.|author-link=Terry Sejnowski|url=https://books.google.com/books?id=9xZxDwAAQBAJ |title=गहन शिक्षण क्रांति|date=2018|publisher=MIT Press |isbn=978-0-262-03803-4 |language=en|page=47}}</ref> कुछ चरण संक्रियण फंक्शन के साथ वर्गीकरण कार्य के लिए, एक एकल नोड में प्रतिरूप बनाने वाले डेटा बिंदुओं को विभाजित करने वाली एक एकल रेखा होती है। अधिक नोड्स अधिक विभाजन रेखाएँ बना सकती है, लेकिन अधिक जटिल वर्गीकरण बनाने के लिए उन रेखाओं को संयोजित करना होता है। परसेप्ट्रॉन की दूसरी परत, या यहां तक कि रैखिक नोड्स, कई अन्यथा गैर-वियोज्य समस्याओं को हल करने के लिए पर्याप्त होता है। | ||
1969 में, [[मार्विन मिंस्की]] और [[सेमुर पैपर्ट]] की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि संजाल के इन वर्गों के लिए [[XOR|एक्सओआर]] | 1969 में, [[मार्विन मिंस्की]] और [[सेमुर पैपर्ट]] की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि संजाल के इन वर्गों के लिए [[XOR|एक्सओआर]] फंक्शन सीखना असंभव था। उन्होंने यह अनुमान लगाया कि एक समान परिणाम बहुपरत परसेप्ट्रॉन संजाल के लिए होता है। चूँकि, यह सच नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि बहुपरत परसेप्ट्रॉन एक्सओआर फंक्शन का उत्पादन करने में सक्षम थे। (अधिक जानकारी के लिए [[परसेप्ट्रॉन (पुस्तक)]] पर पेज देखें।) फिर भी, अधिकांशतः गलत विधि से प्रचारित किए जाने वाले मिन्स्की/पेपर [[तंत्रिका नेटवर्क|तंत्रिका संजाल]] अनुसंधान की रुचि और वित्त पोषण में महत्वपूर्ण गिरावट का कारण बना था। 1980 के दशक में तंत्रिका संजाल अनुसंधान के पुनरुत्थान का अनुभव होने में दस साल और लग गए।<ref name="Sejnowski"/> इस पाठ को 1987 में परसेप्ट्रॉन - विस्तारित संस्करण के रूप में पुनर्मुद्रित किया गया था जहां मूल पाठ में कुछ त्रुटियां दिखाई गई है और उन्हें ठीक किया गया है। | ||
2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी यूएस [[ राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र |राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र]] प्रयास का हिस्सा थे।<ref>{{Cite journal |last=O’Connor |first=Jack |date=2022-06-21 |title=Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery |url=https://www.tandfonline.com/doi/full/10.1080/08850607.2022.2073542 |journal=International Journal of Intelligence and CounterIntelligence |language=en |pages=1–15 |doi=10.1080/08850607.2022.2073542 |s2cid=249946000 |issn=0885-0607}}</ref> | 2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी यूएस [[ राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र |राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र]] प्रयास का हिस्सा थे।<ref>{{Cite journal |last=O’Connor |first=Jack |date=2022-06-21 |title=Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery |url=https://www.tandfonline.com/doi/full/10.1080/08850607.2022.2073542 |journal=International Journal of Intelligence and CounterIntelligence |language=en |pages=1–15 |doi=10.1080/08850607.2022.2073542 |s2cid=249946000 |issn=0885-0607}}</ref> | ||
[[कर्नेल परसेप्ट्रॉन]] कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा प्रस्तुत किया गया था।<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव|journal=Automation and Remote Control |volume=25 |pages=821–837 }}</ref> सामान्य गैर-वियोज्य स्थिति में परसेप्ट्रॉन कलन विधि के लिए | [[कर्नेल परसेप्ट्रॉन]] कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा प्रस्तुत किया गया था।<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव|journal=Automation and Remote Control |volume=25 |pages=821–837 }}</ref> सामान्य गैर-वियोज्य स्थिति में परसेप्ट्रॉन कलन विधि के लिए सीमा की जिम्मेदारी सबसे पहले [[योव दोस्त]] और [[रॉबर्ट शापिरे]] (1998) द्वारा दी गई थी।<ref name="largemargin">{{Cite journal |doi=10.1023/A:1007662407062 |year=1999 |title=परसेप्ट्रॉन एल्गोरिथम का उपयोग करके बड़े मार्जिन का वर्गीकरण|last1=Freund |first1=Y. |author-link1=Yoav Freund |journal=[[Machine Learning (journal)|Machine Learning]] |volume=37 |issue=3 |pages=277–296 |last2=Schapire |first2=R. E. |s2cid=5885617 |author-link2=Robert Schapire |url=http://cseweb.ucsd.edu/~yfreund/papers/LargeMarginsUsingPerceptron.pdf|doi-access=free }}</ref><ref>{{cite arXiv |last1=Mohri |first1=Mehryar |last2=Rostamizadeh |first2=Afshin |title=परसेप्ट्रॉन गलती सीमा|eprint=1305.0208 |year=2013 |class=cs.LG }}</ref> | ||
परसेप्ट्रॉन एक जैविक [[न्यूरॉन]] का एक सरलीकृत नमूना है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अधिकांशतः [[जैविक न्यूरॉन मॉडल|जैविक न्यूरॉन नमूना]] की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक नमूना वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।<ref>{{cite journal |last1=Cash |first1=Sydney |first2=Rafael |last2=Yuste |title=CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग|journal=[[Neuron (journal)|Neuron]] |volume=22 |issue=2 |year=1999 |pages=383–394 |doi=10.1016/S0896-6273(00)81098-3 |pmid=10069343 |doi-access=free }}</ref> | परसेप्ट्रॉन एक जैविक [[न्यूरॉन]] का एक सरलीकृत नमूना होता है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अधिकांशतः [[जैविक न्यूरॉन मॉडल|जैविक न्यूरॉन नमूना]] की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक नमूना वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।<ref>{{cite journal |last1=Cash |first1=Sydney |first2=Rafael |last2=Yuste |title=CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग|journal=[[Neuron (journal)|Neuron]] |volume=22 |issue=2 |year=1999 |pages=383–394 |doi=10.1016/S0896-6273(00)81098-3 |pmid=10069343 |doi-access=free }}</ref> | ||
== परिभाषा == | == परिभाषा == | ||
आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि होती है जिसे रैखिक वर्गीकरण परिभाषा कहा जाता है: एक | आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि होती है जिसे रैखिक वर्गीकरण परिभाषा कहा जाता है: एक फंक्शन जो इसके इनपुट को अंकित करता है <math>\mathbf{x}</math> (एक वास्तविक-मूल्यवान [[सदिश स्थल]]) एक आउटपुट मान के लिए <math>f(\mathbf{x})</math> (एकल [[बाइनरी फ़ंक्शन|द्विआधारी फंक्शन]] मान): | ||
:<math> | :<math> | ||
f(\mathbf{x}) = \begin{cases}1 & \text{if }\ \mathbf{w} \cdot \mathbf{x} + b > 0,\\0 & \text{otherwise}\end{cases} | f(\mathbf{x}) = \begin{cases}1 & \text{if }\ \mathbf{w} \cdot \mathbf{x} + b > 0,\\0 & \text{otherwise}\end{cases} | ||
</math> | </math> | ||
जहाँ <math>\mathbf{w}</math> वास्तविक-मूल्यवान भार का एक वेक्टर है, <math>\mathbf{w} \cdot \mathbf{x}</math> [[डॉट उत्पाद]] है <math>\sum_{i=1}^m w_i x_i</math>, जहाँ {{mvar|m}} परसेप्ट्रॉन में इनपुट की संख्या है, और {{mvar|b}} पूर्वाग्रह है | जहाँ <math>\mathbf{w}</math> वास्तविक-मूल्यवान भार का एक वेक्टर है, <math>\mathbf{w} \cdot \mathbf{x}</math> [[डॉट उत्पाद]] है <math>\sum_{i=1}^m w_i x_i</math>, जहाँ {{mvar|m}} परसेप्ट्रॉन में इनपुट की संख्या है, और {{mvar|b}} पूर्वाग्रह है, पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है। | ||
मान <math>f(\mathbf{x})</math> (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है <math>\mathbf{x}</math> द्विआधारी वर्गीकरण समस्या के स्थिति में, सकारात्मक या नकारात्मक उदाहरण के रूप में होता है। यदि {{mvar|b}} नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होता है <math>|b|</math> वर्गीकारक न्यूरॉन को 0 सीमा से ऊपर धकेलता है। स्थानिक रूप से, पूर्वाग्रह [[निर्णय सीमा]] की स्थिति को बदल देता है। यदि अधिगम समूह रैखिक रूप से अलग करने योग्य नहीं होता है तो परसेप्ट्रॉन अधिगम कलन विधि समाप्त नहीं होती है। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन [[एकमात्र]] समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।<ref>{{cite book |last1=Liou |first1=D.-R. |last2=Liou |first2=J.-W. |last3=Liou |first3=C.-Y. |title=परसेप्ट्रॉन का व्यवहार सीखना|isbn=978-1-477554-73-9 |publisher=iConcept Press |year=2013}}</ref> | मान <math>f(\mathbf{x})</math> (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है <math>\mathbf{x}</math> द्विआधारी वर्गीकरण समस्या के स्थिति में, सकारात्मक या नकारात्मक उदाहरण के रूप में होता है। यदि {{mvar|b}} नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होता है <math>|b|</math> वर्गीकारक न्यूरॉन को 0 सीमा से ऊपर धकेलता है। स्थानिक रूप से, पूर्वाग्रह [[निर्णय सीमा]] की स्थिति को बदल देता है। यदि अधिगम समूह रैखिक रूप से अलग करने योग्य नहीं होता है तो परसेप्ट्रॉन अधिगम कलन विधि समाप्त नहीं होती है। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन [[एकमात्र]] समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।<ref>{{cite book |last1=Liou |first1=D.-R. |last2=Liou |first2=J.-W. |last3=Liou |first3=C.-Y. |title=परसेप्ट्रॉन का व्यवहार सीखना|isbn=978-1-477554-73-9 |publisher=iConcept Press |year=2013}}</ref> | ||
तंत्रिका संजाल के संदर्भ में, एक परसेप्ट्रॉन एक [[कृत्रिम न्यूरॉन]] होता है जो | तंत्रिका संजाल के संदर्भ में, एक परसेप्ट्रॉन एक [[कृत्रिम न्यूरॉन]] होता है जो संक्रियण फंक्शन के रूप में [[हेविसाइड स्टेप फ़ंक्शन|हेविसाइड चरण फंक्शन]] का उपयोग करता है। परसेप्ट्रॉन कलन विधि को बहुपरत परसेप्ट्रॉन से अलग करने के लिए एकल बहुपरत परसेप्ट्रॉन भी कहा जाता है। एक रैखिक वर्गीकारक के रूप में, एकल बहुपरत परसेप्ट्रॉन सबसे सरल फीडफॉरवर्ड न्यूरल संजाल होता है। | ||
==अधिगम कलन विधि== | ==अधिगम कलन विधि== | ||
नीचे एकल बहुपरत परसेप्ट्रॉन के लिए सीखने के कलन विधि का एक उदाहरण दिया गया है। बहुपरत परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत उपस्थित होती है, [[पश्चप्रचार]] जैसे अधिक परिष्कृत कलन विधि का उपयोग किया जाता है। यदि | नीचे एकल बहुपरत परसेप्ट्रॉन के लिए सीखने के कलन विधि का एक उदाहरण दिया गया है। बहुपरत परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत उपस्थित होती है, [[पश्चप्रचार]] जैसे अधिक परिष्कृत कलन विधि का उपयोग किया जाता है। यदि संक्रियण फंक्शन या परसेप्ट्रॉन द्वारा की जा रही अंतर्निहित प्रक्रिया गैर रैखिक प्रणाली होती है, तो वैकल्पिक शिक्षण कलन विधि जैसे [[डेल्टा नियम]] का उपयोग किया जाता है। फिर भी, नीचे दिए गए चरणों में वर्णित शिक्षण कलन विधि अधिकांशतः काम करती है, यहां तक कि गैर-रेखीय संक्रियण कार्यों वाले बहुपरत परसेप्ट्रोन के लिए भी काम करती है। | ||
जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका संजाल में संयुक्त | जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका संजाल में संयुक्त होते है, तो प्रत्येक आउटपुट न्यूरॉन अन्य सभी से स्वतंत्र रूप से संचालित होता है, इस प्रकार, प्रत्येक आउटपुट को सीखने पर अलगाव में विचार किया जा सकता है। | ||
=== परिभाषाएँ === | === परिभाषाएँ === | ||
| Line 51: | Line 51: | ||
*<math>x_{j,i} </math> का मान है <math>i</math> की विशेषता <math>j</math> वह प्रशिक्षण इनपुट वेक्टर है | *<math>x_{j,i} </math> का मान है <math>i</math> की विशेषता <math>j</math> वह प्रशिक्षण इनपुट वेक्टर है | ||
*<math>x_{j,0} = 1 </math>. | *<math>x_{j,0} = 1 </math>. | ||
वजन दर्शाने के लिए: | |||
*<math>w_i </math> | *<math>w_i </math>वजन वेक्टर में मान को, <math>i</math> के मान से गुणा किया जाता है | ||
*क्योंकि <math>x_{j,0} = 1 </math>, <math>w_0 </math> प्रभावी रूप से एक पूर्वाग्रह होता है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के अतिरिक्त करते है <math>b</math> | *क्योंकि <math>x_{j,0} = 1 </math>, <math>w_0 </math> प्रभावी रूप से एक पूर्वाग्रह होता है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के अतिरिक्त करते है <math>b</math> | ||
समय-निर्भरता दर्शाने के लिए है <math>\mathbf{w}</math>, हम उपयोग करते है: | समय-निर्भरता दर्शाने के लिए है <math>\mathbf{w}</math>, हम उपयोग करते है: | ||
*<math>w_i(t) </math> वजन है <math>i</math> समय है <math>t</math> | *<math>w_i(t) </math> वजन है <math>i</math> समय है <math>t</math> | ||
| Line 59: | Line 59: | ||
=== चरण === | === चरण === | ||
{{Ordered list | {{Ordered list | ||
| | |वजन को 0 या छोटे यादृच्छिक मान से प्रारंभ किया जा सकता है। नीचे दिए गए उदाहरण में, हम 0 का उपयोग करते है।| प्रत्येक उदाहरण के लिए {{mvar|j}} हमारे प्रशिक्षण समूह में {{mvar|D}}, इनपुट पर निम्नलिखित चरण निष्पादित करता है <math>\mathbf{x}_j </math> और वांछित आउटपुट <math>d_j </math>: | ||
{{Ordered list |list_style_type=lower-alpha | {{Ordered list |list_style_type=lower-alpha | ||
|वास्तविक आउटपुट की गणना है: | |वास्तविक आउटपुट की गणना है: | ||
| Line 69: | Line 69: | ||
:<math>w_i(t+1) = w_i(t) \; \boldsymbol{+} \; r\cdot(d_j - y_j(t)) x_{j,i} </math>, सभी सुविधाओं के लिए <math>0 \leq i \leq n</math>, <math>r</math> [[सीखने की दर]] है | :<math>w_i(t+1) = w_i(t) \; \boldsymbol{+} \; r\cdot(d_j - y_j(t)) x_{j,i} </math>, सभी सुविधाओं के लिए <math>0 \leq i \leq n</math>, <math>r</math> [[सीखने की दर]] है | ||
}} | }} | ||
|[[ | |[[ऑफलाइन सीखने]] के लिए, दूसरे चरण को पुनरावृत्ति त्रुटि होने तक दोहराया जा सकता है <math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math> उपयोगकर्ता-निर्दिष्ट त्रुटि सीमा से कम है <math>\gamma </math>, या पुनरावृत्तियों की एक पूर्व निर्धारित संख्या पूरी हो चुकी है, जहां ''s'' फिर से नमूना समूह का आकार है। | ||
}} | }} | ||
कलन विधि चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अद्यतन करता है। | कलन विधि चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अद्यतन करता है। | ||
| Line 75: | Line 75: | ||
[[File:Perceptron example.svg|500px|thumb |right|अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है]] | [[File:Perceptron example.svg|500px|thumb |right|अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है]] | ||
[[Image:Perceptron.svg|right|thumb|500px|उचित भार इनपुट पर लागू होते है, और परिणामी भारित योग एक | [[Image:Perceptron.svg|right|thumb|500px|उचित भार इनपुट पर लागू होते है, और परिणामी भारित योग एक फंक्शन को पास कर दिया जाता है जो आउटपुट ओ उत्पन्न करता है।]] | ||
===अभिसरण=== | ===अभिसरण=== | ||
Revision as of 20:15, 2 July 2023
| Part of a series on |
| Machine learning and data mining |
|---|
| Scatterplot featuring a linear support vector machine's decision boundary (dashed line) |
यंत्र अधिगम में, परसेप्ट्रॉन (या मैककुलोच-पिट्स न्यूरॉन) द्विआधारी वर्गीकरण के पर्यवेक्षित वर्गीकरण के लिए एक कलन विधि होती है। द्विआधारी वर्गीकरण एक फंक्शन होता है जो यह निर्धारित कर सकता है कि संख्याओं के वेक्टर द्वारा दर्शाया गया इनपुट किसी विशिष्ट वर्ग से संबंधित है या संबंधित नहीं है।[1] यह एक प्रकार का रैखिक वर्गीकारक होता है, अर्थात एक वर्गीकरण कलन विधि जो विशेष वेक्टर के साथ वजन के एक समूह को मिलाकर एक रैखिक भविष्यवक्ता फंक्शन के आधार पर अपनी भविष्यवाणियां करता है।ka
इतिहास
परसेप्ट्रॉन का आविष्कार 1943 में वॉरेन मैकुलोच और वाल्टर पिट्स द्वारा किया गया था।[3] पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में फ्रैंक रोसेनब्लैट द्वारा निर्मित एक यंत्र था,[4] जिसे संयुक्त राज्य नौसेना अनुसंधान कार्यालय द्वारा वित्त पोषित किया गया था।[5]
परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के अतिरिक्त एक यंत्र होना था, और जबकि इसका पहला कार्यान्वयन आईबीएम 704 के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस यंत्र को छवि पहचान के लिए डिज़ाइन किया गया था, इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो यादृच्छिक रूप से न्यूरॉन्स से जुड़ी हुई थी। वजन को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के समय वजन अद्यतन विद्युत मोटर द्वारा किया गया था।[2]: 193
1958 में अमेरिकी नौसेना द्वारा आयोजित एक पत्रकार सम्मेलन में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में विवरण दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक विवाद उत्पन्न हो गया, रोसेनब्लैट के विवरणों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक विद्युतिए कंप्यूटर का भ्रूण बताया, जिससे नौसेना को उम्मीद थी कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।[5]
चूँकि परसेप्ट्रोन प्रारंभ में आशाजनक लग रहा था, यह जल्दी ही सिद्ध हो गया कि परसेप्ट्रोन को प्रतिरूप के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका संजाल अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक फीडफॉरवर्ड न्यूरल संजाल (जिसे बहुपरत परसेप्ट्रॉन भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण ऊर्जा होती है।
एकल बहुपरत परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य प्रतिरूप सीखने में सक्षम होता है।[6] कुछ चरण संक्रियण फंक्शन के साथ वर्गीकरण कार्य के लिए, एक एकल नोड में प्रतिरूप बनाने वाले डेटा बिंदुओं को विभाजित करने वाली एक एकल रेखा होती है। अधिक नोड्स अधिक विभाजन रेखाएँ बना सकती है, लेकिन अधिक जटिल वर्गीकरण बनाने के लिए उन रेखाओं को संयोजित करना होता है। परसेप्ट्रॉन की दूसरी परत, या यहां तक कि रैखिक नोड्स, कई अन्यथा गैर-वियोज्य समस्याओं को हल करने के लिए पर्याप्त होता है।
1969 में, मार्विन मिंस्की और सेमुर पैपर्ट की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि संजाल के इन वर्गों के लिए एक्सओआर फंक्शन सीखना असंभव था। उन्होंने यह अनुमान लगाया कि एक समान परिणाम बहुपरत परसेप्ट्रॉन संजाल के लिए होता है। चूँकि, यह सच नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि बहुपरत परसेप्ट्रॉन एक्सओआर फंक्शन का उत्पादन करने में सक्षम थे। (अधिक जानकारी के लिए परसेप्ट्रॉन (पुस्तक) पर पेज देखें।) फिर भी, अधिकांशतः गलत विधि से प्रचारित किए जाने वाले मिन्स्की/पेपर तंत्रिका संजाल अनुसंधान की रुचि और वित्त पोषण में महत्वपूर्ण गिरावट का कारण बना था। 1980 के दशक में तंत्रिका संजाल अनुसंधान के पुनरुत्थान का अनुभव होने में दस साल और लग गए।[6] इस पाठ को 1987 में परसेप्ट्रॉन - विस्तारित संस्करण के रूप में पुनर्मुद्रित किया गया था जहां मूल पाठ में कुछ त्रुटियां दिखाई गई है और उन्हें ठीक किया गया है।
2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी यूएस राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र प्रयास का हिस्सा थे।[7]
कर्नेल परसेप्ट्रॉन कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा प्रस्तुत किया गया था।[8] सामान्य गैर-वियोज्य स्थिति में परसेप्ट्रॉन कलन विधि के लिए सीमा की जिम्मेदारी सबसे पहले योव दोस्त और रॉबर्ट शापिरे (1998) द्वारा दी गई थी।[1][9]
परसेप्ट्रॉन एक जैविक न्यूरॉन का एक सरलीकृत नमूना होता है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अधिकांशतः जैविक न्यूरॉन नमूना की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक नमूना वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।[10]
परिभाषा
आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि होती है जिसे रैखिक वर्गीकरण परिभाषा कहा जाता है: एक फंक्शन जो इसके इनपुट को अंकित करता है (एक वास्तविक-मूल्यवान सदिश स्थल) एक आउटपुट मान के लिए (एकल द्विआधारी फंक्शन मान):
जहाँ वास्तविक-मूल्यवान भार का एक वेक्टर है, डॉट उत्पाद है , जहाँ m परसेप्ट्रॉन में इनपुट की संख्या है, और b पूर्वाग्रह है, पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है।
मान (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है द्विआधारी वर्गीकरण समस्या के स्थिति में, सकारात्मक या नकारात्मक उदाहरण के रूप में होता है। यदि b नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होता है वर्गीकारक न्यूरॉन को 0 सीमा से ऊपर धकेलता है। स्थानिक रूप से, पूर्वाग्रह निर्णय सीमा की स्थिति को बदल देता है। यदि अधिगम समूह रैखिक रूप से अलग करने योग्य नहीं होता है तो परसेप्ट्रॉन अधिगम कलन विधि समाप्त नहीं होती है। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन एकमात्र समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।[11]
तंत्रिका संजाल के संदर्भ में, एक परसेप्ट्रॉन एक कृत्रिम न्यूरॉन होता है जो संक्रियण फंक्शन के रूप में हेविसाइड चरण फंक्शन का उपयोग करता है। परसेप्ट्रॉन कलन विधि को बहुपरत परसेप्ट्रॉन से अलग करने के लिए एकल बहुपरत परसेप्ट्रॉन भी कहा जाता है। एक रैखिक वर्गीकारक के रूप में, एकल बहुपरत परसेप्ट्रॉन सबसे सरल फीडफॉरवर्ड न्यूरल संजाल होता है।
अधिगम कलन विधि
नीचे एकल बहुपरत परसेप्ट्रॉन के लिए सीखने के कलन विधि का एक उदाहरण दिया गया है। बहुपरत परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत उपस्थित होती है, पश्चप्रचार जैसे अधिक परिष्कृत कलन विधि का उपयोग किया जाता है। यदि संक्रियण फंक्शन या परसेप्ट्रॉन द्वारा की जा रही अंतर्निहित प्रक्रिया गैर रैखिक प्रणाली होती है, तो वैकल्पिक शिक्षण कलन विधि जैसे डेल्टा नियम का उपयोग किया जाता है। फिर भी, नीचे दिए गए चरणों में वर्णित शिक्षण कलन विधि अधिकांशतः काम करती है, यहां तक कि गैर-रेखीय संक्रियण कार्यों वाले बहुपरत परसेप्ट्रोन के लिए भी काम करती है।
जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका संजाल में संयुक्त होते है, तो प्रत्येक आउटपुट न्यूरॉन अन्य सभी से स्वतंत्र रूप से संचालित होता है, इस प्रकार, प्रत्येक आउटपुट को सीखने पर अलगाव में विचार किया जा सकता है।
परिभाषाएँ
हम पहले कुछ चर परिभाषित करते है:
- r परसेप्ट्रॉन सीखने की दर है। सीखने की दर 0 और 1 के बीच है। बड़े मान वजन परिवर्तन को अधिक अस्थिर बनाते है।
- इनपुट वेक्टर के लिए परसेप्ट्रॉन से आउटपुट को दर्शाता है .
- का प्रशिक्षण समूह है , जहाँ:
- है -आयामी इनपुट वेक्टर है
- उस इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है।
हम सुविधाओं के मान इस प्रकार दिखाते है:
- का मान है की विशेषता वह प्रशिक्षण इनपुट वेक्टर है
- .
वजन दर्शाने के लिए:
- वजन वेक्टर में मान को, के मान से गुणा किया जाता है
- क्योंकि , प्रभावी रूप से एक पूर्वाग्रह होता है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के अतिरिक्त करते है
समय-निर्भरता दर्शाने के लिए है , हम उपयोग करते है:
- वजन है समय है
चरण
- वजन को 0 या छोटे यादृच्छिक मान से प्रारंभ किया जा सकता है। नीचे दिए गए उदाहरण में, हम 0 का उपयोग करते है।
- प्रत्येक उदाहरण के लिए j हमारे प्रशिक्षण समूह में D, इनपुट पर निम्नलिखित चरण निष्पादित करता है और वांछित आउटपुट :
- वास्तविक आउटपुट की गणना है:
- वजन अद्यतन है:
- , सभी सुविधाओं के लिए , सीखने की दर है
- वास्तविक आउटपुट की गणना है:
- ऑफलाइन सीखने के लिए, दूसरे चरण को पुनरावृत्ति त्रुटि होने तक दोहराया जा सकता है उपयोगकर्ता-निर्दिष्ट त्रुटि सीमा से कम है , या पुनरावृत्तियों की एक पूर्व निर्धारित संख्या पूरी हो चुकी है, जहां s फिर से नमूना समूह का आकार है।
कलन विधि चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अद्यतन करता है।
अभिसरण
परसेप्ट्रॉन एक रैखिक वर्गीकारक होता है, इसलिए यदि प्रशिक्षण समूह सही तरह से वर्गीकृत किया गया है तो यह कभी भी सभी इनपुट वैक्टर के साथ सीमा तक नहीं पहुँचता है D रैखिक रूप से अलग करने योग्य नहीं होता है, अर्थात यदि सकारात्मक उदाहरणों को हाइपरप्लेन द्वारा नकारात्मक उदाहरणों से अलग नहीं किया जा सकता है। इस स्थिति में, मानक शिक्षण कलन विधि के अनुसार धीरे-धीरे कोई अनुमानित समाधान नहीं निकाला जाता है, जबकि इसके अतिरिक्त, सीखना पूरी तरह से विफल हो जाता है। इसलिए, यदि प्रशिक्षण समूह की रैखिक पृथक्करण प्राथमिकता से ज्ञात नहीं होता है, तो नीचे दिए गए प्रशिक्षण प्रकारों में से एक का उपयोग किया जाता है।
यदि प्रशिक्षण समूह रैखिक रूप से अलग करने योग्य है, तो परसेप्ट्रॉन के अभिसरण की जिम्मेदारी होती है।[12] इसके अतिरिक्त, प्रशिक्षण के समय परसेप्ट्रॉन अपने वजन को कितनी बार समायोजित करता है इसकी एक ऊपरी सीमा होती है।
मान लेते है कि दो वर्गों के इनपुट वैक्टर को एक सीमा के साथ हाइपरप्लेन द्वारा अलग किया जाता है , अर्थात एक वजन वेक्टर उपस्थित है , और एक पूर्वाग्रह शब्द b ऐसा है कि सभी के लिए साथ और सभी के लिए साथ , जहाँ इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है . और R किसी इनपुट वेक्टर के अधिकतम मानदंड को निरूपित करता है। नोविकॉफ (1962) ने सिद्ध किया कि इस स्थिति में परसेप्ट्रॉन कलन विधि बनाने के बाद अभिसरण करता है अद्यतन. प्रमाण का विचार यह है कि वजन वेक्टर को हमेशा एक सीमाबद्ध द्वारा उस दिशा में समायोजित किया जाता है जिसके साथ इसका नकारात्मक डॉट उत्पाद होता है, और इस प्रकार इसे ऊपर से सीमित किया जा सकता है O(√t), जहाँ t भार वेक्टर में परिवर्तनों की संख्या है। चूँकि, इसे नीचे भी सीमित किया जा सकता है O(t) क्योंकि यदि कोई (अज्ञात) संतोषजनक भार वेक्टर उपस्थित है, तो प्रत्येक परिवर्तन इस (अज्ञात) दिशा में सकारात्मक मात्रा में प्रगति करता है जो केवल इनपुट वेक्टर पर निर्भर करता है।
जबकि परसेप्ट्रॉन कलन विधि को रैखिक रूप से अलग किए जाने योग्य प्रशिक्षण समूह के स्थिति में कुछ समाधान पर एकत्रित होने की जिम्मेदारी दी जाती है, फिर भी यह कोई भी समाधान चुन सकता है और समस्याएं अलग-अलग गुणवत्ता के कई समाधान स्वीकार कर सकती है।[13] इष्टतम स्थिरता का परसेप्ट्रॉन, जिसे आजकल रैखिक समर्थन वेक्टर यंत्र के रूप में जाना जाता है, इस समस्या को हल करने के लिए डिज़ाइन किया गया था।[14]
प्रकार
पॉकेट कलन विधि (गैलेंट, 1990) परसेप्ट्रॉन सीखने की स्थिरता की समस्या को हल करता है। इसका उपयोग गैर-वियोज्य डेटा समूहों के लिए भी किया जा सकता है, जहां उद्देश्य कम संख्या में गलत वर्गीकरण के साथ एक परसेप्ट्रॉन प्राप्त करता है। चूँकि, ये समाधान पूरी तरह से प्रसंभाव्य रूप से दिखाई देता है और इसलिए पॉकेट कलन विधि न तो सीखने के समय धीरे-धीरे उन तक पहुंचता है, और न ही उन्हें सीखने के चरणों की एक निश्चित संख्या के भीतर दिखाई देने की जिम्मेदारी होती है।
मैक्सओवर कलन विधि (वेंडेमुथ, 1995) रोबस्टनेस (कंप्यूटर विज्ञान) डेटा समूह की रैखिक पृथक्करणता के (पूर्व) ज्ञान की परवाह किए बिना अभिसरण करता है।[15] रैखिक रूप से अलग करने योग्य स्थिति में, यह प्रशिक्षण समस्या को हल करता है। गैर-वियोज्य डेटा समूह के लिए, यह कम संख्या में गलत वर्गीकरण का समाधान करता है। सभी स्थितियों में, कलन विधि धीरे-धीरे सीखने के समय समाधान तक पहुंचता है, अभिसरण योग्य डेटा समूहों के लिए वैश्विक इष्टतमता और गैर-वियोज्य डेटा समूहों के लिए स्थानीय इष्टतमता होती है।
वोटेड परसेप्ट्रॉन (फ़्रायंड और शापिरे, 1999), एकाधिक भारित परसेप्ट्रॉन का उपयोग करने वाला एक प्रकार होता है। हर बार जब किसी उदाहरण को गलत विधि से वर्गीकृत किया जाता है, तो कलन विधि एक नया परसेप्ट्रॉन प्रारंभ करता है, अंतिम परसेप्ट्रॉन के अंतिम वजन के साथ वजन वेक्टर को आरंभ करता है। प्रत्येक परसेप्ट्रॉन को एक अन्य भार भी दिया जाता है, जो कि किसी एक को गलत विधि से वर्गीकृत करने से पहले कितने उदाहरणों को सही तरह से वर्गीकृत करता है।
अलग करने योग्य समस्याओं में, परसेप्ट्रॉन प्रशिक्षण का लक्ष्य वर्गों के बीच सबसे बड़ा पृथक्करण सीमा प्राप्त करना भी हो सकता है। इष्टतम स्थिरता के तथाकथित परसेप्ट्रॉन को पुनरावृत्त प्रशिक्षण और अनुकूलन योजनाओं के माध्यम से निर्धारित किया जा सकता है, जैसे कि मिन-ओवर कलन विधि (क्राउथ और मेजार्ड, 1987)[14] या एडाट्रॉन (अनलाउफ और बीहल, 1989)[16] इस तथ्य का उपयोग करते है कि संबंधित द्विघात अनुकूलन समस्या उत्तल होती है। इष्टतम स्थिरता का परसेप्ट्रॉन, वेक्टर यंत्र की वैचारिक नींव है।
परसेप्ट्रॉन ने सीमा आउटपुट इकाइयों के साथ निश्चित यादृच्छिक भार की एक पूर्व-प्रसंस्करण परत का उपयोग किया था। इसने परसेप्ट्रॉन को द्विआधारी विभाजन में प्रक्षेपित करके अनुरूप प्रतिरूप को वर्गीकृत करने में सक्षम बनाया था। वास्तव में, पर्याप्त उच्च आयाम के प्रक्षेपण स्थान के लिए, प्रतिरूप रैखिक रूप से अलग हो सकते है।
एकाधिक परतों का उपयोग किए बिना गैर-रेखीय समस्याओं को हल करने के लिए दूसरे विधि उच्च क्रम संजाल (सिग्मा-पीआई यूनिट) का उपयोग किया जाता है। इस प्रकार के संजाल में, इनपुट वेक्टर में प्रत्येक तत्व को गुणा किए गए इनपुट (दूसरे क्रम) के प्रत्येक जोड़ीदार संयोजन के साथ बढ़ाया जाता है।
चूँकि, यह ध्यान में रखना चाहिए कि सबसे अच्छा वर्गीकारक आवश्यक नहीं होता है कि जो सभी प्रशिक्षण डेटा को पूरी तरह से वर्गीकृत करता है। वास्तव में, यदि हमारे पास डेटा सम-संस्करण गाऊसी वितरण से आता है, तो इनपुट स्थान में रैखिक पृथक्करण इष्टतम होती है।
अन्य रैखिक वर्गीकरण कलन विधि में विनोव (कलन विधि), वेक्टर यंत्र और संभार तन्त्र परावर्तन सम्मलित है।
बहु वर्ग परसेप्ट्रॉन
रैखिक वर्गीकरणों के प्रशिक्षण के लिए अधिकांश अन्य तकनीकों की तरह, परसेप्ट्रॉन स्वाभाविक रूप से बहु वर्ग वर्गीकरण को सामान्यीकृत करता है। यहाँ, इनपुट और आउटपुट मनमाने समूहों से तैयार किए गए है। एक सुविधा प्रतिनिधित्व प्रत्येक संभावित इनपुट/आउटपुट जोड़ी को एक परिमित-आयामी वास्तविक-मूल्यवान विशेष वेक्टर में अंकित करता है। पहले की तरह, विशेष वेक्टर को वजन वेक्टर से गुणा किया जाता है , लेकिन अब परिणामी अक्षरों का उपयोग कई संभावित आउटपुट में से चुनने के लिए किया जाता है:
सीखना फिर से उदाहरणों को दोहराता है, प्रत्येक के लिए आउटपुट की भविष्यवाणी करता है, जब अनुमानित आउटपुट लक्ष्य से मेल खाता है तो वजन को अपरिवर्तित छोड़ देता है, और जब ऐसा नहीं होता है तो उन्हें बदल देता है। अद्यतन बन जाता है:
यह बहु वर्ग प्रतिक्रिया सूत्रीकरण मूल परसेप्ट्रॉन को कम कर देता है जब एक वास्तविक-मूल्यवान वेक्टर होता है, से चुना जाता है , और
कुछ समस्याओं के लिए, अभ्यावेदन और सुविधाओं को चुना जा सकता है यद्यपि कुशलतापूर्वक प्राप्त किया जा सकता है बहुत बड़े या अनंत समूह से चुना जाता है।
2002 के बाद से, उपनाम और वाक्यविन्यास विश्लेषण (कोलिन्स, 2002) जैसे कार्यों के लिए प्राकृतिक भाषा प्रसंस्करण के क्षेत्र में परसेप्ट्रॉन प्रशिक्षण लोकप्रिय हो गया है। इसे वितरित कंप्यूटिंग समूह में बड़े प्रवृत्ति पर यंत्र सीखने की समस्याओं पर भी लागू किया गया है।[17]
संदर्भ
- ↑ 1.0 1.1 Freund, Y.; Schapire, R. E. (1999). "परसेप्ट्रॉन एल्गोरिथम का उपयोग करके बड़े मार्जिन का वर्गीकरण" (PDF). Machine Learning. 37 (3): 277–296. doi:10.1023/A:1007662407062. S2CID 5885617.
- ↑ 2.0 2.1 Bishop, Christopher M. (2006). पैटर्न मान्यता और मशीन प्रवीणता. Springer. ISBN 0-387-31073-8.
- ↑ McCulloch, W; Pitts, W (1943). "तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना". Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259.
- ↑ Rosenblatt, Frank (1957). "The Perceptron—a perceiving and recognizing automaton". Report 85-460-1. Cornell Aeronautical Laboratory.
- ↑ 5.0 5.1 Olazaran, Mikel (1996). "परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन". Social Studies of Science. 26 (3): 611–659. doi:10.1177/030631296026003005. JSTOR 285702. S2CID 16786738.
- ↑ 6.0 6.1 Sejnowski, Terrence J. (2018). गहन शिक्षण क्रांति (in English). MIT Press. p. 47. ISBN 978-0-262-03803-4.
- ↑ O’Connor, Jack (2022-06-21). "Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery". International Journal of Intelligence and CounterIntelligence (in English): 1–15. doi:10.1080/08850607.2022.2073542. ISSN 0885-0607. S2CID 249946000.
- ↑ Aizerman, M. A.; Braverman, E. M.; Rozonoer, L. I. (1964). "पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव". Automation and Remote Control. 25: 821–837.
- ↑ Mohri, Mehryar; Rostamizadeh, Afshin (2013). "परसेप्ट्रॉन गलती सीमा". arXiv:1305.0208 [cs.LG].
- ↑ Cash, Sydney; Yuste, Rafael (1999). "CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग". Neuron. 22 (2): 383–394. doi:10.1016/S0896-6273(00)81098-3. PMID 10069343.
- ↑ Liou, D.-R.; Liou, J.-W.; Liou, C.-Y. (2013). परसेप्ट्रॉन का व्यवहार सीखना. iConcept Press. ISBN 978-1-477554-73-9.
- ↑ Novikoff, Albert J. (1963). "परसेप्ट्रॉन के लिए अभिसरण प्रमाण पर". Office of Naval Research.
- ↑ Bishop, Christopher M (2006-08-17). "Chapter 4. Linear Models for Classification". पैटर्न मान्यता और मशीन प्रवीणता. Springer Science+Business Media, LLC. p. 194. ISBN 978-0387-31073-2.
- ↑ 14.0 14.1 Krauth, W.; Mezard, M. (1987). "तंत्रिका नेटवर्क में इष्टतम स्थिरता के साथ लर्निंग एल्गोरिदम". Journal of Physics A: Mathematical and General. 20 (11): L745–L752. Bibcode:1987JPhA...20L.745K. doi:10.1088/0305-4470/20/11/013.
- ↑ Wendemuth, A. (1995). "अनलर्नेबल को सीखना". Journal of Physics A: Mathematical and General. 28 (18): 5423–5436. Bibcode:1995JPhA...28.5423W. doi:10.1088/0305-4470/28/18/030.
- ↑ Anlauf, J. K.; Biehl, M. (1989). "The AdaTron: an Adaptive Perceptron algorithm". Europhysics Letters. 10 (7): 687–692. Bibcode:1989EL.....10..687A. doi:10.1209/0295-5075/10/7/014. S2CID 250773895.
- ↑ McDonald, R.; Hall, K.; Mann, G. (2010). "Distributed Training Strategies for the Structured Perceptron" (PDF). Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the ACL. Association for Computational Linguistics. pp. 456–464.
अग्रिम पठन
- Aizerman, M. A. and Braverman, E. M. and Lev I. Rozonoer. Theoretical foundations of the potential function method in pattern recognition learning. Automation and Remote Control, 25:821–837, 1964.
- Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386–408. doi:10.1037/h0042519.
- Rosenblatt, Frank (1962), Principles of Neurodynamics. Washington, DC: Spartan Books.
- Minsky, M. L. and Papert, S. A. 1969. Perceptrons. Cambridge, MA: MIT Press.
- Gallant, S. I. (1990). Perceptron-based learning algorithms. IEEE Transactions on Neural Networks, vol. 1, no. 2, pp. 179–191.
- Mohri, Mehryar and Rostamizadeh, Afshin (2013). Perceptron Mistake Bounds arXiv:1305.0208, 2013.
- Novikoff, A. B. (1962). On convergence proofs on perceptrons. Symposium on the Mathematical Theory of Automata, 12, 615–622. Polytechnic Institute of Brooklyn.
- Widrow, B., Lehr, M.A., "30 years of Adaptive Neural Networks: Perceptron, Madaline, and Backpropagation," Proc. IEEE, vol 78, no 9, pp. 1415–1442, (1990).
- Collins, M. 2002. Discriminative training methods for hidden Markov models: Theory and experiments with the perceptron algorithm in Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP '02).
- Yin, Hongfeng (1996), Perceptron-Based Algorithms and Analysis, Spectrum Library, Concordia University, Canada
बाहरी संबंध
- A Perceptron implemented in MATLAB to learn binary NAND function
- Chapter 3 Weighted networks - the perceptron and chapter 4 Perceptron learning of Neural Networks - A Systematic Introduction by Raúl Rojas (ISBN 978-3-540-60505-8)
- History of perceptrons
- Mathematics of multilayer perceptrons
- Applying a perceptron model using scikit-learn - https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Perceptron.html