परसेप्ट्रॉन: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Algorithm for supervised learning of binary classifiers}} {{Redirect|Perceptrons|the 1969 book|Perceptrons (book)}} {{Machine learning|Supervised learning}...")
 
No edit summary
 
(12 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Algorithm for supervised learning of binary classifiers}}
{{Short description|Algorithm for supervised learning of binary classifiers}}
{{Redirect|Perceptrons|the 1969 book|Perceptrons (book)}}
{{Redirect|परसेप्ट्रॉन|1969 की पुस्तक|परसेप्ट्रॉन (पुस्तक)}}
{{Machine learning|Supervised learning}}
{{Machine learning|पर्यवेक्षित अध्ययन}}
[[ यंत्र अधिगम ]] में, परसेप्ट्रॉन (या मैककुलोच-पिट्स न्यूरॉन) बाइनरी वर्गीकरण के [[पर्यवेक्षित वर्गीकरण]] के लिए एक एल्गोरिदम है। [[द्विआधारी वर्गीकरण]] एक फ़ंक्शन है जो यह तय कर सकता है कि संख्याओं के वेक्टर द्वारा दर्शाया गया इनपुट किसी विशिष्ट वर्ग से संबंधित है या नहीं।{{r|largemargin}} यह एक प्रकार का [[ रैखिक वर्गीकारक ]]ियर है, यानी एक वर्गीकरण एल्गोरिदम जो [[ फ़ीचर वेक्टर ]] के साथ [[ भार ]] के एक सेट को मिलाकर एक [[रैखिक भविष्यवक्ता फ़ंक्शन]] के आधार पर अपनी भविष्यवाणियां करता है।
[[ यंत्र अधिगम |यंत्र अधिगम]] में, '''परसेप्ट्रॉन''' (या मैककुलोच-पिट्स न्यूरॉन) द्विआधारी वर्गीकरण के [[पर्यवेक्षित वर्गीकरण|पर्यवेक्षित]] [[पर्यवेक्षित वर्गीकरण|वर्गीकरण]] के लिए एक कलन विधि होती है। [[द्विआधारी वर्गीकरण]] एक फंक्शन होता है जो यह निर्धारित कर सकता है कि संख्याओं के वेक्टर द्वारा दर्शाया गया इनपुट किसी विशिष्ट वर्ग से संबंधित है या संबंधित नहीं है।{{r|largemargin}} यह एक प्रकार का [[ रैखिक वर्गीकारक |रैखिक वर्गीकारक]] होता है, अर्थात एक वर्गीकरण कलन विधि जो [[ फ़ीचर वेक्टर |विशेष वेक्टर]] के साथ वजन के एक समूह को मिलाकर एक [[रैखिक भविष्यवक्ता फ़ंक्शन|रैखिक भविष्यवक्ता फंक्शन]] के आधार पर अपनी भविष्यवाणियां करता है।


==इतिहास==
==इतिहास==
[[File:Mark I perceptron.jpeg|thumb|left|मार्क I परसेप्ट्रॉन मशीन, परसेप्ट्रॉन एल्गोरिदम का पहला कार्यान्वयन। 400-पिक्सेल छवि बनाने के लिए इसे 20×20 [[कैडमियम सल्फाइड]] [[ फोटो सेल ]] वाले कैमरे से जोड़ा गया था। मुख्य दृश्यमान विशेषता एक पैच पैनल है जो इनपुट सुविधाओं के विभिन्न संयोजन सेट करता है। दाईं ओर, [[ तनाव नापने का यंत्र ]] की सरणियाँ जो अनुकूली भार लागू करती हैं।{{r|bishop}}{{rp|213}}|alt=]]
[[File:Mark I perceptron.jpeg|thumb|left|मार्क परसेप्ट्रॉन यंत्र, परसेप्ट्रॉन कलन विधि का पहला कार्यान्वयन। 400-पिक्सेल छवि बनाने के लिए इसे 20×20 [[कैडमियम सल्फाइड]] [[ फोटो सेल |फोटो सेल]] वाले कैमरे से जोड़ा गया था। मुख्य दृश्यमान विशेषता एक पैच पैनल है जो इनपुट सुविधाओं के विभिन्न संयोजन समूह करता है। दाईं ओर, [[ तनाव नापने का यंत्र |तनाव नापने का यंत्र]] की सरणियाँ जो अनुकूली भार लागू करती है।{{r|bishop}}{{rp|213}}|alt=]]
{{see also|History of artificial intelligence#Perceptrons and the attack on connectionism|AI winter#The abandonment of connectionism in 1969}}
{{see also|कृत्रिम बुद्धिमत्ता का इतिहास#परसेप्ट्रॉन और कनेक्शनवाद पर आक्रमण|एआई विंटर#1969 में कनेक्शनवाद का परित्याग}}
परसेप्ट्रॉन का आविष्कार 1943 में [[वॉरेन मैकुलोच]] और [[वाल्टर पिट्स]] द्वारा किया गया था।<ref>{{cite journal |last1=McCulloch |first1=W |last2=Pitts |first2=W |title=तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना|journal=Bulletin of Mathematical Biophysics |date=1943 |volume=5 |issue=4 |pages=115–133 |doi=10.1007/BF02478259 |url=https://www.bibsonomy.org/bibtex/13e8e0d06f376f3eb95af89d5a2f15957/schaul}}</ref> पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में [[फ्रैंक रोसेनब्लैट]] द्वारा निर्मित एक मशीन थी,<ref>{{cite journal |last=Rosenblatt |first=Frank |year=1957 |title=The Perceptron—a perceiving and recognizing automaton |journal=Report 85-460-1 |publisher=Cornell Aeronautical Laboratory }}</ref> संयुक्त राज्य [[नौसेना अनुसंधान कार्यालय]] द्वारा वित्त पोषित।<ref name="Olazaran">{{cite journal |first=Mikel |last=Olazaran |title=परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन|journal=Social Studies of Science |volume=26 |issue=3 |year=1996 |jstor=285702|doi=10.1177/030631296026003005 |pages=611–659|s2cid=16786738 }}</ref>
परसेप्ट्रॉन का आविष्कार 1943 में [[वॉरेन मैकुलोच]] और [[वाल्टर पिट्स]] द्वारा किया गया था।<ref>{{cite journal |last1=McCulloch |first1=W |last2=Pitts |first2=W |title=तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना|journal=Bulletin of Mathematical Biophysics |date=1943 |volume=5 |issue=4 |pages=115–133 |doi=10.1007/BF02478259 |url=https://www.bibsonomy.org/bibtex/13e8e0d06f376f3eb95af89d5a2f15957/schaul}}</ref> पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में [[फ्रैंक रोसेनब्लैट]] द्वारा निर्मित एक यंत्र था,<ref>{{cite journal |last=Rosenblatt |first=Frank |year=1957 |title=The Perceptron—a perceiving and recognizing automaton |journal=Report 85-460-1 |publisher=Cornell Aeronautical Laboratory }}</ref> जिसे संयुक्त राज्य नौसेना अनुसंधान कार्यालय द्वारा वित्त पोषित किया गया था।<ref name="Olazaran">{{cite journal |first=Mikel |last=Olazaran |title=परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन|journal=Social Studies of Science |volume=26 |issue=3 |year=1996 |jstor=285702|doi=10.1177/030631296026003005 |pages=611–659|s2cid=16786738 }}</ref>
[[File:330-PSA-80-60 (USN 710739) (20897323365).jpg|thumb|मार्क 1 परसेप्ट्रॉन का कैमरा सिस्टम।]]परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के बजाय एक मशीन होना था, और जबकि इसका पहला कार्यान्वयन [[आईबीएम 704]] के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस मशीन को [[छवि पहचान]] के लिए डिज़ाइन किया गया था: इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो बेतरतीब ढंग से न्यूरॉन्स से जुड़ी हुई थी। वज़न को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के दौरान वज़न अपडेट इलेक्ट्रिक मोटर द्वारा किया गया था।<ref name="bishop">{{cite book |first=Christopher M. |last=Bishop |year=2006 |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer |isbn=0-387-31073-8 }}</ref>{{rp|193}}
[[File:330-PSA-80-60 (USN 710739) (20897323365).jpg|thumb|मार्क 1 परसेप्ट्रॉन का कैमरा प्रणाली।]]परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के अतिरिक्त एक यंत्र होना था, और जबकि इसका पहला कार्यान्वयन [[आईबीएम 704]] के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस यंत्र को [[छवि पहचान]] के लिए डिज़ाइन किया गया था, इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो यादृच्छिक रूप से न्यूरॉन्स से जुड़ी हुई थी। वजन को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के समय वजन अद्यतन विद्युत मोटर द्वारा किया गया था।<ref name="bishop">{{cite book |first=Christopher M. |last=Bishop |year=2006 |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer |isbn=0-387-31073-8 }}</ref>{{rp|193}}


1958 में अमेरिकी नौसेना द्वारा आयोजित एक प्रेस कॉन्फ्रेंस में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में बयान दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक गर्म विवाद पैदा हो गया; रोसेनब्लैट के बयानों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक इलेक्ट्रॉनिक कंप्यूटर का भ्रूण बताया, जिससे [नौसेना] को उम्मीद है कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।<ref name="Olazaran"/>
1958 में अमेरिकी नौसेना द्वारा आयोजित एक पत्रकार सम्मेलन में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में विवरण दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक विवाद उत्पन्न हो गया, रोसेनब्लैट के विवरणों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक विद्युतिए कंप्यूटर का भ्रूण बताया, जिससे नौसेना को उम्मीद थी कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।<ref name="Olazaran"/>


हालाँकि परसेप्ट्रोन शुरू में आशाजनक लग रहा था, यह जल्दी ही साबित हो गया कि परसेप्ट्रोन को पैटर्न के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका नेटवर्क अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक [[फीडफॉरवर्ड न्यूरल नेटवर्क]] (जिसे [[मल्टीलेयर परसेप्ट्रॉन]] भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण शक्ति होती है (जिसे फीडफॉरवर्ड न्यूरल भी कहा जाता है) नेटवर्क#सिंगल-लेयर परसेप्ट्रॉन|सिंगल-लेयर परसेप्ट्रॉन)।
चूँकि परसेप्ट्रोन प्रारंभ में आशाजनक लग रहा था, यह जल्दी ही सिद्ध हो गया कि परसेप्ट्रोन को प्रतिरूप के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका संजाल अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक [[फीडफॉरवर्ड न्यूरल नेटवर्क|फीडफॉरवर्ड न्यूरल संजाल]] (जिसे [[मल्टीलेयर परसेप्ट्रॉन|बहुपरत परसेप्ट्रॉन]] भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण ऊर्जा होती है।


सिंगल-लेयर परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य पैटर्न सीखने में सक्षम हैं।<ref name="Sejnowski">{{Cite book |last=Sejnowski |first=Terrence J.|author-link=Terry Sejnowski|url=https://books.google.com/books?id=9xZxDwAAQBAJ |title=गहन शिक्षण क्रांति|date=2018|publisher=MIT Press |isbn=978-0-262-03803-4 |language=en|page=47}}</ref> कुछ चरण सक्रियण फ़ंक्शन के साथ वर्गीकरण कार्य के लिए, एक एकल नोड में पैटर्न बनाने वाले डेटा बिंदुओं को विभाजित करने वाली एक एकल रेखा होगी। अधिक नोड्स अधिक विभाजन रेखाएँ बना सकते हैं, लेकिन अधिक जटिल वर्गीकरण बनाने के लिए उन रेखाओं को किसी तरह संयोजित किया जाना चाहिए। परसेप्ट्रॉन की दूसरी परत, या यहां तक ​​कि रैखिक नोड्स, कई अन्यथा गैर-वियोज्य समस्याओं को हल करने के लिए पर्याप्त हैं।
एकल बहुपरत परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य प्रतिरूप सीखने में सक्षम होता है।<ref name="Sejnowski">{{Cite book |last=Sejnowski |first=Terrence J.|author-link=Terry Sejnowski|url=https://books.google.com/books?id=9xZxDwAAQBAJ |title=गहन शिक्षण क्रांति|date=2018|publisher=MIT Press |isbn=978-0-262-03803-4 |language=en|page=47}}</ref> कुछ चरण संक्रियण फंक्शन के साथ वर्गीकरण कार्य के लिए, एक एकल नोड में प्रतिरूप बनाने वाले डेटा बिंदुओं को विभाजित करने वाली एक एकल रेखा होती है। अधिक नोड्स अधिक विभाजन रेखाएँ बना सकती है, लेकिन अधिक जटिल वर्गीकरण बनाने के लिए उन रेखाओं को संयोजित करना होता है। परसेप्ट्रॉन की दूसरी परत, या यहां तक ​​कि रैखिक नोड्स, कई अन्यथा गैर-वियोज्य समस्याओं को हल करने के लिए पर्याप्त होता है।


1969 में, [[मार्विन मिंस्की]] और [[सेमुर पैपर्ट]] की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि नेटवर्क के इन वर्गों के लिए [[XOR]] फ़ंक्शन सीखना असंभव था। यह अक्सर माना जाता है (गलत तरीके से) कि उन्होंने यह भी अनुमान लगाया था कि एक समान परिणाम मल्टी-लेयर परसेप्ट्रॉन नेटवर्क के लिए होगा। हालाँकि, यह सच नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि मल्टी-लेयर परसेप्ट्रॉन XOR फ़ंक्शन का उत्पादन करने में सक्षम थे। (अधिक जानकारी के लिए [[परसेप्ट्रॉन (पुस्तक)]] पर पेज देखें।) फिर भी, अक्सर गलत तरीके से प्रचारित किए जाने वाले मिन्स्की/पेपर पाठ ने [[तंत्रिका नेटवर्क]] अनुसंधान की रुचि और वित्त पोषण में महत्वपूर्ण गिरावट का कारण बना। 1980 के दशक में तंत्रिका नेटवर्क अनुसंधान के पुनरुत्थान का अनुभव होने में दस साल और लग गए।<ref name="Sejnowski"/> इस पाठ को 1987 में परसेप्ट्रॉन - विस्तारित संस्करण के रूप में पुनर्मुद्रित किया गया था जहां मूल पाठ में कुछ त्रुटियां दिखाई गई हैं और उन्हें ठीक किया गया है।
1969 में, [[मार्विन मिंस्की]] और [[सेमुर पैपर्ट]] की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि संजाल के इन वर्गों के लिए [[XOR|एक्सओआर]] फंक्शन सीखना असंभव था। उन्होंने यह अनुमान लगाया कि एक समान परिणाम बहुपरत परसेप्ट्रॉन संजाल के लिए होता है। चूँकि, यह सच नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि बहुपरत परसेप्ट्रॉन एक्सओआर फंक्शन का उत्पादन करने में सक्षम थे। (अधिक जानकारी के लिए [[परसेप्ट्रॉन (पुस्तक)]] पर पेज देखें।) फिर भी, अधिकांशतः गलत विधि से प्रचारित किए जाने वाले मिन्स्की/पेपर [[तंत्रिका नेटवर्क|तंत्रिका संजाल]] अनुसंधान की रुचि और वित्त पोषण में महत्वपूर्ण गिरावट का कारण बना था। 1980 के दशक में तंत्रिका संजाल अनुसंधान के पुनरुत्थान का अनुभव होने में दस साल और लग गए।<ref name="Sejnowski"/> इस पाठ को 1987 में परसेप्ट्रॉन - विस्तारित संस्करण के रूप में पुनर्मुद्रित किया गया था जहां मूल पाठ में कुछ त्रुटियां दिखाई गई है और उन्हें ठीक किया गया है।


2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस एल्गोरिदम को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी [यूएस '[[ राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र ]]] प्रयास का हिस्सा था।<ref>{{Cite journal |last=O’Connor |first=Jack |date=2022-06-21 |title=Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery |url=https://www.tandfonline.com/doi/full/10.1080/08850607.2022.2073542 |journal=International Journal of Intelligence and CounterIntelligence |language=en |pages=1–15 |doi=10.1080/08850607.2022.2073542 |s2cid=249946000 |issn=0885-0607}}</ref>
2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी यूएस [[ राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र |राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र]] प्रयास का हिस्सा थे।<ref>{{Cite journal |last=O’Connor |first=Jack |date=2022-06-21 |title=Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery |url=https://www.tandfonline.com/doi/full/10.1080/08850607.2022.2073542 |journal=International Journal of Intelligence and CounterIntelligence |language=en |pages=1–15 |doi=10.1080/08850607.2022.2073542 |s2cid=249946000 |issn=0885-0607}}</ref>
[[कर्नेल परसेप्ट्रॉन]] एल्गोरिदम पहले से ही 1964 में एज़रमैन एट अल द्वारा पेश किया गया था।<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव|journal=Automation and Remote Control |volume=25 |pages=821–837 }}</ref> सामान्य गैर-वियोज्य मामले में परसेप्ट्रॉन एल्गोरिदम के लिए मार्जिन सीमा की गारंटी सबसे पहले [[योव दोस्त]] और [[रॉबर्ट शापिरे]] (1998) द्वारा दी गई थी।<ref name="largemargin">{{Cite journal |doi=10.1023/A:1007662407062 |year=1999 |title=परसेप्ट्रॉन एल्गोरिथम का उपयोग करके बड़े मार्जिन का वर्गीकरण|last1=Freund |first1=Y. |author-link1=Yoav Freund |journal=[[Machine Learning (journal)|Machine Learning]] |volume=37 |issue=3 |pages=277–296 |last2=Schapire |first2=R. E. |s2cid=5885617 |author-link2=Robert Schapire |url=http://cseweb.ucsd.edu/~yfreund/papers/LargeMarginsUsingPerceptron.pdf|doi-access=free }}</ref> और हाल ही में [[ मेहरयर मोहरी ]] और रोस्तामिज़ादेह (2013) द्वारा जो पिछले परिणामों को बढ़ाते हैं और नई एल1 सीमाएं देते हैं।<ref>{{cite arXiv |last1=Mohri |first1=Mehryar |last2=Rostamizadeh |first2=Afshin |title=परसेप्ट्रॉन गलती सीमा|eprint=1305.0208 |year=2013 |class=cs.LG }}</ref>
परसेप्ट्रॉन एक जैविक [[न्यूरॉन]] का एक सरलीकृत मॉडल है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अक्सर [[जैविक न्यूरॉन मॉडल]] की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक मॉडल वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।<ref>{{cite journal |last1=Cash |first1=Sydney |first2=Rafael |last2=Yuste |title=CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग|journal=[[Neuron (journal)|Neuron]] |volume=22 |issue=2 |year=1999 |pages=383–394 |doi=10.1016/S0896-6273(00)81098-3 |pmid=10069343 |doi-access=free }}</ref>


[[कर्नेल परसेप्ट्रॉन]] कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा प्रस्तुत किया गया था।<ref>{{cite journal |last1=Aizerman |first1=M. A. |last2=Braverman |first2=E. M. |last3=Rozonoer |first3=L. I. |year=1964 |title=पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव|journal=Automation and Remote Control |volume=25 |pages=821–837 }}</ref> सामान्य गैर-वियोज्य स्थिति में परसेप्ट्रॉन कलन विधि के लिए सीमा की जिम्मेदारी सबसे पहले [[योव दोस्त]] और [[रॉबर्ट शापिरे]] (1998) द्वारा दी गई थी।<ref name="largemargin">{{Cite journal |doi=10.1023/A:1007662407062 |year=1999 |title=परसेप्ट्रॉन एल्गोरिथम का उपयोग करके बड़े मार्जिन का वर्गीकरण|last1=Freund |first1=Y. |author-link1=Yoav Freund |journal=[[Machine Learning (journal)|Machine Learning]] |volume=37 |issue=3 |pages=277–296 |last2=Schapire |first2=R. E. |s2cid=5885617 |author-link2=Robert Schapire |url=http://cseweb.ucsd.edu/~yfreund/papers/LargeMarginsUsingPerceptron.pdf|doi-access=free }}</ref><ref>{{cite arXiv |last1=Mohri |first1=Mehryar |last2=Rostamizadeh |first2=Afshin |title=परसेप्ट्रॉन गलती सीमा|eprint=1305.0208 |year=2013 |class=cs.LG }}</ref>


परसेप्ट्रॉन एक जैविक [[न्यूरॉन]] का एक सरलीकृत नमूना होता है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अधिकांशतः [[जैविक न्यूरॉन मॉडल|जैविक न्यूरॉन नमूना]] की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक नमूना वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।<ref>{{cite journal |last1=Cash |first1=Sydney |first2=Rafael |last2=Yuste |title=CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग|journal=[[Neuron (journal)|Neuron]] |volume=22 |issue=2 |year=1999 |pages=383–394 |doi=10.1016/S0896-6273(00)81098-3 |pmid=10069343 |doi-access=free }}</ref>
== परिभाषा ==
== परिभाषा ==
आधुनिक अर्थों में, परसेप्ट्रॉन एक बाइनरी क्लासिफायरियर सीखने के लिए एक एल्गोरिदम है जिसे लीनियर क्लासिफायर#डेफिनिशन कहा जाता है: एक फ़ंक्शन जो इसके इनपुट को मैप करता है <math>\mathbf{x}</math> (एक वास्तविक-मूल्यवान [[सदिश स्थल]]) एक आउटपुट मान के लिए <math>f(\mathbf{x})</math> (एकल [[बाइनरी फ़ंक्शन]] मान):
आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि होती है जिसे रैखिक वर्गीकरण परिभाषा कहा जाता है: एक फंक्शन जो इसके इनपुट को अंकित करता है <math>\mathbf{x}</math> (एक वास्तविक-मूल्यवान [[सदिश स्थल]]) एक आउटपुट मान के लिए <math>f(\mathbf{x})</math> (एकल [[बाइनरी फ़ंक्शन|द्विआधारी फंक्शन]] मान):


:<math>
:<math>
f(\mathbf{x}) = \begin{cases}1 & \text{if }\ \mathbf{w} \cdot \mathbf{x} + b > 0,\\0 & \text{otherwise}\end{cases}
f(\mathbf{x}) = \begin{cases}1 & \text{if }\ \mathbf{w} \cdot \mathbf{x} + b > 0,\\0 & \text{otherwise}\end{cases}
</math>
</math>
कहाँ <math>\mathbf{w}</math> वास्तविक-मूल्यवान भार का एक वेक्टर है, <math>\mathbf{w} \cdot \mathbf{x}</math> [[डॉट उत्पाद]] है <math>\sum_{i=1}^m w_i x_i</math>, कहाँ {{mvar|m}} परसेप्ट्रॉन में इनपुट की संख्या है, और {{mvar|b}} पूर्वाग्रह है. पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है।
जहाँ <math>\mathbf{w}</math> वास्तविक-मूल्यवान भार का एक वेक्टर है, <math>\mathbf{w} \cdot \mathbf{x}</math> [[डॉट उत्पाद]] है <math>\sum_{i=1}^m w_i x_i</math>, जहाँ {{mvar|m}} परसेप्ट्रॉन में इनपुट की संख्या है, और {{mvar|b}} पूर्वाग्रह है, पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है।


का मान है <math>f(\mathbf{x})</math> (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है <math>\mathbf{x}</math> बाइनरी वर्गीकरण समस्या के मामले में, सकारात्मक या नकारात्मक उदाहरण के रूप में। अगर {{mvar|b}} नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होना चाहिए <math>|b|</math> क्लासिफायरियर न्यूरॉन को 0 सीमा से ऊपर धकेलने के लिए। स्थानिक रूप से, पूर्वाग्रह [[निर्णय सीमा]] की स्थिति (हालांकि अभिविन्यास नहीं) को बदल देता है। यदि लर्निंग सेट रैखिक रूप से अलग करने योग्य नहीं है तो परसेप्ट्रॉन लर्निंग एल्गोरिदम समाप्त नहीं होता है। यदि वेक्टर रैखिक रूप से अलग-अलग नहीं हैं तो सीखना कभी भी उस बिंदु तक नहीं पहुंचेगा जहां सभी वैक्टर को ठीक से वर्गीकृत किया जाएगा। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन [[एकमात्र]] समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।<ref>{{cite book |last1=Liou |first1=D.-R. |last2=Liou |first2=J.-W. |last3=Liou |first3=C.-Y. |title=परसेप्ट्रॉन का व्यवहार सीखना|isbn=978-1-477554-73-9 |publisher=iConcept Press |year=2013}}</ref>
मान <math>f(\mathbf{x})</math> (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है <math>\mathbf{x}</math> द्विआधारी वर्गीकरण समस्या के स्थिति में, सकारात्मक या नकारात्मक उदाहरण के रूप में होता है। यदि {{mvar|b}} नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होता है <math>|b|</math> वर्गीकारक न्यूरॉन को 0 सीमा से ऊपर धकेलता है। स्थानिक रूप से, पूर्वाग्रह [[निर्णय सीमा]] की स्थिति को बदल देता है। यदि अधिगम समूह रैखिक रूप से अलग करने योग्य नहीं होता है तो परसेप्ट्रॉन अधिगम कलन विधि समाप्त नहीं होती है। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन [[एकमात्र]] समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।<ref>{{cite book |last1=Liou |first1=D.-R. |last2=Liou |first2=J.-W. |last3=Liou |first3=C.-Y. |title=परसेप्ट्रॉन का व्यवहार सीखना|isbn=978-1-477554-73-9 |publisher=iConcept Press |year=2013}}</ref>
तंत्रिका नेटवर्क के संदर्भ में, एक परसेप्ट्रॉन एक [[कृत्रिम न्यूरॉन]] है जो सक्रियण फ़ंक्शन के रूप में [[हेविसाइड स्टेप फ़ंक्शन]] का उपयोग करता है। परसेप्ट्रॉन एल्गोरिथ्म को मल्टीलेयर परसेप्ट्रॉन से अलग करने के लिए सिंगल-लेयर परसेप्ट्रॉन भी कहा जाता है, जो कि अधिक जटिल तंत्रिका नेटवर्क के लिए एक मिथ्या नाम है। एक रैखिक क्लासिफायरियर के रूप में, सिंगल-लेयर परसेप्ट्रॉन सबसे सरल फीडफॉरवर्ड न्यूरल नेटवर्क है।


==लर्निंग एल्गोरिदम==
तंत्रिका संजाल के संदर्भ में, एक परसेप्ट्रॉन एक [[कृत्रिम न्यूरॉन]] होता है जो संक्रियण फंक्शन के रूप में [[हेविसाइड स्टेप फ़ंक्शन|हेविसाइड चरण फंक्शन]] का उपयोग करता है। परसेप्ट्रॉन कलन विधि को बहुपरत परसेप्ट्रॉन से अलग करने के लिए एकल बहुपरत परसेप्ट्रॉन भी कहा जाता है। एक रैखिक वर्गीकारक के रूप में, एकल बहुपरत परसेप्ट्रॉन सबसे सरल फीडफॉरवर्ड न्यूरल संजाल होता है।
नीचे सिंगल-लेयर परसेप्ट्रॉन के लिए सीखने के एल्गोरिदम का एक उदाहरण दिया गया है। मल्टीलेयर परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत मौजूद होती है, [[पश्चप्रचार]] जैसे अधिक परिष्कृत एल्गोरिदम का उपयोग किया जाना चाहिए। यदि सक्रियण फ़ंक्शन या परसेप्ट्रॉन द्वारा मॉडलिंग की जा रही अंतर्निहित प्रक्रिया नॉनलाइनियर_सिस्टम है, तो वैकल्पिक शिक्षण एल्गोरिदम जैसे [[डेल्टा नियम]] का उपयोग तब तक किया जा सकता है जब तक सक्रियण फ़ंक्शन डिफरेंशियल_फ़ंक्शन है। फिर भी, नीचे दिए गए चरणों में वर्णित शिक्षण एल्गोरिदम अक्सर काम करेगा, यहां तक ​​कि गैर-रेखीय सक्रियण कार्यों वाले बहुपरत परसेप्ट्रोन के लिए भी।


जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका नेटवर्क में संयुक्त होते हैं, तो प्रत्येक आउटपुट न्यूरॉन अन्य सभी से स्वतंत्र रूप से संचालित होता है; इस प्रकार, प्रत्येक आउटपुट को सीखने पर अलगाव में विचार किया जा सकता है।
==अधिगम कलन विधि==
नीचे एकल बहुपरत परसेप्ट्रॉन के लिए सीखने के कलन विधि का एक उदाहरण दिया गया है। बहुपरत परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत उपस्थित होती है, [[पश्चप्रचार]] जैसे अधिक परिष्कृत कलन विधि का उपयोग किया जाता है। यदि संक्रियण फंक्शन या परसेप्ट्रॉन द्वारा की जा रही अंतर्निहित प्रक्रिया गैर रैखिक प्रणाली होती है, तो वैकल्पिक शिक्षण कलन विधि जैसे [[डेल्टा नियम]] का उपयोग किया जाता है। फिर भी, नीचे दिए गए चरणों में वर्णित शिक्षण कलन विधि अधिकांशतः काम करती है, यहां तक ​​कि गैर-रेखीय संक्रियण कार्यों वाले बहुपरत परसेप्ट्रोन के लिए भी काम करती है।
 
जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका संजाल में संयुक्त होते है, तो प्रत्येक आउटपुट न्यूरॉन अन्य सभी से स्वतंत्र रूप से संचालित होता है, इस प्रकार, प्रत्येक आउटपुट को सीखने पर अलगाव में विचार किया जा सकता है।


=== परिभाषाएँ ===
=== परिभाषाएँ ===


हम पहले कुछ चर परिभाषित करते हैं:
हम पहले कुछ चर परिभाषित करते है:
*आर परसेप्ट्रॉन की सीखने की दर है। सीखने की दर 0 और 1 के बीच है। बड़े मान वजन परिवर्तन को अधिक अस्थिर बनाते हैं।
*r परसेप्ट्रॉन सीखने की दर है। सीखने की दर 0 और 1 के बीच है। बड़े मान वजन परिवर्तन को अधिक अस्थिर बनाते है।
*<math>y = f(\mathbf{z}) </math> इनपुट वेक्टर के लिए परसेप्ट्रॉन से आउटपुट को दर्शाता है <math>\mathbf{z}</math>.
*<math>y = f(\mathbf{z}) </math> इनपुट वेक्टर के लिए परसेप्ट्रॉन से आउटपुट को दर्शाता है <math>\mathbf{z}</math>.
*<math>D = \{(\mathbf{x}_1,d_1),\dots,(\mathbf{x}_s,d_s)\} </math> का प्रशिक्षण सेट है <math>s</math> नमूने, कहाँ:
*<math>D = \{(\mathbf{x}_1,d_1),\dots,(\mathbf{x}_s,d_s)\} </math> का प्रशिक्षण समूह है <math>s</math>, जहाँ:
** <math>\mathbf{x}_j</math> है <math>n</math>-आयामी इनपुट वेक्टर.
** <math>\mathbf{x}_j</math> है <math>n</math>-आयामी इनपुट वेक्टर है
** <math>d_j </math> उस इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है।
** <math>d_j </math> उस इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है।
हम सुविधाओं के मान इस प्रकार दिखाते हैं:
हम सुविधाओं के मान इस प्रकार दिखाते है:
*<math>x_{j,i} </math> का मान है <math>i</math>की विशेषता <math>j</math>वें प्रशिक्षण इनपुट वेक्टर.
*<math>x_{j,i} </math> का मान है <math>i</math> की विशेषता <math>j</math> वह प्रशिक्षण इनपुट वेक्टर है
*<math>x_{j,0} = 1 </math>.
*<math>x_{j,0} = 1 </math>.
वज़न दर्शाने के लिए:
वजन दर्शाने के लिए:
*<math>w_i </math> है <math>i</math>वज़न वेक्टर में वें मान को, के मान से गुणा किया जाना है <math>i</math>वें इनपुट सुविधा.
*<math>w_i </math>वजन वेक्टर में मान को, <math>i</math> के मान से गुणा किया जाता है
*क्योंकि <math>x_{j,0} = 1 </math>, <math>w_0 </math> प्रभावी रूप से एक पूर्वाग्रह है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के बजाय करते हैं <math>b</math>.
*क्योंकि <math>x_{j,0} = 1 </math>, <math>w_0 </math> प्रभावी रूप से एक पूर्वाग्रह होता है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के अतिरिक्त करते है <math>b</math>
की समय-निर्भरता दर्शाने के लिए <math>\mathbf{w}</math>, हम उपयोग करते हैं:
समय-निर्भरता दर्शाने के लिए है <math>\mathbf{w}</math>, हम उपयोग करते है:
*<math>w_i(t) </math> वजन है <math>i</math> समय पर <math>t</math>.
*<math>w_i(t) </math> वजन है <math>i</math> समय है <math>t</math>


=== चरण ===
=== चरण ===
{{Ordered list  
{{Ordered list  
| Initialize the weights. Weights may be initialized to 0 or to a small random value. In the example below, we use 0.
|वजन को 0 या छोटे यादृच्छिक मान से प्रारंभ किया जा सकता है। नीचे दिए गए उदाहरण में, हम 0 का उपयोग करते है।| प्रत्येक उदाहरण के लिए {{mvar|j}} हमारे प्रशिक्षण समूह में {{mvar|D}}, इनपुट पर निम्नलिखित चरण निष्पादित करता है <math>\mathbf{x}_j </math> और वांछित आउटपुट <math>d_j </math>:
| For each example {{mvar|j}} in our training set {{mvar|D}}, perform the following steps over the input <math>\mathbf{x}_j </math> and desired output <math>d_j </math>:
{{Ordered list |list_style_type=lower-alpha
{{Ordered list |list_style_type=lower-alpha
|Calculate the actual output:
|वास्तविक आउटपुट की गणना है:
:<math>\begin{align}
:<math>\begin{align}
y_j(t) &= f[\mathbf{w}(t)\cdot\mathbf{x}_j] \\
y_j(t) &= f[\mathbf{w}(t)\cdot\mathbf{x}_j] \\
&= f[w_0(t)x_{j,0} + w_1(t)x_{j,1} + w_2(t)x_{j,2} + \dotsb + w_n(t)x_{j,n}]
&= f[w_0(t)x_{j,0} + w_1(t)x_{j,1} + w_2(t)x_{j,2} + \dotsb + w_n(t)x_{j,n}]
\end{align}</math>
\end{align}</math>
|Update the weights:
|वजन अद्यतन है:
:<math>w_i(t+1) = w_i(t) \; \boldsymbol{+} \; r\cdot(d_j - y_j(t)) x_{j,i} </math>, for all features <math>0 \leq i \leq n</math>, <math>r</math> is the [[learning rate]].
:<math>w_i(t+1) = w_i(t) \; \boldsymbol{+} \; r\cdot(d_j - y_j(t)) x_{j,i} </math>, सभी सुविधाओं के लिए <math>0 \leq i \leq n</math>, <math>r</math> [[सीखने की दर]] है
}}
}}
| For [[offline learning]], the second step may be repeated until the iteration error <math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math> is less than a user-specified error threshold <math>\gamma </math>, or a predetermined number of iterations have been completed, where ''s'' is again the size of the sample set.
|[[ऑफलाइन सीखने]] के लिए, दूसरे चरण को पुनरावृत्ति त्रुटि होने तक दोहराया जा सकता है <math>\frac{1}{s} \sum_{j=1}^s |d_j - y_j(t)| </math> उपयोगकर्ता-निर्दिष्ट त्रुटि सीमा से कम है <math>\gamma </math>, या पुनरावृत्तियों की एक पूर्व निर्धारित संख्या पूरी हो चुकी है, जहां ''s'' फिर से नमूना समूह का आकार है।
}}
}}
एल्गोरिथ्म चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अपडेट करता है।
कलन विधि चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अद्यतन करता है।


[[File:Perceptron example.svg|500px|thumb |right|अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है]]
[[File:Perceptron example.svg|500px|thumb |right|अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है]]


[[Image:Perceptron.svg|right|thumb|500px|उचित भार इनपुट पर लागू होते हैं, और परिणामी भारित योग एक फ़ंक्शन को पास कर दिया जाता है जो आउटपुट ओ उत्पन्न करता है।]]
[[Image:Perceptron.svg|right|thumb|500px|उचित भार इनपुट पर लागू होते है, और परिणामी भारित योग एक फंक्शन को पास कर दिया जाता है जो आउटपुट ओ उत्पन्न करता है।]]


===अभिसरण===
===अभिसरण===
परसेप्ट्रॉन एक रैखिक क्लासिफायरियर है, इसलिए यदि प्रशिक्षण सेट सही ढंग से वर्गीकृत किया गया है तो यह कभी भी सभी इनपुट वैक्टर के साथ राज्य में नहीं पहुंचेगा {{mvar|D}} रैखिक रूप से अलग करने योग्य नहीं है, अर्थात यदि सकारात्मक उदाहरणों को हाइपरप्लेन द्वारा नकारात्मक उदाहरणों से अलग नहीं किया जा सकता है। इस मामले में, मानक शिक्षण एल्गोरिदम के तहत धीरे-धीरे कोई अनुमानित समाधान नहीं निकाला जाएगा, बल्कि इसके बजाय, सीखना पूरी तरह से विफल हो जाएगा। इसलिए, यदि प्रशिक्षण सेट की रैखिक पृथक्करण प्राथमिकता से ज्ञात नहीं है, तो नीचे दिए गए प्रशिक्षण प्रकारों में से एक का उपयोग किया जाना चाहिए।
परसेप्ट्रॉन एक रैखिक वर्गीकारक होता है, इसलिए यदि प्रशिक्षण समूह सही तरह से वर्गीकृत किया गया है तो यह कभी भी सभी इनपुट वैक्टर के साथ सीमा तक नहीं पहुँचता है {{mvar|D}} रैखिक रूप से अलग करने योग्य नहीं होता है, अर्थात यदि सकारात्मक उदाहरणों को हाइपरप्लेन द्वारा नकारात्मक उदाहरणों से अलग नहीं किया जा सकता है। इस स्थिति में, मानक शिक्षण कलन विधि के अनुसार धीरे-धीरे कोई अनुमानित समाधान नहीं निकाला जाता है, जबकि इसके अतिरिक्त, सीखना पूरी तरह से विफल हो जाता है। इसलिए, यदि प्रशिक्षण समूह की रैखिक पृथक्करण प्राथमिकता से ज्ञात नहीं होता है, तो नीचे दिए गए प्रशिक्षण प्रकारों में से एक का उपयोग किया जाता है।


यदि प्रशिक्षण सेट रैखिक रूप से अलग करने योग्य है, तो परसेप्ट्रॉन के अभिसरण की गारंटी है।<ref>{{Cite journal|last=Novikoff|first=Albert J.|date=1963|title=परसेप्ट्रॉन के लिए अभिसरण प्रमाण पर|journal=Office of Naval Research}}</ref> इसके अलावा, प्रशिक्षण के दौरान परसेप्ट्रॉन अपने वजन को कितनी बार समायोजित करेगा इसकी एक ऊपरी सीमा है।
यदि प्रशिक्षण समूह रैखिक रूप से अलग करने योग्य है, तो परसेप्ट्रॉन के अभिसरण की जिम्मेदारी होती है।<ref>{{Cite journal|last=Novikoff|first=Albert J.|date=1963|title=परसेप्ट्रॉन के लिए अभिसरण प्रमाण पर|journal=Office of Naval Research}}</ref> इसके अतिरिक्त, प्रशिक्षण के समय परसेप्ट्रॉन अपने वजन को कितनी बार समायोजित करता है इसकी एक ऊपरी सीमा होती है।


मान लीजिए कि दो वर्गों के इनपुट वैक्टर को एक मार्जिन के साथ हाइपरप्लेन द्वारा अलग किया जा सकता है <math>\gamma </math>, यानी एक वजन वेक्टर मौजूद है <math>\mathbf{w}, ||\mathbf{w}||=1</math>, और एक पूर्वाग्रह शब्द {{mvar|b}} ऐसा है कि <math>\mathbf{w}\cdot\mathbf{x}_j > \gamma </math> सभी के लिए <math>j</math> साथ <math>d_j=1</math> और <math>\mathbf{w}\cdot\mathbf{x}_j < -\gamma </math> सभी के लिए <math>j</math> साथ <math>d_j=0</math>, कहाँ <math>d_j</math> इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है <math>j</math>. चलो भी {{mvar|R}} किसी इनपुट वेक्टर के अधिकतम मानदंड को निरूपित करें। नोविकॉफ (1962) ने साबित किया कि इस मामले में परसेप्ट्रॉन एल्गोरिदम बनाने के बाद अभिसरण करता है <math>O(R^2/\gamma^2)</math> अद्यतन. प्रमाण का विचार यह है कि वजन वेक्टर को हमेशा एक सीमाबद्ध राशि द्वारा उस दिशा में समायोजित किया जाता है जिसके साथ इसका नकारात्मक डॉट उत्पाद होता है, और इस प्रकार इसे ऊपर से सीमित किया जा सकता है {{math|''O''({{sqrt|''t''}})}}, कहाँ {{mvar|t}} भार वेक्टर में परिवर्तनों की संख्या है। हालाँकि, इसे नीचे भी सीमित किया जा सकता है {{math|''O''(''t'')}} क्योंकि यदि कोई (अज्ञात) संतोषजनक भार वेक्टर मौजूद है, तो प्रत्येक परिवर्तन इस (अज्ञात) दिशा में सकारात्मक मात्रा में प्रगति करता है जो केवल इनपुट वेक्टर पर निर्भर करता है।
मान लेते है कि दो वर्गों के इनपुट वैक्टर को एक सीमा के साथ हाइपरप्लेन द्वारा अलग किया जाता है <math>\gamma </math>, अर्थात एक वजन वेक्टर उपस्थित है <math>\mathbf{w}, ||\mathbf{w}||=1</math>, और एक पूर्वाग्रह शब्द {{mvar|b}} ऐसा है कि <math>\mathbf{w}\cdot\mathbf{x}_j > \gamma </math> सभी के लिए <math>j</math> साथ <math>d_j=1</math> और <math>\mathbf{w}\cdot\mathbf{x}_j < -\gamma </math> सभी के लिए <math>j</math> साथ <math>d_j=0</math>, जहाँ <math>d_j</math> इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है <math>j</math>. और {{mvar|R}} किसी इनपुट वेक्टर के अधिकतम मानदंड को निरूपित करता है। नोविकॉफ (1962) ने सिद्ध किया कि इस स्थिति में परसेप्ट्रॉन कलन विधि बनाने के बाद अभिसरण करता है <math>O(R^2/\gamma^2)</math> अद्यतन. प्रमाण का विचार यह है कि वजन वेक्टर को हमेशा एक सीमाबद्ध द्वारा उस दिशा में समायोजित किया जाता है जिसके साथ इसका नकारात्मक डॉट उत्पाद होता है, और इस प्रकार इसे ऊपर से सीमित किया जा सकता है {{math|''O''({{sqrt|''t''}})}}, जहाँ {{mvar|t}} भार वेक्टर में परिवर्तनों की संख्या है। चूँकि, इसे नीचे भी सीमित किया जा सकता है {{math|''O''(''t'')}} क्योंकि यदि कोई (अज्ञात) संतोषजनक भार वेक्टर उपस्थित है, तो प्रत्येक परिवर्तन इस (अज्ञात) दिशा में सकारात्मक मात्रा में प्रगति करता है जो केवल इनपुट वेक्टर पर निर्भर करता है।


[[File:Perceptron cant choose.svg|thumb|300px|बिंदुओं के दो वर्ग, और दो अनंत रैखिक सीमाएँ जो उन्हें अलग करती हैं। भले ही सीमाएँ एक दूसरे से लगभग समकोण पर हैं, परसेप्ट्रॉन एल्गोरिदम के पास उनके बीच चयन करने का कोई तरीका नहीं है।]]जबकि परसेप्ट्रॉन एल्गोरिदम को रैखिक रूप से अलग किए जाने योग्य प्रशिक्षण सेट के मामले में कुछ समाधान पर एकत्रित होने की गारंटी दी जाती है, फिर भी यह कोई भी समाधान चुन सकता है और समस्याएं अलग-अलग गुणवत्ता के कई समाधान स्वीकार कर सकती हैं।<ref>{{cite book |last=Bishop |first=Christopher M |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer Science+Business Media, LLC |isbn=978-0387-31073-2 |chapter=Chapter 4. Linear Models for Classification |pages=194|date=2006-08-17 }}</ref> इष्टतम स्थिरता का परसेप्ट्रॉन, जिसे आजकल लीनियर [[ समर्थन वेक्टर यंत्र ]] के रूप में जाना जाता है, इस समस्या को हल करने के लिए डिज़ाइन किया गया था (क्राउथ और मेजार्ड, 1987)।<ref name="KrauthMezard87">{{cite journal |first1=W. |last1=Krauth |first2=M. |last2=Mezard |title=तंत्रिका नेटवर्क में इष्टतम स्थिरता के साथ लर्निंग एल्गोरिदम|journal=Journal of Physics A: Mathematical and General |volume=20 |issue= 11|pages=L745–L752 |year=1987 |doi=10.1088/0305-4470/20/11/013 |bibcode=1987JPhA...20L.745K }}</ref>
[[File:Perceptron cant choose.svg|thumb|300px|बिंदुओं के दो वर्ग, और दो अनंत रैखिक सीमाएँ जो उन्हें अलग करती है। यदि सीमाएँ एक दूसरे से लगभग समकोण पर है, परसेप्ट्रॉन कलन विधि के पास उनके बीच चयन करने का कोई विधि नहीं होती है।]]जबकि परसेप्ट्रॉन कलन विधि को रैखिक रूप से अलग किए जाने योग्य प्रशिक्षण समूह के स्थिति में कुछ समाधान पर एकत्रित होने की जिम्मेदारी दी जाती है, फिर भी यह कोई भी समाधान चुन सकता है और समस्याएं अलग-अलग गुणवत्ता के कई समाधान स्वीकार कर सकती है।<ref>{{cite book |last=Bishop |first=Christopher M |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer Science+Business Media, LLC |isbn=978-0387-31073-2 |chapter=Chapter 4. Linear Models for Classification |pages=194|date=2006-08-17 }}</ref> इष्टतम स्थिरता का परसेप्ट्रॉन, जिसे आजकल रैखिक [[ समर्थन वेक्टर यंत्र |समर्थन वेक्टर यंत्र]] के रूप में जाना जाता है, इस समस्या को हल करने के लिए डिज़ाइन किया गया था।<ref name="KrauthMezard87">{{cite journal |first1=W. |last1=Krauth |first2=M. |last2=Mezard |title=तंत्रिका नेटवर्क में इष्टतम स्थिरता के साथ लर्निंग एल्गोरिदम|journal=Journal of Physics A: Mathematical and General |volume=20 |issue= 11|pages=L745–L752 |year=1987 |doi=10.1088/0305-4470/20/11/013 |bibcode=1987JPhA...20L.745K }}</ref>
== प्रकार ==
पॉकेट कलन विधि (गैलेंट, 1990) परसेप्ट्रॉन सीखने की स्थिरता की समस्या को हल करता है। इसका उपयोग गैर-वियोज्य डेटा समूहों के लिए भी किया जा सकता है, जहां उद्देश्य कम संख्या में गलत वर्गीकरण के साथ एक परसेप्ट्रॉन प्राप्त करता है। चूँकि, ये समाधान पूरी तरह से प्रसंभाव्य रूप से दिखाई देता है और इसलिए पॉकेट कलन विधि न तो सीखने के समय धीरे-धीरे उन तक पहुंचता है, और न ही उन्हें सीखने के चरणों की एक निश्चित संख्या के भीतर दिखाई देने की जिम्मेदारी होती है।


मैक्सओवर कलन विधि (वेंडेमुथ, 1995) रोबस्टनेस (कंप्यूटर विज्ञान) डेटा समूह की रैखिक पृथक्करणता के (पूर्व) ज्ञान की परवाह किए बिना अभिसरण करता है।<ref>{{cite journal |first=A. |last=Wendemuth |title=अनलर्नेबल को सीखना|journal=Journal of Physics A: Mathematical and General |volume=28 |issue= 18|pages=5423–5436 |year=1995 |doi=10.1088/0305-4470/28/18/030 |bibcode=1995JPhA...28.5423W }}</ref> रैखिक रूप से अलग करने योग्य स्थिति में, यह प्रशिक्षण समस्या को हल करता है। गैर-वियोज्य डेटा समूह के लिए, यह कम संख्या में गलत वर्गीकरण का समाधान करता है। सभी स्थितियों में, कलन विधि धीरे-धीरे सीखने के समय समाधान तक पहुंचता है, अभिसरण योग्य डेटा समूहों के लिए वैश्विक इष्टतमता और गैर-वियोज्य डेटा समूहों के लिए स्थानीय इष्टतमता होती है।


== वेरिएंट ==
वोटेड परसेप्ट्रॉन (फ़्रायंड और शापिरे, 1999), एकाधिक भारित परसेप्ट्रॉन का उपयोग करने वाला एक प्रकार होता है। हर बार जब किसी उदाहरण को गलत विधि से वर्गीकृत किया जाता है, तो कलन विधि एक नया परसेप्ट्रॉन प्रारंभ करता है, अंतिम परसेप्ट्रॉन के अंतिम वजन के साथ वजन वेक्टर को आरंभ करता है। प्रत्येक परसेप्ट्रॉन को एक अन्य भार भी दिया जाता है, जो कि किसी एक को गलत विधि से वर्गीकृत करने से पहले कितने उदाहरणों को सही तरह से वर्गीकृत करता है।
रैचेट के साथ पॉकेट एल्गोरिदम (गैलेंट, 1990) अपनी जेब में अब तक देखे गए सबसे अच्छे समाधान को रखकर परसेप्ट्रॉन सीखने की स्थिरता की समस्या को हल करता है। पॉकेट एल्गोरिदम अंतिम समाधान के बजाय समाधान को पॉकेट में लौटा देता है। इसका उपयोग गैर-वियोज्य डेटा सेटों के लिए भी किया जा सकता है, जहां उद्देश्य कम संख्या में गलत वर्गीकरण के साथ एक परसेप्ट्रॉन ढूंढना है। हालाँकि, ये समाधान पूरी तरह से स्टोकेस्टिक रूप से दिखाई देते हैं और इसलिए पॉकेट एल्गोरिदम न तो सीखने के दौरान धीरे-धीरे उन तक पहुंचता है, और न ही उन्हें सीखने के चरणों की एक निश्चित संख्या के भीतर दिखाई देने की गारंटी है।


मैक्सओवर एल्गोरिथम (वेंडेमुथ, 1995) रोबस्टनेस (कंप्यूटर विज्ञान)| इस अर्थ में मजबूत कि यह डेटा सेट की रैखिक पृथक्करणता के (पूर्व) ज्ञान की परवाह किए बिना अभिसरण करेगा।<ref>{{cite journal |first=A. |last=Wendemuth |title=अनलर्नेबल को सीखना|journal=Journal of Physics A: Mathematical and General |volume=28 |issue= 18|pages=5423–5436 |year=1995 |doi=10.1088/0305-4470/28/18/030 |bibcode=1995JPhA...28.5423W }}</ref> रैखिक रूप से अलग करने योग्य मामले में, यह प्रशिक्षण समस्या को हल करेगा - यदि वांछित है, तो इष्टतम स्थिरता (कक्षाओं के बीच [[हाइपरप्लेन पृथक्करण प्रमेय]]) के साथ भी। गैर-वियोज्य डेटा सेट के लिए, यह कम संख्या में गलत वर्गीकरण के साथ एक समाधान लौटाएगा। सभी मामलों में, एल्गोरिथ्म धीरे-धीरे सीखने के दौरान समाधान तक पहुंचता है, पिछली स्थितियों को याद किए बिना और स्टोकेस्टिक जंप के बिना। अभिसरण अलग करने योग्य डेटा सेटों के लिए वैश्विक इष्टतमता और गैर-वियोज्य डेटा सेटों के लिए स्थानीय इष्टतमता के लिए है।
अलग करने योग्य समस्याओं में, परसेप्ट्रॉन प्रशिक्षण का लक्ष्य वर्गों के बीच सबसे बड़ा पृथक्करण सीमा प्राप्त करना भी हो सकता है। इष्टतम स्थिरता के तथाकथित परसेप्ट्रॉन को पुनरावृत्त प्रशिक्षण और अनुकूलन योजनाओं के माध्यम से निर्धारित किया जा सकता है, जैसे कि मिन-ओवर कलन विधि (क्राउथ और मेजार्ड, 1987)<ref name="KrauthMezard87"></ref> या एडाट्रॉन (अनलाउफ और बीहल, 1989)<ref>{{cite journal |first1=J. K. |last1=Anlauf |first2=M. |last2=Biehl |title=The AdaTron: an Adaptive Perceptron algorithm |journal=Europhysics Letters |volume=10 |issue= 7|pages=687–692 |year=1989 |doi=10.1209/0295-5075/10/7/014 |bibcode=1989EL.....10..687A |s2cid=250773895 }}</ref> इस तथ्य का उपयोग करते है कि संबंधित द्विघात अनुकूलन समस्या उत्तल होती है। इष्टतम स्थिरता का परसेप्ट्रॉन, वेक्टर यंत्र की वैचारिक नींव है।


वोटेड परसेप्ट्रॉन (फ़्रायंड और शापिरे, 1999), एकाधिक भारित परसेप्ट्रॉन का उपयोग करने वाला एक प्रकार है। हर बार जब किसी उदाहरण को गलत तरीके से वर्गीकृत किया जाता है, तो एल्गोरिदम एक नया परसेप्ट्रॉन शुरू करता है, अंतिम परसेप्ट्रॉन के अंतिम वजन के साथ वेट वेक्टर को आरंभ करता है। प्रत्येक परसेप्ट्रॉन को एक अन्य भार भी दिया जाएगा, जो कि किसी एक को गलत तरीके से वर्गीकृत करने से पहले कितने उदाहरणों को सही ढंग से वर्गीकृत करता है, और अंत में आउटपुट सभी परसेप्ट्रॉन पर एक भारित वोट होगा।
<math>\alpha</math> परसेप्ट्रॉन ने सीमा आउटपुट इकाइयों के साथ निश्चित यादृच्छिक भार की एक पूर्व-प्रसंस्करण परत का उपयोग किया था। इसने परसेप्ट्रॉन को [[ बाइनरी स्पेस विभाजन |द्विआधारी विभाजन]] में प्रक्षेपित करके अनुरूप प्रतिरूप को वर्गीकृत करने में सक्षम बनाया था। वास्तव में, पर्याप्त उच्च आयाम के प्रक्षेपण स्थान के लिए, प्रतिरूप रैखिक रूप से अलग हो सकते है।


अलग करने योग्य समस्याओं में, परसेप्ट्रॉन प्रशिक्षण का लक्ष्य कक्षाओं के बीच सबसे बड़ा पृथक्करण मार्जिन ढूंढना भी हो सकता है। इष्टतम स्थिरता के तथाकथित परसेप्ट्रॉन को पुनरावृत्त प्रशिक्षण और अनुकूलन योजनाओं के माध्यम से निर्धारित किया जा सकता है, जैसे कि मिन-ओवर एल्गोरिदम (क्राउथ और मेजार्ड, 1987)<ref name="KrauthMezard87"></ref> या AdaTron (Anlauf और Biehl, 1989))।<ref>{{cite journal |first1=J. K. |last1=Anlauf |first2=M. |last2=Biehl |title=The AdaTron: an Adaptive Perceptron algorithm |journal=Europhysics Letters |volume=10 |issue= 7|pages=687–692 |year=1989 |doi=10.1209/0295-5075/10/7/014 |bibcode=1989EL.....10..687A |s2cid=250773895 }}</ref> AdaTron इस तथ्य का उपयोग करता है कि संबंधित द्विघात अनुकूलन समस्या उत्तल है। इष्टतम स्थिरता का परसेप्ट्रॉन, [[कर्नेल चाल]] के साथ, सपोर्ट-वेक्टर मशीन की वैचारिक नींव है। <math>\alpha</math>वें>-परसेप्ट्रॉन ने थ्रेशोल्ड आउटपुट इकाइयों के साथ निश्चित यादृच्छिक भार की एक पूर्व-प्रसंस्करण परत का उपयोग किया। इसने परसेप्ट्रॉन को [[ बाइनरी स्पेस विभाजन ]] में प्रक्षेपित करके विक्षनरी:एनालॉग पैटर्न को वर्गीकृत करने में सक्षम बनाया। वास्तव में, पर्याप्त उच्च आयाम के प्रक्षेपण स्थान के लिए, पैटर्न रैखिक रूप से अलग हो सकते हैं।
एकाधिक परतों का उपयोग किए बिना गैर-रेखीय समस्याओं को हल करने के लिए दूसरे विधि उच्च क्रम संजाल (सिग्मा-पीआई यूनिट) का उपयोग किया जाता है। इस प्रकार के संजाल में, इनपुट वेक्टर में प्रत्येक तत्व को गुणा किए गए इनपुट (दूसरे क्रम) के प्रत्येक जोड़ीदार संयोजन के साथ बढ़ाया जाता है।


एकाधिक परतों का उपयोग किए बिना गैर-रेखीय समस्याओं को हल करने का दूसरा तरीका उच्च क्रम नेटवर्क (सिग्मा-पीआई यूनिट) का उपयोग करना है। इस प्रकार के नेटवर्क में, इनपुट वेक्टर में प्रत्येक तत्व को गुणा किए गए इनपुट (दूसरे क्रम) के प्रत्येक जोड़ीदार संयोजन के साथ बढ़ाया जाता है। इसे एन-ऑर्डर नेटवर्क तक बढ़ाया जा सकता है।
चूँकि, यह ध्यान में रखना चाहिए कि सबसे अच्छा वर्गीकारक आवश्यक नहीं होता है कि जो सभी प्रशिक्षण डेटा को पूरी तरह से वर्गीकृत करता है। वास्तव में, यदि हमारे पास डेटा सम-संस्करण गाऊसी वितरण से आता है, तो इनपुट स्थान में रैखिक पृथक्करण इष्टतम होती है।


हालाँकि, यह ध्यान में रखा जाना चाहिए कि सबसे अच्छा क्लासिफायरियर जरूरी नहीं है कि जो सभी प्रशिक्षण डेटा को पूरी तरह से वर्गीकृत करता है। वास्तव में, यदि हमारे पास पूर्व बाधा थी कि डेटा सम-संस्करण गाऊसी वितरण से आता है, तो इनपुट स्थान में रैखिक पृथक्करण इष्टतम है, और गैर-रेखीय समाधान [[ओवरफिटिंग]] है।
अन्य रैखिक वर्गीकरण कलन विधि में विनोव (कलन विधि), वेक्टर यंत्र और [[ संभार तन्त्र परावर्तन |संभार तन्त्र परावर्तन]] सम्मलित है।


अन्य रैखिक वर्गीकरण एल्गोरिदम में विनोव (एल्गोरिदम), सपोर्ट-वेक्टर मशीन और [[ संभार तन्त्र परावर्तन ]] शामिल हैं।
== बहु वर्ग परसेप्ट्रॉन ==
 
रैखिक वर्गीकरणों के प्रशिक्षण के लिए अधिकांश अन्य तकनीकों की तरह, परसेप्ट्रॉन स्वाभाविक रूप से बहु वर्ग वर्गीकरण को सामान्यीकृत करता है। यहाँ, इनपुट <math>x</math> और आउटपुट <math>y</math> मनमाने समूहों से तैयार किए गए है। एक सुविधा प्रतिनिधित्व <math>f(x,y)</math> प्रत्येक संभावित इनपुट/आउटपुट जोड़ी को एक परिमित-आयामी वास्तविक-मूल्यवान विशेष वेक्टर में अंकित करता है। पहले की तरह, विशेष वेक्टर को वजन वेक्टर से गुणा किया जाता है <math>w</math>, लेकिन अब परिणामी अक्षरों का उपयोग कई संभावित आउटपुट में से चुनने के लिए किया जाता है:
== मल्टीक्लास परसेप्ट्रॉन ==
रैखिक क्लासिफायरों के प्रशिक्षण के लिए अधिकांश अन्य तकनीकों की तरह, परसेप्ट्रॉन स्वाभाविक रूप से मल्टीक्लास वर्गीकरण को सामान्यीकृत करता है। यहाँ, इनपुट <math>x</math> और आउटपुट <math>y</math> मनमाने सेटों से तैयार किए गए हैं। एक सुविधा प्रतिनिधित्व समारोह <math>f(x,y)</math> प्रत्येक संभावित इनपुट/आउटपुट जोड़ी को एक परिमित-आयामी वास्तविक-मूल्यवान फीचर वेक्टर में मैप करता है। पहले की तरह, फीचर वेक्टर को वेट वेक्टर से गुणा किया जाता है <math>w</math>, लेकिन अब परिणामी स्कोर का उपयोग कई संभावित आउटपुट में से चुनने के लिए किया जाता है:


:<math>\hat y = \operatorname{argmax}_y f(x,y) \cdot w.</math>
:<math>\hat y = \operatorname{argmax}_y f(x,y) \cdot w.</math>
सीखना फिर से उदाहरणों को दोहराता है, प्रत्येक के लिए आउटपुट की भविष्यवाणी करता है, जब अनुमानित आउटपुट लक्ष्य से मेल खाता है तो वज़न को अपरिवर्तित छोड़ देता है, और जब ऐसा नहीं होता है तो उन्हें बदल देता है। अद्यतन बन जाता है:
सीखना फिर से उदाहरणों को दोहराता है, प्रत्येक के लिए आउटपुट की भविष्यवाणी करता है, जब अनुमानित आउटपुट लक्ष्य से मेल खाता है तो वजन को अपरिवर्तित छोड़ देता है, और जब ऐसा नहीं होता है तो उन्हें बदल देता है। अद्यतन बन जाता है:


:<math> w_{t+1} = w_t + f(x, y) - f(x,\hat y).</math>
:<math> w_{t+1} = w_t + f(x, y) - f(x,\hat y).</math>
यह मल्टीक्लास फीडबैक फॉर्मूलेशन मूल परसेप्ट्रॉन को कम कर देता है जब <math>x</math> एक वास्तविक-मूल्यवान वेक्टर है, <math>y</math> से चुना जाता है <math>\{0,1\}</math>, और <math>f(x,y) = y x</math>.
यह बहु वर्ग प्रतिक्रिया सूत्रीकरण मूल परसेप्ट्रॉन को कम कर देता है जब <math>x</math> एक वास्तविक-मूल्यवान वेक्टर होता है, <math>y</math> से चुना जाता है <math>\{0,1\}</math>, और <math>f(x,y) = y x</math>
 
कुछ समस्याओं के लिए, इनपुट/आउटपुट अभ्यावेदन और सुविधाओं को चुना जा सकता है <math>\mathrm{argmax}_y f(x,y) \cdot w</math> यद्यपि कुशलतापूर्वक पाया जा सकता है <math>y</math> बहुत बड़े या अनंत सेट से चुना जाता है।
 
2002 के बाद से, [[भाषण का भाग टैगिंग]] और [[वाक्यविन्यास विश्लेषण]] (कोलिन्स, 2002) जैसे कार्यों के लिए [[प्राकृतिक भाषा प्रसंस्करण]] के क्षेत्र में परसेप्ट्रॉन प्रशिक्षण लोकप्रिय हो गया है। इसे वितरित कंप्यूटिंग सेटिंग में बड़े पैमाने पर मशीन सीखने की समस्याओं पर भी लागू किया गया है।<ref>{{cite book |last1=McDonald |first1=R. |last2=Hall |first2=K. |last3=Mann |first3=G. |year=2010 |chapter=Distributed Training Strategies for the Structured Perceptron |title=Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the ACL |pages=456–464 |publisher=Association for Computational Linguistics |chapter-url=https://www.aclweb.org/anthology/N10-1069.pdf }}</ref>


कुछ समस्याओं के लिए, अभ्यावेदन और सुविधाओं को चुना जा सकता है <math>\mathrm{argmax}_y f(x,y) \cdot w</math> यद्यपि कुशलतापूर्वक प्राप्त किया जा सकता है <math>y</math> बहुत बड़े या अनंत समूह से चुना जाता है।


2002 के बाद से, [[भाषण का भाग टैगिंग|उपनाम]] और [[वाक्यविन्यास विश्लेषण]] (कोलिन्स, 2002) जैसे कार्यों के लिए [[प्राकृतिक भाषा प्रसंस्करण]] के क्षेत्र में परसेप्ट्रॉन प्रशिक्षण लोकप्रिय हो गया है। इसे वितरित कंप्यूटिंग समूह में बड़े प्रवृत्ति पर यंत्र सीखने की समस्याओं पर भी लागू किया गया है।<ref>{{cite book |last1=McDonald |first1=R. |last2=Hall |first2=K. |last3=Mann |first3=G. |year=2010 |chapter=Distributed Training Strategies for the Structured Perceptron |title=Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the ACL |pages=456–464 |publisher=Association for Computational Linguistics |chapter-url=https://www.aclweb.org/anthology/N10-1069.pdf }}</ref>
==संदर्भ==
==संदर्भ==
{{Reflist}}
{{Reflist}}
Line 141: Line 139:
{{Differentiable computing}}
{{Differentiable computing}}


{{Authority control}}[[Category: वर्गीकरण एल्गोरिदम]] [[Category: कृत्रिम तंत्रिका प्रसार]]
{{Authority control}}
 
 


[[Category: Machine Translated Page]]
[[Category:Articles with hatnote templates targeting a nonexistent page]]
[[Category:Articles with redirect hatnotes needing review]]
[[Category:CS1 English-language sources (en)]]
[[Category:Collapse templates]]
[[Category:Created On 26/06/2023]]
[[Category:Created On 26/06/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Navigational boxes| ]]
[[Category:Navigational boxes without horizontal lists]]
[[Category:Pages with broken file links]]
[[Category:Pages with script errors]]
[[Category:Sidebars with styles needing conversion]]
[[Category:Template documentation pages|Documentation/doc]]
[[Category:Templates Translated in Hindi]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates generating microformats]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that are not mobile friendly]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:Wikipedia metatemplates]]
[[Category:कृत्रिम तंत्रिका प्रसार]]
[[Category:वर्गीकरण एल्गोरिदम]]

Latest revision as of 12:53, 14 July 2023

यंत्र अधिगम में, परसेप्ट्रॉन (या मैककुलोच-पिट्स न्यूरॉन) द्विआधारी वर्गीकरण के पर्यवेक्षित वर्गीकरण के लिए एक कलन विधि होती है। द्विआधारी वर्गीकरण एक फंक्शन होता है जो यह निर्धारित कर सकता है कि संख्याओं के वेक्टर द्वारा दर्शाया गया इनपुट किसी विशिष्ट वर्ग से संबंधित है या संबंधित नहीं है।[1] यह एक प्रकार का रैखिक वर्गीकारक होता है, अर्थात एक वर्गीकरण कलन विधि जो विशेष वेक्टर के साथ वजन के एक समूह को मिलाकर एक रैखिक भविष्यवक्ता फंक्शन के आधार पर अपनी भविष्यवाणियां करता है।

इतिहास

File:Mark I perceptron.jpeg
मार्क परसेप्ट्रॉन यंत्र, परसेप्ट्रॉन कलन विधि का पहला कार्यान्वयन। 400-पिक्सेल छवि बनाने के लिए इसे 20×20 कैडमियम सल्फाइड फोटो सेल वाले कैमरे से जोड़ा गया था। मुख्य दृश्यमान विशेषता एक पैच पैनल है जो इनपुट सुविधाओं के विभिन्न संयोजन समूह करता है। दाईं ओर, तनाव नापने का यंत्र की सरणियाँ जो अनुकूली भार लागू करती है।[2]: 213 

परसेप्ट्रॉन का आविष्कार 1943 में वॉरेन मैकुलोच और वाल्टर पिट्स द्वारा किया गया था।[3] पहला कार्यान्वयन 1958 में कॉर्नेल एयरोनॉटिकल प्रयोगशाला में फ्रैंक रोसेनब्लैट द्वारा निर्मित एक यंत्र था,[4] जिसे संयुक्त राज्य नौसेना अनुसंधान कार्यालय द्वारा वित्त पोषित किया गया था।[5]

मार्क 1 परसेप्ट्रॉन का कैमरा प्रणाली।

परसेप्ट्रॉन का उद्देश्य एक प्रोग्राम के अतिरिक्त एक यंत्र होना था, और जबकि इसका पहला कार्यान्वयन आईबीएम 704 के लिए सॉफ्टवेयर में था, बाद में इसे मार्क 1 परसेप्ट्रॉन के रूप में कस्टम-निर्मित हार्डवेयर में लागू किया गया था। इस यंत्र को छवि पहचान के लिए डिज़ाइन किया गया था, इसमें 400 फोटोकल्स की एक श्रृंखला थी, जो यादृच्छिक रूप से न्यूरॉन्स से जुड़ी हुई थी। वजन को पोटेंशियोमीटर में एन्कोड किया गया था, और सीखने के समय वजन अद्यतन विद्युत मोटर द्वारा किया गया था।[2]: 193 

1958 में अमेरिकी नौसेना द्वारा आयोजित एक पत्रकार सम्मेलन में, रोसेनब्लैट ने परसेप्ट्रॉन के बारे में विवरण दिया जिससे नवोदित कृत्रिम बुद्धिमत्ता समुदाय के बीच एक विवाद उत्पन्न हो गया, रोसेनब्लैट के विवरणों के आधार पर, न्यूयॉर्क टाइम्स ने परसेप्ट्रॉन को एक विद्युतिए कंप्यूटर का भ्रूण बताया, जिससे नौसेना को उम्मीद थी कि वह चलने, बात करने, देखने, लिखने, खुद को पुन: उत्पन्न करने और अपने अस्तित्व के प्रति सचेत रहने में सक्षम होगा।[5]

चूँकि परसेप्ट्रोन प्रारंभ में आशाजनक लग रहा था, यह जल्दी ही सिद्ध हो गया कि परसेप्ट्रोन को प्रतिरूप के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसके कारण तंत्रिका संजाल अनुसंधान का क्षेत्र कई वर्षों तक स्थिर रहा, इससे पहले यह माना जाता था कि दो या दो से अधिक परतों वाले एक फीडफॉरवर्ड न्यूरल संजाल (जिसे बहुपरत परसेप्ट्रॉन भी कहा जाता है) में एक परत वाले परसेप्ट्रोन की तुलना में अधिक प्रसंस्करण ऊर्जा होती है।

एकल बहुपरत परसेप्ट्रॉन केवल रैखिक रूप से अलग किए जाने योग्य प्रतिरूप सीखने में सक्षम होता है।[6] कुछ चरण संक्रियण फंक्शन के साथ वर्गीकरण कार्य के लिए, एक एकल नोड में प्रतिरूप बनाने वाले डेटा बिंदुओं को विभाजित करने वाली एक एकल रेखा होती है। अधिक नोड्स अधिक विभाजन रेखाएँ बना सकती है, लेकिन अधिक जटिल वर्गीकरण बनाने के लिए उन रेखाओं को संयोजित करना होता है। परसेप्ट्रॉन की दूसरी परत, या यहां तक ​​कि रैखिक नोड्स, कई अन्यथा गैर-वियोज्य समस्याओं को हल करने के लिए पर्याप्त होता है।

1969 में, मार्विन मिंस्की और सेमुर पैपर्ट की पर्सेप्ट्रॉन (पुस्तक) नामक एक प्रसिद्ध पुस्तक से पता चला कि संजाल के इन वर्गों के लिए एक्सओआर फंक्शन सीखना असंभव था। उन्होंने यह अनुमान लगाया कि एक समान परिणाम बहुपरत परसेप्ट्रॉन संजाल के लिए होता है। चूँकि, यह सच नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि बहुपरत परसेप्ट्रॉन एक्सओआर फंक्शन का उत्पादन करने में सक्षम थे। (अधिक जानकारी के लिए परसेप्ट्रॉन (पुस्तक) पर पेज देखें।) फिर भी, अधिकांशतः गलत विधि से प्रचारित किए जाने वाले मिन्स्की/पेपर तंत्रिका संजाल अनुसंधान की रुचि और वित्त पोषण में महत्वपूर्ण गिरावट का कारण बना था। 1980 के दशक में तंत्रिका संजाल अनुसंधान के पुनरुत्थान का अनुभव होने में दस साल और लग गए।[6] इस पाठ को 1987 में परसेप्ट्रॉन - विस्तारित संस्करण के रूप में पुनर्मुद्रित किया गया था जहां मूल पाठ में कुछ त्रुटियां दिखाई गई है और उन्हें ठीक किया गया है।

2022 के एक लेख में कहा गया है कि मार्क 1 परसेप्ट्रॉन इस कलन विधि को फोटो-दुभाषियों के लिए एक उपयोगी उपकरण के रूप में विकसित करने के लिए 1963 से 1966 तक पहले गुप्त चार-वर्षीय एनपीआईसी यूएस राष्ट्रीय फोटोग्राफिक व्याख्या केंद्र प्रयास का हिस्सा थे।[7]

कर्नेल परसेप्ट्रॉन कलन विधि पहले से ही 1964 में एज़रमैन एट अल द्वारा प्रस्तुत किया गया था।[8] सामान्य गैर-वियोज्य स्थिति में परसेप्ट्रॉन कलन विधि के लिए सीमा की जिम्मेदारी सबसे पहले योव दोस्त और रॉबर्ट शापिरे (1998) द्वारा दी गई थी।[1][9]

परसेप्ट्रॉन एक जैविक न्यूरॉन का एक सरलीकृत नमूना होता है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अधिकांशतः जैविक न्यूरॉन नमूना की जटिलता की आवश्यकता होती है, शोध से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक नमूना वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार उत्पन्न कर सकता है।[10]

परिभाषा

आधुनिक अर्थों में, परसेप्ट्रॉन एक द्विआधारी वर्गीकारक सीखने के लिए एक कलन विधि होती है जिसे रैखिक वर्गीकरण परिभाषा कहा जाता है: एक फंक्शन जो इसके इनपुट को अंकित करता है (एक वास्तविक-मूल्यवान सदिश स्थल) एक आउटपुट मान के लिए (एकल द्विआधारी फंक्शन मान):

जहाँ वास्तविक-मूल्यवान भार का एक वेक्टर है, डॉट उत्पाद है , जहाँ m परसेप्ट्रॉन में इनपुट की संख्या है, और b पूर्वाग्रह है, पूर्वाग्रह निर्णय सीमा को मूल से दूर ले जाता है और किसी भी इनपुट मूल्य पर निर्भर नहीं करता है।

मान (0 या 1) का प्रयोग वर्गीकृत करने के लिए किया जाता है द्विआधारी वर्गीकरण समस्या के स्थिति में, सकारात्मक या नकारात्मक उदाहरण के रूप में होता है। यदि b नकारात्मक है, तो इनपुट के भारित संयोजन से अधिक सकारात्मक मान उत्पन्न होता है वर्गीकारक न्यूरॉन को 0 सीमा से ऊपर धकेलता है। स्थानिक रूप से, पूर्वाग्रह निर्णय सीमा की स्थिति को बदल देता है। यदि अधिगम समूह रैखिक रूप से अलग करने योग्य नहीं होता है तो परसेप्ट्रॉन अधिगम कलन विधि समाप्त नहीं होती है। रैखिक रूप से अविभाज्य वैक्टर के साथ समस्याओं को हल करने में परसेप्ट्रॉन की असमर्थता का सबसे प्रसिद्ध उदाहरण बूलियन एकमात्र समस्या है। संदर्भ में सभी द्विआधारी कार्यों और सीखने के व्यवहारों के लिए निर्णय सीमाओं के समाधान स्थानों का अध्ययन किया जाता है।[11]

तंत्रिका संजाल के संदर्भ में, एक परसेप्ट्रॉन एक कृत्रिम न्यूरॉन होता है जो संक्रियण फंक्शन के रूप में हेविसाइड चरण फंक्शन का उपयोग करता है। परसेप्ट्रॉन कलन विधि को बहुपरत परसेप्ट्रॉन से अलग करने के लिए एकल बहुपरत परसेप्ट्रॉन भी कहा जाता है। एक रैखिक वर्गीकारक के रूप में, एकल बहुपरत परसेप्ट्रॉन सबसे सरल फीडफॉरवर्ड न्यूरल संजाल होता है।

अधिगम कलन विधि

नीचे एकल बहुपरत परसेप्ट्रॉन के लिए सीखने के कलन विधि का एक उदाहरण दिया गया है। बहुपरत परसेप्ट्रॉन के लिए, जहां एक छिपी हुई परत उपस्थित होती है, पश्चप्रचार जैसे अधिक परिष्कृत कलन विधि का उपयोग किया जाता है। यदि संक्रियण फंक्शन या परसेप्ट्रॉन द्वारा की जा रही अंतर्निहित प्रक्रिया गैर रैखिक प्रणाली होती है, तो वैकल्पिक शिक्षण कलन विधि जैसे डेल्टा नियम का उपयोग किया जाता है। फिर भी, नीचे दिए गए चरणों में वर्णित शिक्षण कलन विधि अधिकांशतः काम करती है, यहां तक ​​कि गैर-रेखीय संक्रियण कार्यों वाले बहुपरत परसेप्ट्रोन के लिए भी काम करती है।

जब कई परसेप्ट्रॉन एक कृत्रिम तंत्रिका संजाल में संयुक्त होते है, तो प्रत्येक आउटपुट न्यूरॉन अन्य सभी से स्वतंत्र रूप से संचालित होता है, इस प्रकार, प्रत्येक आउटपुट को सीखने पर अलगाव में विचार किया जा सकता है।

परिभाषाएँ

हम पहले कुछ चर परिभाषित करते है:

  • r परसेप्ट्रॉन सीखने की दर है। सीखने की दर 0 और 1 के बीच है। बड़े मान वजन परिवर्तन को अधिक अस्थिर बनाते है।
  • इनपुट वेक्टर के लिए परसेप्ट्रॉन से आउटपुट को दर्शाता है .
  • का प्रशिक्षण समूह है , जहाँ:
    • है -आयामी इनपुट वेक्टर है
    • उस इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है।

हम सुविधाओं के मान इस प्रकार दिखाते है:

  • का मान है की विशेषता वह प्रशिक्षण इनपुट वेक्टर है
  • .

वजन दर्शाने के लिए:

  • वजन वेक्टर में मान को, के मान से गुणा किया जाता है
  • क्योंकि , प्रभावी रूप से एक पूर्वाग्रह होता है जिसका उपयोग हम पूर्वाग्रह स्थिरांक के अतिरिक्त करते है

समय-निर्भरता दर्शाने के लिए है , हम उपयोग करते है:

  • वजन है समय है

चरण

  1. वजन को 0 या छोटे यादृच्छिक मान से प्रारंभ किया जा सकता है। नीचे दिए गए उदाहरण में, हम 0 का उपयोग करते है।
  2. प्रत्येक उदाहरण के लिए j हमारे प्रशिक्षण समूह में D, इनपुट पर निम्नलिखित चरण निष्पादित करता है और वांछित आउटपुट :
    1. वास्तविक आउटपुट की गणना है:
    2. वजन अद्यतन है:
      , सभी सुविधाओं के लिए , सीखने की दर है
  3. ऑफलाइन सीखने के लिए, दूसरे चरण को पुनरावृत्ति त्रुटि होने तक दोहराया जा सकता है उपयोगकर्ता-निर्दिष्ट त्रुटि सीमा से कम है , या पुनरावृत्तियों की एक पूर्व निर्धारित संख्या पूरी हो चुकी है, जहां s फिर से नमूना समूह का आकार है।

कलन विधि चरण 2 बी में प्रत्येक प्रशिक्षण नमूने के बाद वजन को अद्यतन करता है।

File:Perceptron example.svg
अधिक प्रशिक्षण उदाहरण जोड़े जाने पर एक परसेप्ट्रॉन अपनी रैखिक सीमा को अद्यतन करता हुआ एक आरेख दिखाता है
File:Perceptron.svg
उचित भार इनपुट पर लागू होते है, और परिणामी भारित योग एक फंक्शन को पास कर दिया जाता है जो आउटपुट ओ उत्पन्न करता है।

अभिसरण

परसेप्ट्रॉन एक रैखिक वर्गीकारक होता है, इसलिए यदि प्रशिक्षण समूह सही तरह से वर्गीकृत किया गया है तो यह कभी भी सभी इनपुट वैक्टर के साथ सीमा तक नहीं पहुँचता है D रैखिक रूप से अलग करने योग्य नहीं होता है, अर्थात यदि सकारात्मक उदाहरणों को हाइपरप्लेन द्वारा नकारात्मक उदाहरणों से अलग नहीं किया जा सकता है। इस स्थिति में, मानक शिक्षण कलन विधि के अनुसार धीरे-धीरे कोई अनुमानित समाधान नहीं निकाला जाता है, जबकि इसके अतिरिक्त, सीखना पूरी तरह से विफल हो जाता है। इसलिए, यदि प्रशिक्षण समूह की रैखिक पृथक्करण प्राथमिकता से ज्ञात नहीं होता है, तो नीचे दिए गए प्रशिक्षण प्रकारों में से एक का उपयोग किया जाता है।

यदि प्रशिक्षण समूह रैखिक रूप से अलग करने योग्य है, तो परसेप्ट्रॉन के अभिसरण की जिम्मेदारी होती है।[12] इसके अतिरिक्त, प्रशिक्षण के समय परसेप्ट्रॉन अपने वजन को कितनी बार समायोजित करता है इसकी एक ऊपरी सीमा होती है।

मान लेते है कि दो वर्गों के इनपुट वैक्टर को एक सीमा के साथ हाइपरप्लेन द्वारा अलग किया जाता है , अर्थात एक वजन वेक्टर उपस्थित है , और एक पूर्वाग्रह शब्द b ऐसा है कि सभी के लिए साथ और सभी के लिए साथ , जहाँ इनपुट के लिए परसेप्ट्रॉन का वांछित आउटपुट मान है . और R किसी इनपुट वेक्टर के अधिकतम मानदंड को निरूपित करता है। नोविकॉफ (1962) ने सिद्ध किया कि इस स्थिति में परसेप्ट्रॉन कलन विधि बनाने के बाद अभिसरण करता है अद्यतन. प्रमाण का विचार यह है कि वजन वेक्टर को हमेशा एक सीमाबद्ध द्वारा उस दिशा में समायोजित किया जाता है जिसके साथ इसका नकारात्मक डॉट उत्पाद होता है, और इस प्रकार इसे ऊपर से सीमित किया जा सकता है O(t), जहाँ t भार वेक्टर में परिवर्तनों की संख्या है। चूँकि, इसे नीचे भी सीमित किया जा सकता है O(t) क्योंकि यदि कोई (अज्ञात) संतोषजनक भार वेक्टर उपस्थित है, तो प्रत्येक परिवर्तन इस (अज्ञात) दिशा में सकारात्मक मात्रा में प्रगति करता है जो केवल इनपुट वेक्टर पर निर्भर करता है।

File:Perceptron cant choose.svg
बिंदुओं के दो वर्ग, और दो अनंत रैखिक सीमाएँ जो उन्हें अलग करती है। यदि सीमाएँ एक दूसरे से लगभग समकोण पर है, परसेप्ट्रॉन कलन विधि के पास उनके बीच चयन करने का कोई विधि नहीं होती है।

जबकि परसेप्ट्रॉन कलन विधि को रैखिक रूप से अलग किए जाने योग्य प्रशिक्षण समूह के स्थिति में कुछ समाधान पर एकत्रित होने की जिम्मेदारी दी जाती है, फिर भी यह कोई भी समाधान चुन सकता है और समस्याएं अलग-अलग गुणवत्ता के कई समाधान स्वीकार कर सकती है।[13] इष्टतम स्थिरता का परसेप्ट्रॉन, जिसे आजकल रैखिक समर्थन वेक्टर यंत्र के रूप में जाना जाता है, इस समस्या को हल करने के लिए डिज़ाइन किया गया था।[14]

प्रकार

पॉकेट कलन विधि (गैलेंट, 1990) परसेप्ट्रॉन सीखने की स्थिरता की समस्या को हल करता है। इसका उपयोग गैर-वियोज्य डेटा समूहों के लिए भी किया जा सकता है, जहां उद्देश्य कम संख्या में गलत वर्गीकरण के साथ एक परसेप्ट्रॉन प्राप्त करता है। चूँकि, ये समाधान पूरी तरह से प्रसंभाव्य रूप से दिखाई देता है और इसलिए पॉकेट कलन विधि न तो सीखने के समय धीरे-धीरे उन तक पहुंचता है, और न ही उन्हें सीखने के चरणों की एक निश्चित संख्या के भीतर दिखाई देने की जिम्मेदारी होती है।

मैक्सओवर कलन विधि (वेंडेमुथ, 1995) रोबस्टनेस (कंप्यूटर विज्ञान) डेटा समूह की रैखिक पृथक्करणता के (पूर्व) ज्ञान की परवाह किए बिना अभिसरण करता है।[15] रैखिक रूप से अलग करने योग्य स्थिति में, यह प्रशिक्षण समस्या को हल करता है। गैर-वियोज्य डेटा समूह के लिए, यह कम संख्या में गलत वर्गीकरण का समाधान करता है। सभी स्थितियों में, कलन विधि धीरे-धीरे सीखने के समय समाधान तक पहुंचता है, अभिसरण योग्य डेटा समूहों के लिए वैश्विक इष्टतमता और गैर-वियोज्य डेटा समूहों के लिए स्थानीय इष्टतमता होती है।

वोटेड परसेप्ट्रॉन (फ़्रायंड और शापिरे, 1999), एकाधिक भारित परसेप्ट्रॉन का उपयोग करने वाला एक प्रकार होता है। हर बार जब किसी उदाहरण को गलत विधि से वर्गीकृत किया जाता है, तो कलन विधि एक नया परसेप्ट्रॉन प्रारंभ करता है, अंतिम परसेप्ट्रॉन के अंतिम वजन के साथ वजन वेक्टर को आरंभ करता है। प्रत्येक परसेप्ट्रॉन को एक अन्य भार भी दिया जाता है, जो कि किसी एक को गलत विधि से वर्गीकृत करने से पहले कितने उदाहरणों को सही तरह से वर्गीकृत करता है।

अलग करने योग्य समस्याओं में, परसेप्ट्रॉन प्रशिक्षण का लक्ष्य वर्गों के बीच सबसे बड़ा पृथक्करण सीमा प्राप्त करना भी हो सकता है। इष्टतम स्थिरता के तथाकथित परसेप्ट्रॉन को पुनरावृत्त प्रशिक्षण और अनुकूलन योजनाओं के माध्यम से निर्धारित किया जा सकता है, जैसे कि मिन-ओवर कलन विधि (क्राउथ और मेजार्ड, 1987)[14] या एडाट्रॉन (अनलाउफ और बीहल, 1989)[16] इस तथ्य का उपयोग करते है कि संबंधित द्विघात अनुकूलन समस्या उत्तल होती है। इष्टतम स्थिरता का परसेप्ट्रॉन, वेक्टर यंत्र की वैचारिक नींव है।

परसेप्ट्रॉन ने सीमा आउटपुट इकाइयों के साथ निश्चित यादृच्छिक भार की एक पूर्व-प्रसंस्करण परत का उपयोग किया था। इसने परसेप्ट्रॉन को द्विआधारी विभाजन में प्रक्षेपित करके अनुरूप प्रतिरूप को वर्गीकृत करने में सक्षम बनाया था। वास्तव में, पर्याप्त उच्च आयाम के प्रक्षेपण स्थान के लिए, प्रतिरूप रैखिक रूप से अलग हो सकते है।

एकाधिक परतों का उपयोग किए बिना गैर-रेखीय समस्याओं को हल करने के लिए दूसरे विधि उच्च क्रम संजाल (सिग्मा-पीआई यूनिट) का उपयोग किया जाता है। इस प्रकार के संजाल में, इनपुट वेक्टर में प्रत्येक तत्व को गुणा किए गए इनपुट (दूसरे क्रम) के प्रत्येक जोड़ीदार संयोजन के साथ बढ़ाया जाता है।

चूँकि, यह ध्यान में रखना चाहिए कि सबसे अच्छा वर्गीकारक आवश्यक नहीं होता है कि जो सभी प्रशिक्षण डेटा को पूरी तरह से वर्गीकृत करता है। वास्तव में, यदि हमारे पास डेटा सम-संस्करण गाऊसी वितरण से आता है, तो इनपुट स्थान में रैखिक पृथक्करण इष्टतम होती है।

अन्य रैखिक वर्गीकरण कलन विधि में विनोव (कलन विधि), वेक्टर यंत्र और संभार तन्त्र परावर्तन सम्मलित है।

बहु वर्ग परसेप्ट्रॉन

रैखिक वर्गीकरणों के प्रशिक्षण के लिए अधिकांश अन्य तकनीकों की तरह, परसेप्ट्रॉन स्वाभाविक रूप से बहु वर्ग वर्गीकरण को सामान्यीकृत करता है। यहाँ, इनपुट और आउटपुट मनमाने समूहों से तैयार किए गए है। एक सुविधा प्रतिनिधित्व प्रत्येक संभावित इनपुट/आउटपुट जोड़ी को एक परिमित-आयामी वास्तविक-मूल्यवान विशेष वेक्टर में अंकित करता है। पहले की तरह, विशेष वेक्टर को वजन वेक्टर से गुणा किया जाता है , लेकिन अब परिणामी अक्षरों का उपयोग कई संभावित आउटपुट में से चुनने के लिए किया जाता है:

सीखना फिर से उदाहरणों को दोहराता है, प्रत्येक के लिए आउटपुट की भविष्यवाणी करता है, जब अनुमानित आउटपुट लक्ष्य से मेल खाता है तो वजन को अपरिवर्तित छोड़ देता है, और जब ऐसा नहीं होता है तो उन्हें बदल देता है। अद्यतन बन जाता है:

यह बहु वर्ग प्रतिक्रिया सूत्रीकरण मूल परसेप्ट्रॉन को कम कर देता है जब एक वास्तविक-मूल्यवान वेक्टर होता है, से चुना जाता है , और

कुछ समस्याओं के लिए, अभ्यावेदन और सुविधाओं को चुना जा सकता है यद्यपि कुशलतापूर्वक प्राप्त किया जा सकता है बहुत बड़े या अनंत समूह से चुना जाता है।

2002 के बाद से, उपनाम और वाक्यविन्यास विश्लेषण (कोलिन्स, 2002) जैसे कार्यों के लिए प्राकृतिक भाषा प्रसंस्करण के क्षेत्र में परसेप्ट्रॉन प्रशिक्षण लोकप्रिय हो गया है। इसे वितरित कंप्यूटिंग समूह में बड़े प्रवृत्ति पर यंत्र सीखने की समस्याओं पर भी लागू किया गया है।[17]

संदर्भ

  1. 1.0 1.1 Freund, Y.; Schapire, R. E. (1999). "परसेप्ट्रॉन एल्गोरिथम का उपयोग करके बड़े मार्जिन का वर्गीकरण" (PDF). Machine Learning. 37 (3): 277–296. doi:10.1023/A:1007662407062. S2CID 5885617.
  2. 2.0 2.1 Bishop, Christopher M. (2006). पैटर्न मान्यता और मशीन प्रवीणता. Springer. ISBN 0-387-31073-8.
  3. McCulloch, W; Pitts, W (1943). "तंत्रिका गतिविधि में निहित विचारों की एक तार्किक गणना". Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259.
  4. Rosenblatt, Frank (1957). "The Perceptron—a perceiving and recognizing automaton". Report 85-460-1. Cornell Aeronautical Laboratory.
  5. 5.0 5.1 Olazaran, Mikel (1996). "परसेप्ट्रॉन विवाद के आधिकारिक इतिहास का एक समाजशास्त्रीय अध्ययन". Social Studies of Science. 26 (3): 611–659. doi:10.1177/030631296026003005. JSTOR 285702. S2CID 16786738.
  6. 6.0 6.1 Sejnowski, Terrence J. (2018). गहन शिक्षण क्रांति (in English). MIT Press. p. 47. ISBN 978-0-262-03803-4.
  7. O’Connor, Jack (2022-06-21). "Undercover Algorithm: A Secret Chapter in the Early History of Artificial Intelligence and Satellite Imagery". International Journal of Intelligence and CounterIntelligence (in English): 1–15. doi:10.1080/08850607.2022.2073542. ISSN 0885-0607. S2CID 249946000.
  8. Aizerman, M. A.; Braverman, E. M.; Rozonoer, L. I. (1964). "पैटर्न पहचान सीखने में संभावित फ़ंक्शन विधि की सैद्धांतिक नींव". Automation and Remote Control. 25: 821–837.
  9. Mohri, Mehryar; Rostamizadeh, Afshin (2013). "परसेप्ट्रॉन गलती सीमा". arXiv:1305.0208 [cs.LG].
  10. Cash, Sydney; Yuste, Rafael (1999). "CA1 पिरामिड न्यूरॉन्स द्वारा उत्तेजक इनपुट का रैखिक योग". Neuron. 22 (2): 383–394. doi:10.1016/S0896-6273(00)81098-3. PMID 10069343.
  11. Liou, D.-R.; Liou, J.-W.; Liou, C.-Y. (2013). परसेप्ट्रॉन का व्यवहार सीखना. iConcept Press. ISBN 978-1-477554-73-9.
  12. Novikoff, Albert J. (1963). "परसेप्ट्रॉन के लिए अभिसरण प्रमाण पर". Office of Naval Research.
  13. Bishop, Christopher M (2006-08-17). "Chapter 4. Linear Models for Classification". पैटर्न मान्यता और मशीन प्रवीणता. Springer Science+Business Media, LLC. p. 194. ISBN 978-0387-31073-2.
  14. 14.0 14.1 Krauth, W.; Mezard, M. (1987). "तंत्रिका नेटवर्क में इष्टतम स्थिरता के साथ लर्निंग एल्गोरिदम". Journal of Physics A: Mathematical and General. 20 (11): L745–L752. Bibcode:1987JPhA...20L.745K. doi:10.1088/0305-4470/20/11/013.
  15. Wendemuth, A. (1995). "अनलर्नेबल को सीखना". Journal of Physics A: Mathematical and General. 28 (18): 5423–5436. Bibcode:1995JPhA...28.5423W. doi:10.1088/0305-4470/28/18/030.
  16. Anlauf, J. K.; Biehl, M. (1989). "The AdaTron: an Adaptive Perceptron algorithm". Europhysics Letters. 10 (7): 687–692. Bibcode:1989EL.....10..687A. doi:10.1209/0295-5075/10/7/014. S2CID 250773895.
  17. McDonald, R.; Hall, K.; Mann, G. (2010). "Distributed Training Strategies for the Structured Perceptron" (PDF). Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the ACL. Association for Computational Linguistics. pp. 456–464.


अग्रिम पठन


बाहरी संबंध