अनुमस्तिष्क मॉडल आर्टिक्यूलेशन नियंत्रक: Difference between revisions

From Vigyanwiki
No edit summary
 
(4 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Use dmy dates|date=March 2015}}
{{Use dmy dates|date=March 2015}}
[[File:CMAC system block diagram.jpg|thumb|320px|एकल जोड़ के लिए CMAC प्रणाली का ब्लॉक आरेख। वेक्टर S को सभी जोड़ों के इनपुट के रूप में प्रस्तुत किया गया है। प्रत्येक जोड़ अलग से एक S -> A* मैपिंग और एक संयुक्त एक्चुएटर सिग्नल pi की गणना करता है। सभी जोड़ों के लिए समायोज्य वजन एक ही भौतिक मेमोरी में मौजूद हो सकते हैं।<ref name="Albus75">J.S. Albus (1975). "A New Approach to Manipulator Control: the Cerebellar Model Articulation Controller (CMAC)". In: ''Trans. ASME, Series G. Journal of Dynamic Systems, Measurement and Control'', Vol. 97, pp. 220–233, 1975.</ref> ]]सेरिबैलर मॉडल अंकगणितीय कंप्यूटर (CMAC) स्तनधारी [[सेरिबैलम]] के मॉडल पर आधारित एक प्रकार का तंत्रिका नेटवर्क है। इसे सेरेबेलर मॉडल आर्टिक्यूलेशन कंट्रोलर के रूप में भी जाना जाता है। यह एक प्रकार की सहयोगी मेमोरी है।<ref>J.S. Albus (1979). "[https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.141.3795&rep=rep1&type=pdf Mechanisms of Planning and Problem Solving in the Brain]". In: ''Mathematical Biosciences''. Vol. 45, pp. 247293, 1979.</ref>
[[File:CMAC system block diagram.jpg|thumb|320px|एकल जोड़ के लिए CMAC प्रणाली का ब्लॉक आरेख। वेक्टर S को सभी जोड़ों के इनपुट के रूप में प्रस्तुत किया गया है। प्रत्येक जोड़ अलग से एक S -> A* मैपिंग और एक संयुक्त एक्चुएटर सिग्नल pi की गणना करता है। सभी जोड़ों के लिए समायोज्य वजन एक ही भौतिक मेमोरी में उपस्थित हो सकते हैं।<ref name="Albus75">J.S. Albus (1975). "A New Approach to Manipulator Control: the Cerebellar Model Articulation Controller (CMAC)". In: ''Trans. ASME, Series G. Journal of Dynamic Systems, Measurement and Control'', Vol. 97, pp. 220–233, 1975.</ref> ]]सेरिबैलर मॉडल अंकगणितीय कंप्यूटर (CMAC) स्तनधारी [[सेरिबैलम]] के मॉडल पर आधारित एक प्रकार का तंत्रिका नेटवर्क है। इसे सेरेबेलर मॉडल आर्टिक्यूलेशन कंट्रोलर के रूप में भी जाना जाता है। यह एक प्रकार की सहयोगी मेमोरी है।<ref>J.S. Albus (1979). "[https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.141.3795&rep=rep1&type=pdf Mechanisms of Planning and Problem Solving in the Brain]". In: ''Mathematical Biosciences''. Vol. 45, pp. 247293, 1979.</ref>


CMAC को पहली बार 1975 में [[जेम्स एल्बस]] द्वारा रोबोटिक नियंत्रकों के लिए एक फ़ंक्शन मॉडलर के रूप में प्रस्तावित किया गया था<ref name="Albus75"/> (इसलिए नाम), लेकिन इसका व्यापक रूप से सुदृढीकरण सीखने और मशीन लर्निंग समुदाय में स्वचालित वर्गीकरण के लिए उपयोग किया गया है। CMAC [[परसेप्ट्रॉन]] मॉडल का एक विस्तार है। यह <math>n</math> इनपुट आयामों के लिए किसी फ़ंक्शन की गणना करता है। इनपुट स्पेस को हाइपर-आयतों में विभाजित किया गया है, जिनमें से प्रत्येक एक मेमोरी सेल से जुड़ा है। मेमोरी कोशिकाओं की सामग्री वजन होती है, जिसे प्रशिक्षण के दौरान समायोजित किया जाता है। आमतौर पर, इनपुट स्पेस के एक से अधिक परिमाणीकरण का उपयोग किया जाता है, ताकि इनपुट स्पेस में कोई भी बिंदु कई हाइपर-आयतों के साथ जुड़ा हो, और इसलिए कई मेमोरी कोशिकाओं के साथ। CMAC का आउटपुट इनपुट बिंदु द्वारा सक्रिय सभी मेमोरी सेल में वजन का बीजगणितीय योग है।
CMAC को पहली बार 1975 में [[जेम्स एल्बस]] द्वारा रोबोटिक नियंत्रकों के लिए एक फ़ंक्शन मॉडलर के रूप में प्रस्तावित किया गया था<ref name="Albus75"/> (इसलिए नाम), लेकिन इसका व्यापक रूप से सुदृढीकरण सीखने और मशीन लर्निंग समुदाय में स्वचालित वर्गीकरण के लिए उपयोग किया गया है। CMAC [[परसेप्ट्रॉन]] मॉडल का एक विस्तार है। यह <math>n</math> इनपुट आयामों के लिए किसी फ़ंक्शन की गणना करता है। इनपुट स्पेस को हाइपर-आयतों में विभाजित किया गया है, जिनमें से प्रत्येक एक मेमोरी सेल से जुड़ा है। मेमोरी कोशिकाओं की सामग्री वजन होती है, जिसे प्रशिक्षण के दौरान समायोजित किया जाता है। सामान्यतः, इनपुट स्पेस के एक से अधिक परिमाणीकरण का उपयोग किया जाता है, ताकि इनपुट स्पेस में कोई भी बिंदु कई हाइपर-आयतों के साथ जुड़ा हो, और इसलिए कई मेमोरी कोशिकाओं के साथ। CMAC का आउटपुट इनपुट बिंदु द्वारा सक्रिय सभी मेमोरी सेल में वजन का बीजगणितीय योग है।


इनपुट बिंदु के मान में परिवर्तन के परिणामस्वरूप सक्रिय हाइपर-आयत के सेट में परिवर्तन होता है, और इसलिए CMAC आउटपुट में भाग लेने वाले मेमोरी सेल के सेट में परिवर्तन होता है। इसलिए CMAC आउटपुट को एक वितरित तरीके से संग्रहित किया जाता है, जैसे कि इनपुट स्पेस में किसी भी बिंदु से संबंधित आउटपुट कई मेमोरी कोशिकाओं में संग्रहीत मूल्य से प्राप्त होता है (इसलिए नाम सहयोगी मेमोरी)। इससे सामान्यीकरण मिलता है.
इनपुट बिंदु के मान में परिवर्तन के परिणामस्वरूप सक्रिय हाइपर-आयत के सेट में परिवर्तन होता है, और इसलिए CMAC आउटपुट में भाग लेने वाले मेमोरी सेल के सेट में परिवर्तन होता है। इसलिए CMAC आउटपुट को एक वितरित तरीके से संग्रहित किया जाता है, जैसे कि इनपुट स्पेस में किसी भी बिंदु से संबंधित आउटपुट कई मेमोरी कोशिकाओं में संग्रहीत मूल्य से प्राप्त होता है (इसलिए नाम सहयोगी मेमोरी)। इससे सामान्यीकरण मिलता है.
Line 12: Line 12:
हाइपर-आयत में कर्नेल फ़ंक्शन जोड़ना सामान्य है, ताकि हाइपर-आयत के किनारे की ओर गिरने वाले बिंदुओं में केंद्र के पास गिरने वाले बिंदुओं की तुलना में कम सक्रियण हो।<ref>P.C.E. An, W.T. Miller, and P.C. Parks, Design Improvements in Associative Memories for Cerebellar Model Articulation Controllers, Proc. ICANN, pp. 1207–10, 1991.</ref>
हाइपर-आयत में कर्नेल फ़ंक्शन जोड़ना सामान्य है, ताकि हाइपर-आयत के किनारे की ओर गिरने वाले बिंदुओं में केंद्र के पास गिरने वाले बिंदुओं की तुलना में कम सक्रियण हो।<ref>P.C.E. An, W.T. Miller, and P.C. Parks, Design Improvements in Associative Memories for Cerebellar Model Articulation Controllers, Proc. ICANN, pp. 1207–10, 1991.</ref>


CMAC के व्यावहारिक उपयोग में उद्धृत प्रमुख समस्याओं में से एक आवश्यक मेमोरी आकार है, जो सीधे तौर पर इस्तेमाल की जाने वाली कोशिकाओं की संख्या से संबंधित है। इसे आम तौर पर हैश फ़ंक्शन का उपयोग करके सुधारा जाता है, और केवल इनपुट द्वारा सक्रिय होने वाली वास्तविक कोशिकाओं के लिए मेमोरी स्टोरेज प्रदान किया जाता है।
CMAC के व्यावहारिक उपयोग में उद्धृत प्रमुख समस्याओं में से एक आवश्यक मेमोरी आकार है, जो सीधे तौर पर इस्तेमाल की जाने वाली कोशिकाओं की संख्या से संबंधित है। इसे सामान्यतः हैश फ़ंक्शन का उपयोग करके सुधारा जाता है, और केवल इनपुट द्वारा सक्रिय होने वाली वास्तविक कोशिकाओं के लिए मेमोरी स्टोरेज प्रदान किया जाता है।


== एक-चरण अभिसरण एल्गोरिथ्म ==
== एक-चरण अभिसरण एल्गोरिथ्म ==
Line 35: Line 35:
{| class="wikitable"
{| class="wikitable"
|-
|-
| '''Scalability''' || Straightforward to extend to millions of neurons or further
| '''अनुमापकता'''|| लाखों न्यूरॉन्स या उससे आगे तक विस्तार करना आसान है
|-
|-
| '''Convergence''' || The training can always converge in one step
| '''अभिसरण'''|| प्रशिक्षण हमेशा एक चरण में परिवर्तित हो सकता है
|-
|-
| '''Function derivatives''' || Straightforward to obtain by employing B-splines interpolation
| '''फलन व्युत्पन्न'''|| बी-स्प्लिंस इंटरपोलेशन को नियोजित करके प्राप्त करना आसान है
|-
|-
| '''Hardware structure''' || Parallel pipeline structure
| '''हार्डवेयर संरचना'''|| समांतर पाइपलाइन संरचना
|-
|-
| '''Memory usage'''|| Linear with respect to the number of neurons
| '''मेमोरी प्रयोग'''|| न्यूरॉन्स की संख्या के संदर्भ में रैखिक
|-
|-
| '''Computational complexity''' || O(N)
| '''अभिकलनात्मक सम्मिश्रता'''|| O(N)
|}
|}
== यह भी देखें ==
== यह भी देखें ==
{{columns-list|colwidth=25em|
{{columns-list|colwidth=25em|
* [[Artificial neural network]]
* [[कृत्रिम तंत्रिका नेटवर्क]]
* [[Recursive least squares filter]]
* [[पुनरावर्ती न्यूनतम वर्ग फ़िल्टर]]
* [[Deep learning]]
* [[डीप लर्निंग]]}}
}}


== संदर्भ ==
== संदर्भ ==
{{reflist}}
{{reflist}}


== अग्रिम पठन ==
== अग्रिम पठन ==
Line 66: Line 62:
* Iwan, L., and Stengel, R., "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=917898 The Application of Neural Networks to Fuel Processors for Fuel Cells]" In ''IEEE Transactions on Vehicular Technology'', Vol. 50 (1), pp. 125-143, 2001.
* Iwan, L., and Stengel, R., "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=917898 The Application of Neural Networks to Fuel Processors for Fuel Cells]" In ''IEEE Transactions on Vehicular Technology'', Vol. 50 (1), pp. 125-143, 2001.
* Tsao, Y. (2018). "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8341851 Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller]". In: ''IEEE Access'' 6, April 2018, pgs 37395-37402.
* Tsao, Y. (2018). "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8341851 Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller]". In: ''IEEE Access'' 6, April 2018, pgs 37395-37402.
== बाहरी संबंध ==
== बाहरी संबंध ==
* [https://widecmac.wordpress.com/ Blog on Cerebellar Model Articulation Controller (CMAC)] by Ting Qin. More details on the one-step convergent algorithm, code development, etc. [[Category: कम्प्यूटेशनल तंत्रिका विज्ञान]] [[Category: कृत्रिम तंत्रिका प्रसार]] [[Category: नेटवर्क आर्किटेक्चर]] [[Category: नेटवर्क]]
* [https://widecmac.wordpress.com/ Blog on Cerebellar Model Articulation Controller (CMAC)] by Ting Qin. More details on the one-step convergent algorithm, code development, etc.
 
 


[[Category: Machine Translated Page]]
[[Category:Created On 25/07/2023]]
[[Category:Created On 25/07/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Multi-column templates]]
[[Category:Pages using div col with small parameter]]
[[Category:Pages with script errors]]
[[Category:Templates that add a tracking category]]
[[Category:Templates using TemplateData]]
[[Category:Templates using under-protected Lua modules]]
[[Category:Use dmy dates from March 2015]]
[[Category:Wikipedia fully protected templates|Div col]]
[[Category:कम्प्यूटेशनल तंत्रिका विज्ञान]]
[[Category:कृत्रिम तंत्रिका प्रसार]]
[[Category:नेटवर्क]]
[[Category:नेटवर्क आर्किटेक्चर]]

Latest revision as of 09:56, 23 August 2023

एकल जोड़ के लिए CMAC प्रणाली का ब्लॉक आरेख। वेक्टर S को सभी जोड़ों के इनपुट के रूप में प्रस्तुत किया गया है। प्रत्येक जोड़ अलग से एक S -> A* मैपिंग और एक संयुक्त एक्चुएटर सिग्नल pi की गणना करता है। सभी जोड़ों के लिए समायोज्य वजन एक ही भौतिक मेमोरी में उपस्थित हो सकते हैं।[1]

सेरिबैलर मॉडल अंकगणितीय कंप्यूटर (CMAC) स्तनधारी सेरिबैलम के मॉडल पर आधारित एक प्रकार का तंत्रिका नेटवर्क है। इसे सेरेबेलर मॉडल आर्टिक्यूलेशन कंट्रोलर के रूप में भी जाना जाता है। यह एक प्रकार की सहयोगी मेमोरी है।[2]

CMAC को पहली बार 1975 में जेम्स एल्बस द्वारा रोबोटिक नियंत्रकों के लिए एक फ़ंक्शन मॉडलर के रूप में प्रस्तावित किया गया था[1] (इसलिए नाम), लेकिन इसका व्यापक रूप से सुदृढीकरण सीखने और मशीन लर्निंग समुदाय में स्वचालित वर्गीकरण के लिए उपयोग किया गया है। CMAC परसेप्ट्रॉन मॉडल का एक विस्तार है। यह इनपुट आयामों के लिए किसी फ़ंक्शन की गणना करता है। इनपुट स्पेस को हाइपर-आयतों में विभाजित किया गया है, जिनमें से प्रत्येक एक मेमोरी सेल से जुड़ा है। मेमोरी कोशिकाओं की सामग्री वजन होती है, जिसे प्रशिक्षण के दौरान समायोजित किया जाता है। सामान्यतः, इनपुट स्पेस के एक से अधिक परिमाणीकरण का उपयोग किया जाता है, ताकि इनपुट स्पेस में कोई भी बिंदु कई हाइपर-आयतों के साथ जुड़ा हो, और इसलिए कई मेमोरी कोशिकाओं के साथ। CMAC का आउटपुट इनपुट बिंदु द्वारा सक्रिय सभी मेमोरी सेल में वजन का बीजगणितीय योग है।

इनपुट बिंदु के मान में परिवर्तन के परिणामस्वरूप सक्रिय हाइपर-आयत के सेट में परिवर्तन होता है, और इसलिए CMAC आउटपुट में भाग लेने वाले मेमोरी सेल के सेट में परिवर्तन होता है। इसलिए CMAC आउटपुट को एक वितरित तरीके से संग्रहित किया जाता है, जैसे कि इनपुट स्पेस में किसी भी बिंदु से संबंधित आउटपुट कई मेमोरी कोशिकाओं में संग्रहीत मूल्य से प्राप्त होता है (इसलिए नाम सहयोगी मेमोरी)। इससे सामान्यीकरण मिलता है.

बिल्डिंग ब्लॉक्स

CMAC, 2D स्पेस के रूप में दर्शाया गया है

निकटवर्ती छवि में, CMAC के लिए दो इनपुट हैं, जिन्हें 2D स्पेस के रूप में दर्शाया गया है। इस स्थान को दो ओवरलैपिंग ग्रिड (एक को भारी रेखाओं में दिखाया गया है) के साथ विभाजित करने के लिए दो क्वांटाइज़िंग फ़ंक्शन का उपयोग किया गया है। मध्य के पास एक एकल इनपुट दिखाया गया है, और इसने छायांकित क्षेत्र के अनुरूप दो मेमोरी कोशिकाओं को सक्रिय कर दिया है। यदि दिखाए गए बिंदु के करीब कोई अन्य बिंदु होता है, तो यह सामान्यीकरण प्रदान करते हुए कुछ समान मेमोरी कोशिकाओं को साझा करेगा।

CMAC को इनपुट बिंदुओं और आउटपुट मानों के जोड़े प्रस्तुत करके और आउटपुट पर देखी गई त्रुटि के अनुपात से सक्रिय कोशिकाओं में वजन समायोजित करके प्रशिक्षित किया जाता है। इस सरल प्रशिक्षण एल्गोरिथ्म में अभिसरण का प्रमाण है।[3]

हाइपर-आयत में कर्नेल फ़ंक्शन जोड़ना सामान्य है, ताकि हाइपर-आयत के किनारे की ओर गिरने वाले बिंदुओं में केंद्र के पास गिरने वाले बिंदुओं की तुलना में कम सक्रियण हो।[4]

CMAC के व्यावहारिक उपयोग में उद्धृत प्रमुख समस्याओं में से एक आवश्यक मेमोरी आकार है, जो सीधे तौर पर इस्तेमाल की जाने वाली कोशिकाओं की संख्या से संबंधित है। इसे सामान्यतः हैश फ़ंक्शन का उपयोग करके सुधारा जाता है, और केवल इनपुट द्वारा सक्रिय होने वाली वास्तविक कोशिकाओं के लिए मेमोरी स्टोरेज प्रदान किया जाता है।

एक-चरण अभिसरण एल्गोरिथ्म

CMAC के वजन को अद्यतन करने के लिए प्रारंभ में न्यूनतम माध्य वर्ग (LMS) विधि का उपयोग किया जाता है। CMAC को प्रशिक्षित करने के लिए LMS का उपयोग करने का अभिसरण सीखने की दर के प्रति संवेदनशील है और विचलन का कारण बन सकता है। 2004 में,[5] CMAC को ऑनलाइन प्रशिक्षित करने के लिए एक पुनरावर्ती न्यूनतम वर्ग (RLS) एल्गोरिथ्म पेश किया गया था। इसमें सीखने की दर को व्यवस्थित करने की आवश्यकता नहीं है। इसका अभिसरण सैद्धांतिक रूप से सिद्ध हो चुका है और एक चरण में अभिसरण होने की प्रत्याभूति दी जा सकती है। इस RLS एल्गोरिथ्म की कम्प्यूटेशनल सम्मिश्रता O(N3) है।

CMAC तंत्रिका नेटवर्क की समानांतर पाइपलाइन संरचना [6]
Left पैनल: वास्तविक कार्य; दायां पैनल: डेरिवेटिव के साथ CMAC सन्निकटन

हार्डवेयर कार्यान्वयन अवसंरचना

QR अपघटन के आधार पर, एक एल्गोरिथ्म (QRLS) को O(N) सम्मिश्रता के लिए और सरल बनाया गया है। परिणामस्वरूप, इससे मेमोरी उपयोग और समय लागत में काफी कमी आती है। इस एल्गोरिदम को कार्यान्वित करने के लिए एक समानांतर पाइपलाइन सरणी संरचना प्रस्तुत की गई है।[6]

कुल मिलाकर QRLS एल्गोरिदम का उपयोग करके, CMAC तंत्रिका नेटवर्क अभिसरण की प्रत्याभूति दी जा सकती है, और प्रशिक्षण के एक चरण का उपयोग करके नोड्स के वजन को अद्यतन किया जा सकता है। इसकी समानांतर पाइपलाइन सरणी संरचना बड़े पैमाने पर उद्योग के उपयोग के लिए हार्डवेयर में लागू होने की बड़ी संभावना प्रदान करती है।

सतत CMAC

चूंकि CMAC ग्रहणशील क्षेत्र फंक्शन्स का आयताकार आकार B-स्प्लिंस फंक्शन्स के साथ CMAC को एकीकृत करके असंतुलित स्टेयरकेस फ़ंक्शन सन्निकटन उत्पन्न करता है, निरंतर CMAC अनुमानित फंक्शन्स के व्युत्पन्न के किसी भी क्रम को प्राप्त करने की क्षमता प्रदान करता है।

डीप CMAC

हाल के वर्षों में, कई अध्ययनों ने पुष्टि की है कि कई उथली संरचनाओं को एक ही गहरी संरचना में जमा करके, समग्र प्रणाली बेहतर डेटा प्रतिनिधित्व प्राप्त कर सकती है, और इस प्रकार, गैर-रेखीय और उच्च सम्मिश्रता कार्यों से अधिक प्रभावी ढंग से निपट सकती है। 2018 में, [7] एक गहन CMAC (DCMAC) ढांचे का प्रस्ताव किया गया था और DCMAC मापदंडों का अनुमान लगाने के लिए एक बैकप्रोपेगेशन एल्गोरिदम तैयार किया गया था। अनुकूली शोर रद्दीकरण कार्य के प्रायोगिक परिणामों से पता चला कि प्रस्तावित DCMAC पारंपरिक सिंगल-लेयर CMAC की तुलना में बेहतर ध्वनि रद्दीकरण प्रदर्शन प्राप्त कर सकता है।

सारांश

अनुमापकता लाखों न्यूरॉन्स या उससे आगे तक विस्तार करना आसान है
अभिसरण प्रशिक्षण हमेशा एक चरण में परिवर्तित हो सकता है
फलन व्युत्पन्न बी-स्प्लिंस इंटरपोलेशन को नियोजित करके प्राप्त करना आसान है
हार्डवेयर संरचना समांतर पाइपलाइन संरचना
मेमोरी प्रयोग न्यूरॉन्स की संख्या के संदर्भ में रैखिक
अभिकलनात्मक सम्मिश्रता O(N)

यह भी देखें

संदर्भ

  1. 1.0 1.1 J.S. Albus (1975). "A New Approach to Manipulator Control: the Cerebellar Model Articulation Controller (CMAC)". In: Trans. ASME, Series G. Journal of Dynamic Systems, Measurement and Control, Vol. 97, pp. 220–233, 1975.
  2. J.S. Albus (1979). "Mechanisms of Planning and Problem Solving in the Brain". In: Mathematical Biosciences. Vol. 45, pp. 247293, 1979.
  3. Y. Wong, CMAC Learning is Governed by a Single Parameter, IEEE International Conference on Neural Networks, San Francisco, Vol. 1, pp. 1439–43, 1993.
  4. P.C.E. An, W.T. Miller, and P.C. Parks, Design Improvements in Associative Memories for Cerebellar Model Articulation Controllers, Proc. ICANN, pp. 1207–10, 1991.
  5. Ting Qin, et al. "A learning algorithm of CMAC based on RLS." Neural Processing Letters 19.1 (2004): 49-61.
  6. 6.0 6.1 Ting Qin, et al. "Continuous CMAC-QRLS and its systolic array." Neural Processing Letters 22.1 (2005): 1-16.
  7. * Yu Tsao, et al. "Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller." IEEE Access Vol. 6, pp. 37395 - 37402, 2018.

अग्रिम पठन

बाहरी संबंध