अनुमस्तिष्क मॉडल आर्टिक्यूलेशन नियंत्रक: Difference between revisions

From Vigyanwiki
(Created page with "{{Use dmy dates|date=March 2015}} File:CMAC system block diagram.jpg|thumb|320px|एकल जोड़ के लिए सीएमएसी प्रणाली का...")
 
No edit summary
 
(6 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Use dmy dates|date=March 2015}}
{{Use dmy dates|date=March 2015}}
[[File:CMAC system block diagram.jpg|thumb|320px|एकल जोड़ के लिए सीएमएसी प्रणाली का ब्लॉक आरेख। वेक्टर S को सभी जोड़ों के इनपुट के रूप में प्रस्तुत किया गया है। प्रत्येक जोड़ अलग से एक S -> A* मैपिंग और एक संयुक्त एक्चुएटर सिग्नल pi की गणना करता है। सभी जोड़ों के लिए समायोज्य वजन एक ही भौतिक मेमोरी में मौजूद हो सकते हैं।<ref name="Albus75">J.S. Albus (1975). "A New Approach to Manipulator Control: the Cerebellar Model Articulation Controller (CMAC)". In: ''Trans. ASME, Series G. Journal of Dynamic Systems, Measurement and Control'', Vol. 97, pp. 220–233, 1975.</ref> ]]अनुमस्तिष्क मॉडल अंकगणित कंप्यूटर (सीएमएसी) स्तनधारी [[सेरिबैलम]] के एक मॉडल पर आधारित एक प्रकार का तंत्रिका नेटवर्क है। इसे अनुमस्तिष्क मॉडल आर्टिक्यूलेशन नियंत्रक के रूप में भी जाना जाता है। यह एक प्रकार की [[एसोसिएशन (मनोविज्ञान)]] [[ याद ]] है।<ref>J.S. Albus (1979). "[https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.141.3795&rep=rep1&type=pdf Mechanisms of Planning and Problem Solving in the Brain]". In: ''Mathematical Biosciences''. Vol. 45, pp. 247293, 1979.</ref>
[[File:CMAC system block diagram.jpg|thumb|320px|एकल जोड़ के लिए CMAC प्रणाली का ब्लॉक आरेख। वेक्टर S को सभी जोड़ों के इनपुट के रूप में प्रस्तुत किया गया है। प्रत्येक जोड़ अलग से एक S -> A* मैपिंग और एक संयुक्त एक्चुएटर सिग्नल pi की गणना करता है। सभी जोड़ों के लिए समायोज्य वजन एक ही भौतिक मेमोरी में उपस्थित हो सकते हैं।<ref name="Albus75">J.S. Albus (1975). "A New Approach to Manipulator Control: the Cerebellar Model Articulation Controller (CMAC)". In: ''Trans. ASME, Series G. Journal of Dynamic Systems, Measurement and Control'', Vol. 97, pp. 220–233, 1975.</ref> ]]सेरिबैलर मॉडल अंकगणितीय कंप्यूटर (CMAC) स्तनधारी [[सेरिबैलम]] के मॉडल पर आधारित एक प्रकार का तंत्रिका नेटवर्क है। इसे सेरेबेलर मॉडल आर्टिक्यूलेशन कंट्रोलर के रूप में भी जाना जाता है। यह एक प्रकार की सहयोगी मेमोरी है।<ref>J.S. Albus (1979). "[https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.141.3795&rep=rep1&type=pdf Mechanisms of Planning and Problem Solving in the Brain]". In: ''Mathematical Biosciences''. Vol. 45, pp. 247293, 1979.</ref>
सीएमएसी को पहली बार 1975 में [[जेम्स एल्बस]] द्वारा रोबोटिक नियंत्रकों के लिए एक फ़ंक्शन मॉडलर के रूप में प्रस्तावित किया गया था<ref name="Albus75"/>(इसलिए नाम), लेकिन इसका उपयोग सुदृढीकरण सीखने और [[ यंत्र अधिगम ]] समुदाय में स्वचालित वर्गीकरण के लिए भी बड़े पैमाने पर किया गया है। सीएमएसी [[परसेप्ट्रॉन]] मॉडल का विस्तार है। यह एक फ़ंक्शन की गणना करता है <math>n</math> इनपुट आयाम. इनपुट स्पेस को हाइपर-आयतों में विभाजित किया गया है, जिनमें से प्रत्येक एक मेमोरी सेल से जुड़ा हुआ है। मेमोरी कोशिकाओं की सामग्री वजन है, जिसे प्रशिक्षण के दौरान समायोजित किया जाता है। आमतौर पर, इनपुट स्पेस के एक से अधिक परिमाणीकरण का उपयोग किया जाता है, ताकि इनपुट स्पेस में कोई भी बिंदु कई हाइपर-आयतों के साथ जुड़ा हो, और इसलिए कई मेमोरी कोशिकाओं के साथ जुड़ा हो। सीएमएसी का आउटपुट इनपुट बिंदु द्वारा सक्रिय सभी मेमोरी कोशिकाओं में वजन का बीजगणितीय योग है।


इनपुट बिंदु के मूल्य में परिवर्तन के परिणामस्वरूप सक्रिय हाइपर-आयत के सेट में परिवर्तन होता है, और इसलिए सीएमएसी आउटपुट में भाग लेने वाले मेमोरी कोशिकाओं के सेट में परिवर्तन होता है। इसलिए CMAC आउटपुट को एक वितरित तरीके से संग्रहीत किया जाता है, जैसे कि इनपुट स्पेस में किसी भी बिंदु से संबंधित आउटपुट कई मेमोरी कोशिकाओं में संग्रहीत मूल्य से प्राप्त होता है (इसलिए नाम एसोसिएटिव मेमोरी)। यह सामान्यीकरण प्रदान करता है।
CMAC को पहली बार 1975 में [[जेम्स एल्बस]] द्वारा रोबोटिक नियंत्रकों के लिए एक फ़ंक्शन मॉडलर के रूप में प्रस्तावित किया गया था<ref name="Albus75"/> (इसलिए नाम), लेकिन इसका व्यापक रूप से सुदृढीकरण सीखने और मशीन लर्निंग समुदाय में स्वचालित वर्गीकरण के लिए उपयोग किया गया है। CMAC [[परसेप्ट्रॉन]] मॉडल का एक विस्तार है। यह <math>n</math> इनपुट आयामों के लिए किसी फ़ंक्शन की गणना करता है। इनपुट स्पेस को हाइपर-आयतों में विभाजित किया गया है, जिनमें से प्रत्येक एक मेमोरी सेल से जुड़ा है। मेमोरी कोशिकाओं की सामग्री वजन होती है, जिसे प्रशिक्षण के दौरान समायोजित किया जाता है। सामान्यतः, इनपुट स्पेस के एक से अधिक परिमाणीकरण का उपयोग किया जाता है, ताकि इनपुट स्पेस में कोई भी बिंदु कई हाइपर-आयतों के साथ जुड़ा हो, और इसलिए कई मेमोरी कोशिकाओं के साथ। CMAC का आउटपुट इनपुट बिंदु द्वारा सक्रिय सभी मेमोरी सेल में वजन का बीजगणितीय योग है।


इनपुट बिंदु के मान में परिवर्तन के परिणामस्वरूप सक्रिय हाइपर-आयत के सेट में परिवर्तन होता है, और इसलिए CMAC आउटपुट में भाग लेने वाले मेमोरी सेल के सेट में परिवर्तन होता है। इसलिए CMAC आउटपुट को एक वितरित तरीके से संग्रहित किया जाता है, जैसे कि इनपुट स्पेस में किसी भी बिंदु से संबंधित आउटपुट कई मेमोरी कोशिकाओं में संग्रहीत मूल्य से प्राप्त होता है (इसलिए नाम सहयोगी मेमोरी)। इससे सामान्यीकरण मिलता है.
== बिल्डिंग ब्लॉक्स ==
== बिल्डिंग ब्लॉक्स ==
[[Image:CmacHashing.jpg|thumb|सीएमएसी, 2डी स्पेस के रूप में दर्शाया गया है]]निकटवर्ती छवि में, CMAC में दो इनपुट हैं, जिन्हें 2D स्थान के रूप में दर्शाया गया है। इस स्थान को दो अतिव्यापी ग्रिडों (एक को भारी रेखाओं में दिखाया गया है) के साथ विभाजित करने के लिए दो परिमाणीकरण कार्यों का उपयोग किया गया है। मध्य के पास एक एकल इनपुट दिखाया गया है, और इसने छायांकित क्षेत्र के अनुरूप दो मेमोरी सेल सक्रिय कर दिए हैं। यदि कोई अन्य बिंदु दिखाए गए बिंदु के करीब होता है, तो यह सामान्यीकरण प्रदान करते हुए कुछ समान मेमोरी कोशिकाओं को साझा करेगा।
[[Image:CmacHashing.jpg|thumb|CMAC, 2D स्पेस के रूप में दर्शाया गया है]]निकटवर्ती छवि में, CMAC के लिए दो इनपुट हैं, जिन्हें 2D स्पेस के रूप में दर्शाया गया है। इस स्थान को दो ओवरलैपिंग ग्रिड (एक को भारी रेखाओं में दिखाया गया है) के साथ विभाजित करने के लिए दो क्वांटाइज़िंग फ़ंक्शन का उपयोग किया गया है। मध्य के पास एक एकल इनपुट दिखाया गया है, और इसने छायांकित क्षेत्र के अनुरूप दो मेमोरी कोशिकाओं को सक्रिय कर दिया है। यदि दिखाए गए बिंदु के करीब कोई अन्य बिंदु होता है, तो यह सामान्यीकरण प्रदान करते हुए कुछ समान मेमोरी कोशिकाओं को साझा करेगा।


सीएमएसी को इनपुट बिंदुओं और आउटपुट मानों के जोड़े प्रस्तुत करके और आउटपुट पर देखी गई त्रुटि के अनुपात के आधार पर सक्रिय कोशिकाओं में वजन समायोजित करके प्रशिक्षित किया जाता है। इस सरल प्रशिक्षण एल्गोरिदम में अभिसरण का प्रमाण है।<ref>Y. Wong, CMAC Learning is Governed by a Single Parameter, IEEE International Conference on Neural Networks, San Francisco, Vol. 1, pp. 1439–43, 1993.</ref>
CMAC को इनपुट बिंदुओं और आउटपुट मानों के जोड़े प्रस्तुत करके और आउटपुट पर देखी गई त्रुटि के अनुपात से सक्रिय कोशिकाओं में वजन समायोजित करके प्रशिक्षित किया जाता है। इस सरल प्रशिक्षण एल्गोरिथ्म में अभिसरण का प्रमाण है।<ref>Y. Wong, CMAC Learning is Governed by a Single Parameter, IEEE International Conference on Neural Networks, San Francisco, Vol. 1, pp. 1439–43, 1993.</ref>
हाइपर-आयत में कर्नेल फ़ंक्शन जोड़ना सामान्य है, ताकि हाइपर-आयत के किनारे की ओर गिरने वाले बिंदुओं में केंद्र के पास गिरने वाले बिंदुओं की तुलना में कम सक्रियता हो।<ref>P.C.E. An, W.T. Miller, and P.C. Parks, Design Improvements in Associative Memories for Cerebellar Model Articulation Controllers, Proc. ICANN, pp. 1207–10, 1991.</ref>
 
सीएमएसी के व्यावहारिक उपयोग में उद्धृत प्रमुख समस्याओं में से एक आवश्यक मेमोरी आकार है, जो सीधे उपयोग की जाने वाली कोशिकाओं की संख्या से संबंधित है। इसे आमतौर पर [[हैश फंकशन]] का उपयोग करके सुधारा जाता है, और केवल वास्तविक कोशिकाओं के लिए मेमोरी स्टोरेज प्रदान किया जाता है जो इनपुट द्वारा सक्रिय होते हैं।
हाइपर-आयत में कर्नेल फ़ंक्शन जोड़ना सामान्य है, ताकि हाइपर-आयत के किनारे की ओर गिरने वाले बिंदुओं में केंद्र के पास गिरने वाले बिंदुओं की तुलना में कम सक्रियण हो।<ref>P.C.E. An, W.T. Miller, and P.C. Parks, Design Improvements in Associative Memories for Cerebellar Model Articulation Controllers, Proc. ICANN, pp. 1207–10, 1991.</ref>
 
CMAC के व्यावहारिक उपयोग में उद्धृत प्रमुख समस्याओं में से एक आवश्यक मेमोरी आकार है, जो सीधे तौर पर इस्तेमाल की जाने वाली कोशिकाओं की संख्या से संबंधित है। इसे सामान्यतः हैश फ़ंक्शन का उपयोग करके सुधारा जाता है, और केवल इनपुट द्वारा सक्रिय होने वाली वास्तविक कोशिकाओं के लिए मेमोरी स्टोरेज प्रदान किया जाता है।


== एक-चरण अभिसरण एल्गोरिथ्म ==
== एक-चरण अभिसरण एल्गोरिथ्म ==
सीएमएसी के भार को अद्यतन करने के लिए प्रारंभ में न्यूनतम माध्य वर्ग (एलएमएस) पद्धति का उपयोग किया जाता है। सीएमएसी के प्रशिक्षण के लिए एलएमएस का उपयोग करने का अभिसरण सीखने की दर के प्रति संवेदनशील है और इससे विचलन हो सकता है। 2004 में,<ref name="Qin1">Ting Qin, et al. "A learning algorithm of CMAC based on RLS." Neural Processing Letters 19.1 (2004): 49-61.</ref> सीएमएसी को ऑनलाइन प्रशिक्षित करने के लिए एक पुनरावर्ती न्यूनतम वर्ग (आरएलएस) एल्गोरिदम पेश किया गया था। इसमें सीखने की दर को समायोजित करने की आवश्यकता नहीं है। इसका अभिसरण सैद्धांतिक रूप से सिद्ध हो चुका है और एक चरण में अभिसरण की गारंटी दी जा सकती है। इस आरएलएस एल्गोरिदम की कम्प्यूटेशनल जटिलता O(N3) है।
CMAC के वजन को अद्यतन करने के लिए प्रारंभ में न्यूनतम माध्य वर्ग (LMS) विधि का उपयोग किया जाता है। CMAC को प्रशिक्षित करने के लिए LMS का उपयोग करने का अभिसरण सीखने की दर के प्रति संवेदनशील है और विचलन का कारण बन सकता है। 2004 में,<ref name="Qin1">Ting Qin, et al. "A learning algorithm of CMAC based on RLS." Neural Processing Letters 19.1 (2004): 49-61.</ref> CMAC को ऑनलाइन प्रशिक्षित करने के लिए एक पुनरावर्ती न्यूनतम वर्ग (RLS) एल्गोरिथ्म पेश किया गया था। इसमें सीखने की दर को व्यवस्थित करने की आवश्यकता नहीं है। इसका अभिसरण सैद्धांतिक रूप से सिद्ध हो चुका है और एक चरण में अभिसरण होने की प्रत्याभूति दी जा सकती है। इस RLS एल्गोरिथ्म की कम्प्यूटेशनल सम्मिश्रता O(N3) है।
[[File:Cmac.jpg|thumb|520x520px|सीएमएसी तंत्रिका नेटवर्क की समानांतर पाइपलाइन संरचना
[[File:Cmac.jpg|thumb|520x520px|CMAC तंत्रिका नेटवर्क की समानांतर पाइपलाइन संरचना
<ref name="Qin2" />]]
<ref name="Qin2" />]]


Line 20: Line 22:


== हार्डवेयर कार्यान्वयन अवसंरचना ==
== हार्डवेयर कार्यान्वयन अवसंरचना ==
क्यूआर अपघटन के आधार पर, एक एल्गोरिदम (क्यूआरएलएस) को (एन) जटिलता के लिए और अधिक सरल बनाया गया है। नतीजतन, यह मेमोरी उपयोग और समय लागत को काफी कम कर देता है। इस एल्गोरिदम को लागू करने पर एक समानांतर पाइपलाइन सरणी संरचना पेश की गई है।<ref name="Qin2">Ting Qin, et al. "Continuous CMAC-QRLS and its systolic array." Neural Processing Letters 22.1 (2005): 1-16.</ref>
QR अपघटन के आधार पर, एक एल्गोरिथ्म (QRLS) को O(N) सम्मिश्रता के लिए और सरल बनाया गया है। परिणामस्वरूप, इससे मेमोरी उपयोग और समय लागत में काफी कमी आती है। इस एल्गोरिदम को कार्यान्वित करने के लिए एक समानांतर पाइपलाइन सरणी संरचना प्रस्तुत की गई है।<ref name="Qin2">Ting Qin, et al. "Continuous CMAC-QRLS and its systolic array." Neural Processing Letters 22.1 (2005): 1-16.</ref>
कुल मिलाकर क्यूआरएलएस एल्गोरिथ्म का उपयोग करके, सीएमएसी तंत्रिका नेटवर्क अभिसरण की गारंटी दी जा सकती है, और प्रशिक्षण के एक चरण का उपयोग करके नोड्स के वजन को अद्यतन किया जा सकता है। इसकी समानांतर पाइपलाइन सरणी संरचना बड़े पैमाने पर उद्योग के उपयोग के लिए हार्डवेयर में लागू होने की बड़ी क्षमता प्रदान करती है।


==सतत सीएमएसी ==
कुल मिलाकर QRLS एल्गोरिदम का उपयोग करके, CMAC तंत्रिका नेटवर्क अभिसरण की प्रत्याभूति दी जा सकती है, और प्रशिक्षण के एक चरण का उपयोग करके नोड्स के वजन को अद्यतन किया जा सकता है। इसकी समानांतर पाइपलाइन सरणी संरचना बड़े पैमाने पर उद्योग के उपयोग के लिए हार्डवेयर में लागू होने की बड़ी संभावना प्रदान करती है।
चूंकि सीएमएसी ग्रहणशील क्षेत्र कार्यों का आयताकार आकार बी-स्प्लिन कार्यों के साथ सीएमएसी को एकीकृत करके असंतत सीढ़ी फ़ंक्शन सन्निकटन का उत्पादन करता है, निरंतर सीएमएसी अनुमानित कार्यों के डेरिवेटिव के किसी भी क्रम को प्राप्त करने की क्षमता प्रदान करता है।


==डीप सीएमएसी ==
==सतत CMAC ==
हाल के वर्षों में, कई अध्ययनों ने पुष्टि की है कि कई उथली संरचनाओं को एक ही गहरी संरचना में रखकर, समग्र प्रणाली बेहतर डेटा प्रतिनिधित्व प्राप्त कर सकती है, और इस प्रकार, गैर-रेखीय और उच्च जटिलता कार्यों से अधिक प्रभावी ढंग से निपट सकती है। 2018 में,<ref>* Yu Tsao, et al. "Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller." IEEE Access Vol. 6, pp. 37395 - 37402, 2018.</ref> एक गहन सीएमएसी (डीसीएमएसी) ढांचा प्रस्तावित किया गया था और डीसीएमएसी मापदंडों का अनुमान लगाने के लिए एक बैकप्रॉपैगेशन एल्गोरिदम तैयार किया गया था। अनुकूली शोर रद्दीकरण कार्य के प्रायोगिक परिणामों से पता चला कि पारंपरिक सिंगल-लेयर सीएमएसी की तुलना में प्रस्तावित डीसीएमएसी बेहतर शोर रद्दीकरण प्रदर्शन प्राप्त कर सकता है।
चूंकि CMAC ग्रहणशील क्षेत्र फंक्शन्स का आयताकार आकार B-स्प्लिंस फंक्शन्स के साथ CMAC को एकीकृत करके असंतुलित स्टेयरकेस फ़ंक्शन सन्निकटन उत्पन्न करता है, निरंतर CMAC अनुमानित फंक्शन्स के व्युत्पन्न के किसी भी क्रम को प्राप्त करने की क्षमता प्रदान करता है।
 
==डीप CMAC ==
हाल के वर्षों में, कई अध्ययनों ने पुष्टि की है कि कई उथली संरचनाओं को एक ही गहरी संरचना में जमा करके, समग्र प्रणाली बेहतर डेटा प्रतिनिधित्व प्राप्त कर सकती है, और इस प्रकार, गैर-रेखीय और उच्च सम्मिश्रता कार्यों से अधिक प्रभावी ढंग से निपट सकती है। 2018 में, <ref>* Yu Tsao, et al. "Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller." IEEE Access Vol. 6, pp. 37395 - 37402, 2018.</ref> एक गहन CMAC (DCMAC) ढांचे का प्रस्ताव किया गया था और DCMAC मापदंडों का अनुमान लगाने के लिए एक बैकप्रोपेगेशन एल्गोरिदम तैयार किया गया था। अनुकूली शोर रद्दीकरण कार्य के प्रायोगिक परिणामों से पता चला कि प्रस्तावित DCMAC पारंपरिक सिंगल-लेयर CMAC की तुलना में बेहतर ध्वनि रद्दीकरण प्रदर्शन प्राप्त कर सकता है।


== सारांश ==
== सारांश ==
{| class="wikitable"
{| class="wikitable"
|-
|-
| '''Scalability''' || Straightforward to extend to millions of neurons or further
| '''अनुमापकता'''|| लाखों न्यूरॉन्स या उससे आगे तक विस्तार करना आसान है
|-
|-
| '''Convergence''' || The training can always converge in one step
| '''अभिसरण'''|| प्रशिक्षण हमेशा एक चरण में परिवर्तित हो सकता है
|-
|-
| '''Function derivatives''' || Straightforward to obtain by employing B-splines interpolation
| '''फलन व्युत्पन्न'''|| बी-स्प्लिंस इंटरपोलेशन को नियोजित करके प्राप्त करना आसान है
|-
|-
| '''Hardware structure''' || Parallel pipeline structure
| '''हार्डवेयर संरचना'''|| समांतर पाइपलाइन संरचना
|-
|-
| '''Memory usage'''|| Linear with respect to the number of neurons
| '''मेमोरी प्रयोग'''|| न्यूरॉन्स की संख्या के संदर्भ में रैखिक
|-
|-
| '''Computational complexity''' || O(N)
| '''अभिकलनात्मक सम्मिश्रता'''|| O(N)
|}
|}
== यह भी देखें ==
== यह भी देखें ==
{{columns-list|colwidth=25em|
{{columns-list|colwidth=25em|
* [[Artificial neural network]]
* [[कृत्रिम तंत्रिका नेटवर्क]]
* [[Recursive least squares filter]]
* [[पुनरावर्ती न्यूनतम वर्ग फ़िल्टर]]
* [[Deep learning]]
* [[डीप लर्निंग]]}}
}}


== संदर्भ ==
== संदर्भ ==
{{reflist}}
{{reflist}}


== अग्रिम पठन ==
== अग्रिम पठन ==
Line 63: Line 62:
* Iwan, L., and Stengel, R., "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=917898 The Application of Neural Networks to Fuel Processors for Fuel Cells]" In ''IEEE Transactions on Vehicular Technology'', Vol. 50 (1), pp. 125-143, 2001.
* Iwan, L., and Stengel, R., "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=917898 The Application of Neural Networks to Fuel Processors for Fuel Cells]" In ''IEEE Transactions on Vehicular Technology'', Vol. 50 (1), pp. 125-143, 2001.
* Tsao, Y. (2018). "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8341851 Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller]". In: ''IEEE Access'' 6, April 2018, pgs 37395-37402.
* Tsao, Y. (2018). "[https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8341851 Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller]". In: ''IEEE Access'' 6, April 2018, pgs 37395-37402.
== बाहरी संबंध ==
== बाहरी संबंध ==
* [https://widecmac.wordpress.com/ Blog on Cerebellar Model Articulation Controller (CMAC)] by Ting Qin. More details on the one-step convergent algorithm, code development, etc. [[Category: कम्प्यूटेशनल तंत्रिका विज्ञान]] [[Category: कृत्रिम तंत्रिका प्रसार]] [[Category: नेटवर्क आर्किटेक्चर]] [[Category: नेटवर्क]]
* [https://widecmac.wordpress.com/ Blog on Cerebellar Model Articulation Controller (CMAC)] by Ting Qin. More details on the one-step convergent algorithm, code development, etc.
 
 


[[Category: Machine Translated Page]]
[[Category:Created On 25/07/2023]]
[[Category:Created On 25/07/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Multi-column templates]]
[[Category:Pages using div col with small parameter]]
[[Category:Pages with script errors]]
[[Category:Templates that add a tracking category]]
[[Category:Templates using TemplateData]]
[[Category:Templates using under-protected Lua modules]]
[[Category:Use dmy dates from March 2015]]
[[Category:Wikipedia fully protected templates|Div col]]
[[Category:कम्प्यूटेशनल तंत्रिका विज्ञान]]
[[Category:कृत्रिम तंत्रिका प्रसार]]
[[Category:नेटवर्क]]
[[Category:नेटवर्क आर्किटेक्चर]]

Latest revision as of 09:56, 23 August 2023

एकल जोड़ के लिए CMAC प्रणाली का ब्लॉक आरेख। वेक्टर S को सभी जोड़ों के इनपुट के रूप में प्रस्तुत किया गया है। प्रत्येक जोड़ अलग से एक S -> A* मैपिंग और एक संयुक्त एक्चुएटर सिग्नल pi की गणना करता है। सभी जोड़ों के लिए समायोज्य वजन एक ही भौतिक मेमोरी में उपस्थित हो सकते हैं।[1]

सेरिबैलर मॉडल अंकगणितीय कंप्यूटर (CMAC) स्तनधारी सेरिबैलम के मॉडल पर आधारित एक प्रकार का तंत्रिका नेटवर्क है। इसे सेरेबेलर मॉडल आर्टिक्यूलेशन कंट्रोलर के रूप में भी जाना जाता है। यह एक प्रकार की सहयोगी मेमोरी है।[2]

CMAC को पहली बार 1975 में जेम्स एल्बस द्वारा रोबोटिक नियंत्रकों के लिए एक फ़ंक्शन मॉडलर के रूप में प्रस्तावित किया गया था[1] (इसलिए नाम), लेकिन इसका व्यापक रूप से सुदृढीकरण सीखने और मशीन लर्निंग समुदाय में स्वचालित वर्गीकरण के लिए उपयोग किया गया है। CMAC परसेप्ट्रॉन मॉडल का एक विस्तार है। यह इनपुट आयामों के लिए किसी फ़ंक्शन की गणना करता है। इनपुट स्पेस को हाइपर-आयतों में विभाजित किया गया है, जिनमें से प्रत्येक एक मेमोरी सेल से जुड़ा है। मेमोरी कोशिकाओं की सामग्री वजन होती है, जिसे प्रशिक्षण के दौरान समायोजित किया जाता है। सामान्यतः, इनपुट स्पेस के एक से अधिक परिमाणीकरण का उपयोग किया जाता है, ताकि इनपुट स्पेस में कोई भी बिंदु कई हाइपर-आयतों के साथ जुड़ा हो, और इसलिए कई मेमोरी कोशिकाओं के साथ। CMAC का आउटपुट इनपुट बिंदु द्वारा सक्रिय सभी मेमोरी सेल में वजन का बीजगणितीय योग है।

इनपुट बिंदु के मान में परिवर्तन के परिणामस्वरूप सक्रिय हाइपर-आयत के सेट में परिवर्तन होता है, और इसलिए CMAC आउटपुट में भाग लेने वाले मेमोरी सेल के सेट में परिवर्तन होता है। इसलिए CMAC आउटपुट को एक वितरित तरीके से संग्रहित किया जाता है, जैसे कि इनपुट स्पेस में किसी भी बिंदु से संबंधित आउटपुट कई मेमोरी कोशिकाओं में संग्रहीत मूल्य से प्राप्त होता है (इसलिए नाम सहयोगी मेमोरी)। इससे सामान्यीकरण मिलता है.

बिल्डिंग ब्लॉक्स

CMAC, 2D स्पेस के रूप में दर्शाया गया है

निकटवर्ती छवि में, CMAC के लिए दो इनपुट हैं, जिन्हें 2D स्पेस के रूप में दर्शाया गया है। इस स्थान को दो ओवरलैपिंग ग्रिड (एक को भारी रेखाओं में दिखाया गया है) के साथ विभाजित करने के लिए दो क्वांटाइज़िंग फ़ंक्शन का उपयोग किया गया है। मध्य के पास एक एकल इनपुट दिखाया गया है, और इसने छायांकित क्षेत्र के अनुरूप दो मेमोरी कोशिकाओं को सक्रिय कर दिया है। यदि दिखाए गए बिंदु के करीब कोई अन्य बिंदु होता है, तो यह सामान्यीकरण प्रदान करते हुए कुछ समान मेमोरी कोशिकाओं को साझा करेगा।

CMAC को इनपुट बिंदुओं और आउटपुट मानों के जोड़े प्रस्तुत करके और आउटपुट पर देखी गई त्रुटि के अनुपात से सक्रिय कोशिकाओं में वजन समायोजित करके प्रशिक्षित किया जाता है। इस सरल प्रशिक्षण एल्गोरिथ्म में अभिसरण का प्रमाण है।[3]

हाइपर-आयत में कर्नेल फ़ंक्शन जोड़ना सामान्य है, ताकि हाइपर-आयत के किनारे की ओर गिरने वाले बिंदुओं में केंद्र के पास गिरने वाले बिंदुओं की तुलना में कम सक्रियण हो।[4]

CMAC के व्यावहारिक उपयोग में उद्धृत प्रमुख समस्याओं में से एक आवश्यक मेमोरी आकार है, जो सीधे तौर पर इस्तेमाल की जाने वाली कोशिकाओं की संख्या से संबंधित है। इसे सामान्यतः हैश फ़ंक्शन का उपयोग करके सुधारा जाता है, और केवल इनपुट द्वारा सक्रिय होने वाली वास्तविक कोशिकाओं के लिए मेमोरी स्टोरेज प्रदान किया जाता है।

एक-चरण अभिसरण एल्गोरिथ्म

CMAC के वजन को अद्यतन करने के लिए प्रारंभ में न्यूनतम माध्य वर्ग (LMS) विधि का उपयोग किया जाता है। CMAC को प्रशिक्षित करने के लिए LMS का उपयोग करने का अभिसरण सीखने की दर के प्रति संवेदनशील है और विचलन का कारण बन सकता है। 2004 में,[5] CMAC को ऑनलाइन प्रशिक्षित करने के लिए एक पुनरावर्ती न्यूनतम वर्ग (RLS) एल्गोरिथ्म पेश किया गया था। इसमें सीखने की दर को व्यवस्थित करने की आवश्यकता नहीं है। इसका अभिसरण सैद्धांतिक रूप से सिद्ध हो चुका है और एक चरण में अभिसरण होने की प्रत्याभूति दी जा सकती है। इस RLS एल्गोरिथ्म की कम्प्यूटेशनल सम्मिश्रता O(N3) है।

CMAC तंत्रिका नेटवर्क की समानांतर पाइपलाइन संरचना [6]
Left पैनल: वास्तविक कार्य; दायां पैनल: डेरिवेटिव के साथ CMAC सन्निकटन

हार्डवेयर कार्यान्वयन अवसंरचना

QR अपघटन के आधार पर, एक एल्गोरिथ्म (QRLS) को O(N) सम्मिश्रता के लिए और सरल बनाया गया है। परिणामस्वरूप, इससे मेमोरी उपयोग और समय लागत में काफी कमी आती है। इस एल्गोरिदम को कार्यान्वित करने के लिए एक समानांतर पाइपलाइन सरणी संरचना प्रस्तुत की गई है।[6]

कुल मिलाकर QRLS एल्गोरिदम का उपयोग करके, CMAC तंत्रिका नेटवर्क अभिसरण की प्रत्याभूति दी जा सकती है, और प्रशिक्षण के एक चरण का उपयोग करके नोड्स के वजन को अद्यतन किया जा सकता है। इसकी समानांतर पाइपलाइन सरणी संरचना बड़े पैमाने पर उद्योग के उपयोग के लिए हार्डवेयर में लागू होने की बड़ी संभावना प्रदान करती है।

सतत CMAC

चूंकि CMAC ग्रहणशील क्षेत्र फंक्शन्स का आयताकार आकार B-स्प्लिंस फंक्शन्स के साथ CMAC को एकीकृत करके असंतुलित स्टेयरकेस फ़ंक्शन सन्निकटन उत्पन्न करता है, निरंतर CMAC अनुमानित फंक्शन्स के व्युत्पन्न के किसी भी क्रम को प्राप्त करने की क्षमता प्रदान करता है।

डीप CMAC

हाल के वर्षों में, कई अध्ययनों ने पुष्टि की है कि कई उथली संरचनाओं को एक ही गहरी संरचना में जमा करके, समग्र प्रणाली बेहतर डेटा प्रतिनिधित्व प्राप्त कर सकती है, और इस प्रकार, गैर-रेखीय और उच्च सम्मिश्रता कार्यों से अधिक प्रभावी ढंग से निपट सकती है। 2018 में, [7] एक गहन CMAC (DCMAC) ढांचे का प्रस्ताव किया गया था और DCMAC मापदंडों का अनुमान लगाने के लिए एक बैकप्रोपेगेशन एल्गोरिदम तैयार किया गया था। अनुकूली शोर रद्दीकरण कार्य के प्रायोगिक परिणामों से पता चला कि प्रस्तावित DCMAC पारंपरिक सिंगल-लेयर CMAC की तुलना में बेहतर ध्वनि रद्दीकरण प्रदर्शन प्राप्त कर सकता है।

सारांश

अनुमापकता लाखों न्यूरॉन्स या उससे आगे तक विस्तार करना आसान है
अभिसरण प्रशिक्षण हमेशा एक चरण में परिवर्तित हो सकता है
फलन व्युत्पन्न बी-स्प्लिंस इंटरपोलेशन को नियोजित करके प्राप्त करना आसान है
हार्डवेयर संरचना समांतर पाइपलाइन संरचना
मेमोरी प्रयोग न्यूरॉन्स की संख्या के संदर्भ में रैखिक
अभिकलनात्मक सम्मिश्रता O(N)

यह भी देखें

संदर्भ

  1. 1.0 1.1 J.S. Albus (1975). "A New Approach to Manipulator Control: the Cerebellar Model Articulation Controller (CMAC)". In: Trans. ASME, Series G. Journal of Dynamic Systems, Measurement and Control, Vol. 97, pp. 220–233, 1975.
  2. J.S. Albus (1979). "Mechanisms of Planning and Problem Solving in the Brain". In: Mathematical Biosciences. Vol. 45, pp. 247293, 1979.
  3. Y. Wong, CMAC Learning is Governed by a Single Parameter, IEEE International Conference on Neural Networks, San Francisco, Vol. 1, pp. 1439–43, 1993.
  4. P.C.E. An, W.T. Miller, and P.C. Parks, Design Improvements in Associative Memories for Cerebellar Model Articulation Controllers, Proc. ICANN, pp. 1207–10, 1991.
  5. Ting Qin, et al. "A learning algorithm of CMAC based on RLS." Neural Processing Letters 19.1 (2004): 49-61.
  6. 6.0 6.1 Ting Qin, et al. "Continuous CMAC-QRLS and its systolic array." Neural Processing Letters 22.1 (2005): 1-16.
  7. * Yu Tsao, et al. "Adaptive Noise Cancellation Using Deep Cerebellar Model Articulation Controller." IEEE Access Vol. 6, pp. 37395 - 37402, 2018.

अग्रिम पठन

बाहरी संबंध