हेब्बियन सिद्धांत

हेब्बियन सिद्धांत एक न्यूरोसाइकोलॉजिकल सिद्धांत है जो प्रमाणित करता है कि प्रीसानेप्टिक कोशिका की बार-बार और पोस्टसिनेप्टिक सेल की निरन्तर उत्तेजना से निष्कर्ष प्रभावकारिता में वृद्धि होती है। यह सीखने की प्रक्रिया के समय मस्तिष्क के न्यूरॉन के अनुकूलन, सूत्रयुग्मक सुनम्यता को समझाने का एक प्रयास है। इसे डोनाल्ड हेब्ब ने अपनी 1949 की पुस्तक व्यवहार का संगठन में प्रस्तुत किया था। इस सिद्धांत को हेब्ब का नियम, हेब्ब का अभिधारणा और कोशिका संयोजन सिद्धांत भी कहा जाता है। हेब्ब इसे इस प्रकार बताते हैं:

मान लें कि एक प्रतिध्वनि गतिविधि (या ट्रेस) की दृढ़ता या पुनरावृत्ति स्थायी सेलुलर परिवर्तनों को प्रेरित करती है जो इसकी स्थिरता को बढ़ाती है। ... जब कोशिका A का एक अक्षतंतु कोशिका B को उत्तेजित करने के लिए पर्याप्त निकट होता है और बार-बार या निरन्तर इसे सक्रिय करने में भाग लेता है, तो एक या दोनों कोशिकाओं में कुछ विकास प्रक्रिया या उपापचय परिवर्तन होता है A’की दक्षता, B को सक्रिय करने वाली कोशिकाओं में से एक के रूप में बढ़ जाती है।

सिद्धांत को अधिकांशतः उन कोशिकाओं के रूप में संक्षेपित किया जाता है जो एक साथ तार से प्रज्वलित होती हैं। चूँकि हेब्ब ने इस बात पर प्रभाव दिया कि सेल A को सेल B को फायर करने में भाग लेने की जरूरत है, और ऐसी कार्य-कारणता केवल तभी हो सकती है जब सेल A ठीक पहले फायर करता है, और सेल B के साथ उसी समय नहीं हेब्ब के काम में कार्य-कारण के इस पहलू ने पूर्वाभास दिया कि अब क्या है स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी के बारे में जाना जाता है, जिसके लिए अस्थायी प्राथमिकता की आवश्यकता होती है।

सिद्धांत साहचर्य या हेब्बियन सीखने की व्याख्या करने का प्रयास करता है, जिसमें कोशिकाओं के एक साथ सक्रिय होने से उन कोशिकाओं के बीच सिनैप्टिक शक्ति में स्पष्ट वृद्धि होती है। यह शिक्षा और मेमोरी पुनर्वास के लिए त्रुटि रहित शिक्षण विधियों के लिए एक जैविक आधार भी प्रदान करता है। संज्ञानात्मक कार्य में कृत्रिम तंत्रिका नेटवर्क के अध्ययन में इसे अधिकांशतः बिना पर्यवेक्षित शिक्षण का तंत्रिका संबंधी आधार माना जाता है।

हेब्बियन एनग्राम्स और सेल असेंबली सिद्धांत
हेब्बियन सिद्धांत कंसर्न करता है कि न्यूरॉन्स एंग्राम (न्यूरोसाइकोलॉजी) बनने के लिए खुद को कैसे जोड़ सकते हैं। कोशिका संयोजनों के स्वरूप और कार्य पर हेब्ब के सिद्धांतों को निम्नलिखित से समझा जा सकता है:

"सामान्य विचार पुराना है, कि कोई भी दो कोशिकाएँ या कोशिकाओं की प्रणालियाँ जो एक ही समय में बार-बार सक्रिय होती हैं, वे 'संबद्ध' हो जाती हैं जिससे एक में गतिविधि दूसरे में गतिविधि को सुविधाजनक बना सकता है।"

हेब्ब ने यह भी लिखा: "जब एक कोशिका बार-बार दूसरी कोशिका को सक्रिय करने में सहायता करती है, तो पहली कोशिका का अक्षतंतु दूसरी कोशिका के सोमा के संपर्क में सिनैप्टिक नॉब विकसित करता है (या यदि वे पहले से उपस्थित हैं तो उन्हें बड़ा करता है)।"

[डी एलन ऑलपोर्ट] सेल असेंबली सिद्धांत और ऑटो-एसोसिएशन की अवधारणा की तर्ज पर एनग्राम बनाने में इसकी भूमिका के बारे में अतिरिक्त विचार प्रस्तुत करता है, जिसका वर्णन इस प्रकार है:

यदि किसी सिस्टम में इनपुट के कारण गतिविधि का एक ही प्रतिरूप बार-बार होता है, तो उस प्रतिरूप को बनाने वाले सक्रिय तत्वों का सेट तेजी से दृढ़ता से परस्पर जुड़ा हुआ हो जाएगा। अर्थात्, प्रत्येक तत्व हर दूसरे तत्व को चालू कर देगा और (नकारात्मक भार के साथ) उन तत्वों को बंद कर देगा जो प्रतिरूप का भाग नहीं बनते हैं। इसे दूसरे विधि से कहें तो संपूर्ण प्रतिरूप 'ऑटो-एसोसिएटेड' हो जाएगा। हम सीखे हुए (ऑटो-संबद्ध) प्रतिरूप को एनग्राम कह सकते हैं।

एरिक आर कैंडेल की प्रयोगशाला में काम या हेब्बियन सीखने के लिए प्रायोगिक समर्थन ने समुद्री गैस्ट्रोपॉड अप्लीसिया कैलिफ़ोर्निका में सिनैप्स पर हेब्बियन सीखने के तंत्र की भागीदारी के लिए प्रमाण प्रदान किए हैं। समुद्री अकशेरुकी जीवों में अध्ययन किए गए अपेक्षाकृत सरल परिधीय तंत्रिका तंत्र सिनैप्स के प्रयोगों की तुलना में कशेरुकियों के केंद्रीय तंत्रिका तंत्र सिनेप्स पर हेब्बियन सिनैप्स संशोधन तंत्र पर प्रयोगों को नियंत्रित करना अधिक कठिन है। कशेरुक न्यूरॉन्स (जैसे दीर्घकालिक पोटेंशिएशन) के बीच लंबे समय तक चलने वाले सिनैप्टिक परिवर्तनों पर अधिकांश काम में मस्तिष्क कोशिकाओं के गैर-शारीरिक प्रयोगात्मक उत्तेजना का उपयोग सम्मिलित होता है। चूँकि कुछ शारीरिक रूप से प्रासंगिक सिनैप्स संशोधन तंत्र जिनका कशेरुकी मस्तिष्क में अध्ययन किया गया है, वे हेब्बियन प्रक्रियाओं के उदाहरण प्रतीत होते हैं। ऐसा ही एक अध्ययन प्रयोगों के परिणामों की समीक्षा से संकेत मिलता है कि सिनैप्टिक शक्तियों में लंबे समय तक चलने वाले परिवर्तन हेब्बियन और गैर-हेब्बियन दोनों तंत्रों के माध्यम से काम करने वाली शारीरिक रूप से प्रासंगिक सिनैप्टिक गतिविधि से प्रेरित हो सकते हैं।

सिद्धांत
कृत्रिम न्यूरॉन और कृत्रिम तंत्रिका नेटवर्क के दृष्टिकोण से हेब्ब के सिद्धांत को यह निर्धारित करने की एक विधि के रूप में वर्णित किया जा सकता है कि मॉडल न्यूरॉन्स के बीच वजन को कैसे बदला जाए। यदि दो न्यूरॉन्स एक साथ सक्रिय होते हैं तो उनके बीच का भार बढ़ जाता है, और यदि वे अलग-अलग सक्रिय होते हैं तो कम हो जाता है। जो नोड्स एक ही समय में या तो सकारात्मक या दोनों नकारात्मक होते हैं, उनमें प्रबल सकारात्मक भार होता है, जबकि जो विपरीत होते हैं, उनमें प्रबल नकारात्मक भार होता है।

निम्नलिखित हेब्बियन शिक्षा का एक सूत्रबद्ध वर्णन है: (कई अन्य विवरण संभव हैं)


 * $$\,w_{ij}=x_ix_j$$

जहां $$w_{ij} $$ न्यूरॉन $$ j $$ से न्यूरॉन $$ i $$ तक कनेक्शन का भार है और $$ x_i $$ न्यूरॉन $$ i $$ के लिए इनपुट है। ध्यान दें कि यह प्रतिरूप लर्निंग है (प्रत्येक प्रशिक्षण उदाहरण के बाद वजन अपडेट किया जाता है)। हॉपफील्ड नेटवर्क में, कनेक्शन $$w_{ij} $$ शून्य पर सेट होते हैं यदि $$i=j $$ (कोई रिफ्लेक्सिव कनेक्शन की अनुमति नहीं है)। बाइनरी न्यूरॉन्स (सक्रियण या तो 0 या 1) के साथ, कनेक्शन 1 पर सेट किया जाएगा यदि कनेक्टेड न्यूरॉन्स में प्रतिरूप के लिए समान सक्रियण है।

जब कई प्रशिक्षण प्रतिरूप का उपयोग किया जाता है तो अभिव्यक्ति व्यक्तिगत प्रतिरूप का औसत बन जाती है:


 * $$w_{ij} = \frac{1}{p} \sum_{k=1}^p x_i^k x_j^k = \langle x_i x_j\rangle,\,$$

जहां $$w_{ij} $$ न्यूरॉन $$ j $$ से न्यूरॉन $$ i $$ तक कनेक्शन का भार है, $$ p $$ प्रशिक्षण प्रतिरूप की संख्या है, $$x_{i}^k$$ $$ k $$ न्यूरॉन $$ i $$ के लिए kth इनपुट है और <> सभी प्रशिक्षण प्रतिरूप का औसत है। यह युग के अनुसार सीख रहा है (सभी प्रशिक्षण उदाहरण प्रस्तुत किए जाने के बाद वजन अपडेट किया जाता है), अंतिम शब्द असतत और निरंतर प्रशिक्षण सेट दोनों पर प्रयुक्त होता है। फिर, हॉपफ़ील्ड नेटवर्क में, कनेक्शन $$w_{ij} $$ शून्य पर सेट होते हैं यदि$$i=j $$ (कोई रिफ्लेक्सिव कनेक्शन नहीं)।

हेब्बियन सीखने की एक भिन्नता जो अवरोधन और कई अन्य तंत्रिका सीखने की घटनाओं को ध्यान में रखती है, हैरी क्लॉफ का गणितीय मॉडल है। क्लॉफ़ का मॉडल बहुत सारी जैविक घटनाओं को पुन: प्रस्तुत करता है, और इसे प्रयुक्त करना भी आसान है।

पर्यवेक्षित शिक्षण, स्थिरता और सामान्यीकरण से संबंध
हेब्बियन सीखने की सरल प्रकृति के कारण जो केवल प्री- और पोस्ट-सिनैप्टिक गतिविधि के संयोग पर आधारित है, यह सहज रूप से स्पष्ट नहीं हो सकता है कि प्लास्टिसिटी का यह रूप सार्थक सीखने की ओर क्यों ले जाता है। चूँकि यह दिखाया जा सकता है कि हेब्बियन प्लास्टिसिटी इनपुट के सांख्यिकीय गुणों को इस तरह से उठाती है जिसे बिना पर्यवेक्षित शिक्षण के रूप में वर्गीकृत किया जा सकता है।

इसे गणितीय रूप से एक सरल उदाहरण में दिखाया जा सकता है। आइए हम दर $$y(t)$$ के एकल दर-आधारित न्यूरॉन की सरलीकृत धारणा के तहत काम करें, जिसके इनपुट की दरें {$$x_1(t) ... x_N(t)$$ हैं। न्यूरॉन $$y(t)$$ की प्रतिक्रिया को सामान्यतः इसके इनपुट, $$\sum_i w_ix_i$$ के एक रैखिक संयोजन के रूप में वर्णित किया जाता है, जिसके बाद एक प्रतिक्रिया फलन $$f$$ होता है:
 * $$y = f\left(\sum_{i=1}^N w_i x_i \right).$$

जैसा कि पिछले अनुभागों में परिभाषित किया गया है, हेब्बियन प्लास्टिसिटी सिनैप्टिक भार $$w$$ के समय में विकास का वर्णन करता है।
 * $$\frac{dw_i}{dt} = \eta x_i y.$$

सरलता के लिए, एक पहचान प्रतिक्रिया फलन $$f(a)=a$$ मानते हुए, हम लिख सकते हैं
 * $$\frac{dw_i}{dt} = \eta x_i \sum_{j=1}^N w_j x_j$$

या आव्यूह (गणित) रूप में:
 * $$\frac{d\mathbf{w}}{dt} = \eta \mathbf{x}\mathbf{x}^T\mathbf{w}.$$

पिछले अध्याय की तरह, यदि युग के अनुसार प्रशिक्षण किया जाता है तो $$\mathbf{x}$$ का असतत या निरंतर (समय) प्रशिक्षण सेट पर एक औसत $$\langle \dots \rangle$$ किया जा सकता है:$$\frac{d\mathbf{w}}{dt} = \langle \eta \mathbf{x}\mathbf{x}^T\mathbf{w} \rangle = \eta \langle \mathbf{x}\mathbf{x}^T\rangle\mathbf{w} = \eta C \mathbf{w}.$$

जहां $$C = \langle\, \mathbf{x}\mathbf{x}^T \rangle$$अतिरिक्त धारणा के तहत इनपुट का सहसंबंध आव्यूह है कि $$\langle\mathbf{x}\rangle = 0$$ (अर्थात इनपुट का औसत शून्य है)। यह $$N$$ युग्मित रैखिक अवकल समीकरणों की एक प्रणाली है। चूँकि C सममित है, यह विकर्णीय भी है, और इसके ईजेनवेक्टर के आधार पर कार्य करके समाधान पाया जा सकता है
 * $$\mathbf{w}(t) = k_1e^{\eta\alpha_1 t}\mathbf{c}_1 + k_2e^{\eta\alpha_2 t}\mathbf{c}_2 + ... + k_Ne^{\eta\alpha_N t}\mathbf{c}_N$$

जहां $$k_i$$ इच्छानुसार स्थिरांक हैं, $$\mathbf{c}_i$$, $$C$$ के ईजेनवेक्टर हैं और $$\alpha_i$$ उनके संगत ईजेनवैल्यू हैं। चूँकि एक सहसंबंध आव्यूह सदैव एक सकारात्मक-निश्चित आव्यूह होता है, आइगेनवैल्यू सभी सकारात्मक होते हैं, और कोई भी आसानी से देख सकता है कि उपरोक्त समाधान सदैव समय में तेजी से भिन्न कैसे होता है। हेब्ब के नियम के इस संस्करण के अस्थिर होने के कारण यह एक आंतरिक समस्या है, क्योंकि प्रमुख सिग्नल वाले किसी भी नेटवर्क में सिनैप्टिक भार तेजी से बढ़ेगा या घटेगा। सहज रूप से, इसका कारण यह है कि जब भी प्रीसिनेप्टिक न्यूरॉन पोस्टसिनेप्टिक न्यूरॉन को उत्तेजित करता है, तो उनके बीच का वजन प्रबल हो जाता है, जिससे भविष्य में और भी प्रबल उत्तेजना उत्पन्न होती है, और इसी तरह, आत्म-सुदृढ़ विधि से कोई सोच सकता है कि गैर-रैखिक, संतृप्त प्रतिक्रिया कार्य $$f$$ जोड़कर पोस्टसिनेप्टिक न्यूरॉन की फायरिंग दर को सीमित करना एक समाधान है, किंतु वास्तव में यह दिखाया जा सकता है कि किसी भी न्यूरॉन मॉडल के लिए, हेब्ब का नियम अस्थिर है। इसलिए नेटवर्क मॉडल न्यूरॉन्स सामान्यतः अन्य शिक्षण सिद्धांतों जैसे बीसीएम सिद्धांत, ओजा का नियम या सामान्यीकृत हेब्बियन एल्गोरिदम को नियोजित करते हैं।

तथापि, ऊपर दिए गए अस्थिर समाधान के लिए भी, कोई यह देख सकता है कि, जब पर्याप्त समय बीत जाता है, तो उनमें से एक शब्द दूसरों पर प्रभावित हो जाता है, और
 * $$\mathbf{w}(t) \approx e^{\eta\alpha^* t}\mathbf{c}^*$$.

जहां $$\alpha^*$$, $$C$$ का सबसे बड़ा ईजेनवैल्यू है। इस समय पोस्टसिनेप्टिक न्यूरॉन निम्नलिखित ऑपरेशन करता है:
 * $$y \approx e^{\eta\alpha^* t}\mathbf{c}^* \mathbf{x}$$

क्योंकि, फिर से, $$\mathbf{c}^*$$,$$x_i$$s, के बीच सहसंबंध आव्यूह के सबसे बड़े ईजेनवैल्यू के अनुरूप ईजेनवेक्टर है यह बिल्कुल इनपुट के पहले प्रमुख घटक की गणना से मेल खाता है।

इस तंत्र को आगे पोस्टसिनेप्टिक न्यूरॉन्स को जोड़कर इनपुट का पूर्ण पीसीए (प्रमुख घटक विश्लेषण) करने के लिए बढ़ाया जा सकता है, परन्तु कि सभी पोस्टसिनेप्टिक न्यूरॉन्स को एक ही प्रमुख घटक को लेने से रोका जाए, उदाहरण के लिए पोस्टसिनेप्टिक परत में पार्श्व अवरोध जोड़कर इस प्रकार हमने हेब्बियन शिक्षण को पीसीए से जोड़ा है, जो कि बिना पर्यवेक्षित शिक्षण का एक प्रारंभिक रूप है, इस अर्थ में कि नेटवर्क इनपुट के उपयोगी सांख्यिकीय पहलुओं को उठा सकता है, और अपने आउटपुट में आसुत विधि से उनका वर्णन कर सकता है।

सीमाएँ
दीर्घकालिक पोटेंशिएशन के लिए हेब्बियन मॉडल के सामान्य उपयोग के अतिरिक्त हेब्ब का सिद्धांत सभी प्रकार के सिनैप्टिक दीर्घकालिक प्लास्टिसिटी को आवरण नहीं करता है। हेब्ब ने निरोधात्मक सिनैप्स के लिए कोई नियम नहीं बनाया था ,और न ही उन्होंने कारण-विरोधी स्पाइक अनुक्रमों (पोस्टसिनेप्टिक न्यूरॉन के बाद प्रीसिनेप्टिक न्यूरॉन आग) के लिए पूर्वानुमान किया था। सिनैप्टिक संशोधन न केवल सक्रिय न्यूरॉन्स A और B के बीच हो सकता है, चूँकि निकट सिनैप्स पर भी हो सकता है। इसलिए हेटेरोसिनैप्टिक प्लास्टिसिटी और होमोस्टैटिक प्लास्टिसिटी के सभी रूपों को गैर-हेब्बियन माना जाता है। एक उदाहरण प्रीसिनेप्टिक टर्मिनलों के लिए प्रतिगामी सिग्नलिंग है। इस प्रतिगामी ट्रांसमीटर भूमिका को पूरा करने के लिए सबसे अधिक पहचाना जाने वाला यौगिक नाइट्रिक ऑक्साइड है, जो अपनी उच्च घुलनशीलता और प्रसारशीलता के कारण अधिकांशतः आस-पास के न्यूरॉन्स पर प्रभाव डालता है। इस प्रकार का फैलाना सिनैप्टिक संशोधन जिसे वॉल्यूम लर्निंग के रूप में जाना जाता है, पारंपरिक हेब्बियन मॉडल में सम्मिलित नहीं है।

दर्पण न्यूरॉन का हेब्बियन लर्निंग अकाउंट
दर्पण न्यूरॉन्स कैसे उभरते हैं, इसके प्रभावशाली सिद्धांत में हेब्बियन लर्निंग और स्पाइक-टाइमिंग-डिपेंडेंट प्लास्टिसिटी का उपयोग किया गया है। दर्पण न्यूरॉन्स वे न्यूरॉन्स होते हैं जो तब सक्रिय होते हैं जब कोई व्यक्ति कोई कार्य करता है और जब व्यक्ति देखता है या सुनता है तो दूसरा समान क्रिया करता है। इन न्यूरॉन्स की खोज यह समझाने में बहुत प्रभावशाली रही है कि व्यक्ति दूसरों के कार्यों को कैसे समझते हैं, यह दिखाते हुए कि जब कोई व्यक्ति दूसरों के कार्यों को समझता है, तो व्यक्ति मोटर प्रोग्राम को सक्रिय करता है जिसका उपयोग वे समान कार्यों को करने के लिए करेंगे। इन मोटर कार्यक्रमों का सक्रियण तब धारणा में जानकारी जोड़ता है और यह अनुमान लगाने में सहायता करता है कि व्यक्ति अपने स्वयं के मोटर कार्यक्रम के आधार पर आगे क्या करेगा। एक चुनौती यह समझाना है कि कैसे व्यक्तियों में न्यूरॉन्स आते हैं जो किसी कार्य को करते समय और दूसरे को समान कार्य करते हुए सुनते या देखते समय प्रतिक्रिया करते हैं।

क्रिश्चियन कीज़र्स और डेविड पेरेट ने सुझाव दिया कि जैसे ही कोई व्यक्ति एक विशेष कार्य करता है, व्यक्ति उस कार्य को करते हुए देखेगा, सुनेगा और अनुभव करेगा। ये पुनः अभिवाही संवेदी संकेत क्रिया की दृष्टि ध्वनि और अनुभव पर प्रतिक्रिया करने वाले न्यूरॉन्स में गतिविधि को ट्रिगर करेंगे। क्योंकि इन संवेदी न्यूरॉन्स की गतिविधि निरन्तर उन मोटर न्यूरॉन्स के साथ ओवरलैप होगी जो कार्रवाई का कारण बनती है, हेब्बियन लर्निंग पूर्वानुमान करती है कि न्यूरॉन्स को जोड़ने वाले सिनैप्स किसी क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करते हैं और उन न्यूरॉन्स को ट्रिगर करते हैं कार्रवाई को सशक्त बनाया जाना चाहिए. यही बात तब भी सच है जब लोग खुद को दर्पण में देखते हैं, खुद को बड़बड़ाते हुए सुनते हैं, या दूसरों की नकल करते हैं। इस पुनः-संबंध के बार-बार अनुभव के बाद, किसी क्रिया के संवेदी और मोटर प्रतिनिधित्व को जोड़ने वाले सिनैप्स इतने प्रबल होते हैं कि मोटर न्यूरॉन्स ध्वनि या क्रिया की दृष्टि पर फायरिंग करना प्रारंभ कर देते हैं, और एक दर्पण न्यूरॉन बनाया जाता है।

उस परिप्रेक्ष्य के साक्ष्य कई प्रयोगों से मिलते हैं जो दिखाते हैं कि मोटर प्रोग्राम को मोटर प्रोग्राम के निष्पादन के साथ उत्तेजना की बार-बार जोड़ी के बाद उपन्यास श्रवण या दृश्य उत्तेजनाओं द्वारा ट्रिगर किया जा सकता है (साक्ष्य की समीक्षा के लिए, गिउडिस एट अल देखें।, 2009) ). उदाहरण के लिए, जिन लोगों ने कभी पियानो नहीं बजाया है, वे पियानो संगीत सुनते समय पियानो बजाने में सम्मिलित मस्तिष्क क्षेत्रों को सक्रिय नहीं करते हैं। पांच घंटे का पियानो पाठ, जिसमें प्रतिभागी को हर बार कुंजी दबाने पर पियानो की ध्वनि के संपर्क में लाया जाता है, बाद में पियानो संगीत सुनने पर मस्तिष्क के मोटर क्षेत्रों में गतिविधि को ट्रिगर करने के लिए पर्याप्त सिद्ध होता है। इस तथ्य के अनुरूप कि स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी केवल तभी होती है जब प्रीसिनेप्टिक न्यूरॉन फायरिंग पोस्टसिनेप्टिक न्यूरॉन फायरिंग की पूर्वानुमान करती है, संवेदी उत्तेजनाओं और मोटर कार्यक्रमों के बीच संबंध भी तभी प्रबल होता प्रतीत होता है जब उत्तेजना मोटर कार्य पर निर्भर होता है।

यह भी देखें

 * डेल का सिद्धांत
 * न्यूरोबायोलॉजी में संयोग का पता लगाना
 * लीब्रा
 * मेटाप्लास्टिकिटी
 * धनुस्तंभीय उत्तेजना
 * सिनैप्टोट्रोपिक परिकल्पना
 * न्यूरोप्लास्टिकिटी
 * व्यवहारवाद

बाहरी संबंध

 * Overview
 * Hebbian Learning tutorial (Part 1: Novelty Filtering, Part 2: PCA)