हेब्बियन सिद्धांत

हेब्बियन सिद्धांत एक neuropsychological सिद्धांत है जो दावा करता है कि प्रीसानेप्टिक कोशिका  की बार-बार और पोस्टसिनेप्टिक सेल की लगातार उत्तेजना से निष्कर्ष प्रभावकारिता में वृद्धि होती है। यह सीखने की प्रक्रिया के दौरान मस्तिष्क के न्यूरॉन्स के अनुकूलन,  सूत्रयुग्मक सुनम्यता  को समझाने का एक प्रयास है। इसे डोनाल्ड हेब्ब ने अपनी 1949 की पुस्तक व्यवहार का संगठन में पेश किया था। इस सिद्धांत को हेब्ब का नियम, हेब्ब का अभिधारणा और कोशिका संयोजन सिद्धांत भी कहा जाता है। हेब्ब इसे इस प्रकार बताते हैं:

आइए मान लें कि एक प्रतिध्वनि गतिविधि (या ट्रेस) की दृढ़ता या पुनरावृत्ति स्थायी सेलुलर परिवर्तनों को प्रेरित करती है जो इसकी स्थिरता को बढ़ाती है। ... जब कोशिका ए का एक अक्षतंतु कोशिका बी को उत्तेजित करने के लिए पर्याप्त निकट होता है और बार-बार या लगातार इसे सक्रिय करने में भाग लेता है, तो एक या दोनों कोशिकाओं में कुछ विकास प्रक्रिया या चयापचय परिवर्तन होता है ए की दक्षता, बी को सक्रिय करने वाली कोशिकाओं में से एक के रूप में बढ़ जाती है। 

सिद्धांत को अक्सर उन कोशिकाओं के रूप में संक्षेपित किया जाता है जो एक साथ तार से प्रज्वलित होती हैं। हालाँकि, हेब्ब ने इस बात पर जोर दिया कि सेल ए को सेल बी को फायर करने में भाग लेने की जरूरत है, और ऐसी कार्य-कारणता केवल तभी हो सकती है जब सेल ए ठीक पहले फायर करता है, सेल बी के साथ उसी समय नहीं। हेब्ब के काम में कार्य-कारण के इस पहलू ने पूर्वाभास दिया कि अब क्या है स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी के बारे में जाना जाता है, जिसके लिए अस्थायी प्राथमिकता की आवश्यकता होती है। सिद्धांत सहयोगी शिक्षा या हेब्बियन शिक्षा को समझाने का प्रयास करता है, जिसमें कोशिकाओं के एक साथ सक्रिय होने से उन कोशिकाओं के बीच सिनैप्टिक ताकत में स्पष्ट वृद्धि होती है। यह शिक्षा और स्मृति पुनर्वास के लिए त्रुटि रहित शिक्षण विधियों के लिए एक जैविक आधार भी प्रदान करता है। संज्ञानात्मक कार्य में कृत्रिम तंत्रिका नेटवर्क के अध्ययन में, इसे अक्सर बिना पर्यवेक्षित शिक्षण का तंत्रिका संबंधी आधार माना जाता है।

हेब्बियन एनग्राम्स और सेल असेंबली सिद्धांत
हेब्बियन सिद्धांत चिंता करता है कि न्यूरॉन्स एंग्राम (न्यूरोसाइकोलॉजी) बनने के लिए खुद को कैसे जोड़ सकते हैं। कोशिका संयोजनों के स्वरूप और कार्य पर हेब्ब के सिद्धांतों को निम्नलिखित से समझा जा सकता है:

"सामान्य विचार पुराना है, कि कोई भी दो कोशिकाएँ या कोशिकाओं की प्रणालियाँ जो एक ही समय में बार-बार सक्रिय होती हैं, वे 'संबद्ध' हो जाती हैं ताकि एक में गतिविधि दूसरे में गतिविधि को सुविधाजनक बना सके।"

हेब्ब ने यह भी लिखा: "जब एक कोशिका बार-बार दूसरी कोशिका को सक्रिय करने में सहायता करती है, तो पहली कोशिका का अक्षतंतु दूसरी कोशिका के सोमा के संपर्क में सिनैप्टिक नॉब विकसित करता है (या यदि वे पहले से मौजूद हैं तो उन्हें बड़ा करता है)।"

[डी। एलन ऑलपोर्ट] सेल असेंबली सिद्धांत और ऑटो-एसोसिएशन की अवधारणा की तर्ज पर एनग्राम बनाने में इसकी भूमिका के बारे में अतिरिक्त विचार प्रस्तुत करता है, जिसका वर्णन इस प्रकार है:

यदि किसी सिस्टम में इनपुट के कारण गतिविधि का एक ही पैटर्न बार-बार होता है, तो उस पैटर्न को बनाने वाले सक्रिय तत्वों का सेट तेजी से दृढ़ता से परस्पर जुड़ा हुआ हो जाएगा। अर्थात्, प्रत्येक तत्व हर दूसरे तत्व को चालू कर देगा और (नकारात्मक भार के साथ) उन तत्वों को बंद कर देगा जो पैटर्न का हिस्सा नहीं बनते हैं। इसे दूसरे तरीके से कहें तो, संपूर्ण पैटर्न 'ऑटो-एसोसिएटेड' हो जाएगा। हम सीखे हुए (ऑटो-संबद्ध) पैटर्न को एनग्राम कह सकते हैं। 

एरिक आर कैंडेल की प्रयोगशाला में काम#हेब्बियन सीखने के लिए प्रायोगिक समर्थन ने समुद्री गैस्ट्रोपॉड  अप्लीसिया कैलिफ़ोर्निका में सिनैप्स पर हेब्बियन सीखने के तंत्र की भागीदारी के लिए सबूत प्रदान किए हैं। समुद्री अकशेरुकी जीवों में अध्ययन किए गए अपेक्षाकृत सरल परिधीय तंत्रिका तंत्र सिनैप्स के प्रयोगों की तुलना में कशेरुकियों के केंद्रीय तंत्रिका तंत्र सिनेप्स पर हेब्बियन सिनैप्स संशोधन तंत्र पर प्रयोगों को नियंत्रित करना अधिक कठिन है। कशेरुक न्यूरॉन्स (जैसे दीर्घकालिक पोटेंशिएशन) के बीच लंबे समय तक चलने वाले सिनैप्टिक परिवर्तनों पर अधिकांश काम में मस्तिष्क कोशिकाओं के गैर-शारीरिक प्रयोगात्मक उत्तेजना का उपयोग शामिल होता है। हालाँकि, कुछ शारीरिक रूप से प्रासंगिक सिनैप्स संशोधन तंत्र जिनका कशेरुकी मस्तिष्क में अध्ययन किया गया है, वे हेब्बियन प्रक्रियाओं के उदाहरण प्रतीत होते हैं। ऐसा ही एक अध्ययन प्रयोगों के परिणामों की समीक्षा से संकेत मिलता है कि सिनैप्टिक शक्तियों में लंबे समय तक चलने वाले परिवर्तन हेब्बियन और गैर-हेब्बियन दोनों तंत्रों के माध्यम से काम करने वाली शारीरिक रूप से प्रासंगिक सिनैप्टिक गतिविधि से प्रेरित हो सकते हैं।

सिद्धांत
कृत्रिम न्यूरॉन्स और कृत्रिम तंत्रिका नेटवर्क के दृष्टिकोण से, हेब्ब के सिद्धांत को यह निर्धारित करने की एक विधि के रूप में वर्णित किया जा सकता है कि मॉडल न्यूरॉन्स के बीच वजन को कैसे बदला जाए। यदि दो न्यूरॉन्स एक साथ सक्रिय होते हैं तो उनके बीच का भार बढ़ जाता है, और यदि वे अलग-अलग सक्रिय होते हैं तो कम हो जाता है। जो नोड्स एक ही समय में या तो सकारात्मक या दोनों नकारात्मक होते हैं, उनमें मजबूत सकारात्मक भार होता है, जबकि जो विपरीत होते हैं, उनमें मजबूत नकारात्मक भार होता है।

निम्नलिखित हेब्बियन शिक्षा का एक सूत्रबद्ध वर्णन है: (कई अन्य विवरण संभव हैं)


 * $$\,w_{ij}=x_ix_j$$

कहाँ $$w_{ij} $$ न्यूरॉन से कनेक्शन का भार है $$ j $$ न्यूरॉन को $$ i $$ और $$ x_i $$ न्यूरॉन के लिए इनपुट $$ i $$. ध्यान दें कि यह पैटर्न लर्निंग है (प्रत्येक प्रशिक्षण उदाहरण के बाद वजन अपडेट किया जाता है)। हॉपफील्ड नेटवर्क में, कनेक्शन $$w_{ij} $$ यदि शून्य पर सेट हैं $$i=j $$ (कोई रिफ्लेक्सिव कनेक्शन की अनुमति नहीं है)। बाइनरी न्यूरॉन्स (सक्रियण या तो 0 या 1) के साथ, कनेक्शन 1 पर सेट किया जाएगा यदि कनेक्टेड न्यूरॉन्स में पैटर्न के लिए समान सक्रियण है।

जब कई प्रशिक्षण पैटर्न का उपयोग किया जाता है तो अभिव्यक्ति व्यक्तिगत पैटर्न का औसत बन जाती है:


 * $$w_{ij} = \frac{1}{p} \sum_{k=1}^p x_i^k x_j^k = \langle x_i x_j\rangle,\,$$

कहाँ $$w_{ij} $$ न्यूरॉन से कनेक्शन का भार है $$ j $$ न्यूरॉन को $$ i $$, $$ p $$ प्रशिक्षण पैटर्न की संख्या है, $$x_{i}^k$$ $$ k $$न्यूरॉन के लिए वें इनपुट $$ i $$ और <> सभी प्रशिक्षण पैटर्न का औसत है। यह युग के अनुसार सीख रहा है (सभी प्रशिक्षण उदाहरण प्रस्तुत किए जाने के बाद वजन अपडेट किया जाता है), अंतिम शब्द असतत और निरंतर प्रशिक्षण सेट दोनों पर लागू होता है। फिर से, हॉपफ़ील्ड नेटवर्क में, कनेक्शन $$w_{ij} $$ यदि शून्य पर सेट हैं $$i=j $$ (कोई रिफ्लेक्सिव कनेक्शन नहीं)।

हेब्बियन सीखने की एक भिन्नता जो ब्लॉकिंग और कई अन्य तंत्रिका सीखने की घटनाओं को ध्यान में रखती है, हैरी नॉक का गणितीय मॉडल है। हेटरोस्टैटिक सिद्धांत | क्लॉफ का मॉडल बहुत सारी जैविक घटनाओं को पुन: उत्पन्न करता है, और इसे लागू करना भी आसान है।

पर्यवेक्षित शिक्षण, स्थिरता और सामान्यीकरण से संबंध
हेब्बियन सीखने की सरल प्रकृति के कारण, जो केवल प्री- और पोस्ट-सिनैप्टिक गतिविधि के संयोग पर आधारित है, यह सहज रूप से स्पष्ट नहीं हो सकता है कि प्लास्टिसिटी का यह रूप सार्थक सीखने की ओर क्यों ले जाता है। हालाँकि, यह दिखाया जा सकता है कि हेब्बियन प्लास्टिसिटी इनपुट के सांख्यिकीय गुणों को इस तरह से उठाती है जिसे बिना पर्यवेक्षित शिक्षण के रूप में वर्गीकृत किया जा सकता है।

इसे गणितीय रूप से एक सरल उदाहरण में दिखाया जा सकता है। आइए हम दर के एकल दर-आधारित न्यूरॉन की सरलीकृत धारणा के तहत काम करें $$y(t)$$, जिनके इनपुट की दरें हैं $$x_1(t) ... x_N(t)$$. न्यूरॉन की प्रतिक्रिया $$y(t)$$ इसे आमतौर पर इसके इनपुट के रैखिक संयोजन के रूप में वर्णित किया जाता है, $$\sum_i w_ix_i$$, उसके बाद एक प्रतिक्रिया समारोह $$f$$:
 * $$y = f\left(\sum_{i=1}^N w_i x_i \right).$$

जैसा कि पिछले अनुभागों में परिभाषित किया गया है, हेब्बियन प्लास्टिसिटी सिनैप्टिक भार के समय में विकास का वर्णन करता है $$w$$:
 * $$\frac{dw_i}{dt} = \eta x_i y.$$

सरलता के लिए, एक पहचान प्रतिक्रिया फ़ंक्शन मान लें $$f(a)=a$$, हम लिख सकते हैं
 * $$\frac{dw_i}{dt} = \eta x_i \sum_{j=1}^N w_j x_j$$

या मैट्रिक्स (गणित) रूप में:
 * $$\frac{d\mathbf{w}}{dt} = \eta \mathbf{x}\mathbf{x}^T\mathbf{w}.$$

पिछले अध्याय की तरह, यदि युग के अनुसार प्रशिक्षण औसत रूप से किया जाता है $$\langle \dots \rangle$$ असतत या निरंतर (समय) प्रशिक्षण सेट पर $$\mathbf{x}$$ हो सकता है:$$\frac{d\mathbf{w}}{dt} = \langle \eta \mathbf{x}\mathbf{x}^T\mathbf{w} \rangle = \eta \langle \mathbf{x}\mathbf{x}^T\rangle\mathbf{w} = \eta C \mathbf{w}.$$कहाँ $$C = \langle\, \mathbf{x}\mathbf{x}^T \rangle$$ अतिरिक्त धारणा के तहत इनपुट का सहसंबंध मैट्रिक्स है $$\langle\mathbf{x}\rangle = 0$$ (अर्थात इनपुट का औसत शून्य है)। यह एक प्रणाली है $$N$$ युग्मित रैखिक अंतर समीकरण। तब से $$C$$ सममित मैट्रिक्स है, यह विकर्ण मैट्रिक्स भी है, और इसके ईजेनवेक्टर आधार पर काम करके समाधान पाया जा सकता है
 * $$\mathbf{w}(t) = k_1e^{\eta\alpha_1 t}\mathbf{c}_1 + k_2e^{\eta\alpha_2 t}\mathbf{c}_2 + ... + k_Ne^{\eta\alpha_N t}\mathbf{c}_N$$

कहाँ $$k_i$$ मनमाना स्थिरांक हैं, $$\mathbf{c}_i$$ के eigenvectors हैं $$C$$ और $$\alpha_i$$ उनके संगत eigenvalues. चूँकि एक सहसंबंध मैट्रिक्स हमेशा एक सकारात्मक-निश्चित मैट्रिक्स होता है, आइगेनवैल्यू सभी सकारात्मक होते हैं, और कोई भी आसानी से देख सकता है कि उपरोक्त समाधान हमेशा समय में तेजी से भिन्न कैसे होता है। हेब्ब के नियम के इस संस्करण के अस्थिर होने के कारण यह एक आंतरिक समस्या है, क्योंकि प्रमुख सिग्नल वाले किसी भी नेटवर्क में सिनैप्टिक भार तेजी से बढ़ेगा या घटेगा। सहज रूप से, इसका कारण यह है कि जब भी प्रीसिनेप्टिक न्यूरॉन पोस्टसिनेप्टिक न्यूरॉन को उत्तेजित करता है, तो उनके बीच का वजन प्रबल हो जाता है, जिससे भविष्य में और भी मजबूत उत्तेजना पैदा होती है, और इसी तरह, आत्म-सुदृढ़ तरीके से। कोई सोच सकता है कि एक गैर-रेखीय, संतृप्त प्रतिक्रिया फ़ंक्शन जोड़कर पोस्टसिनेप्टिक न्यूरॉन की फायरिंग दर को सीमित करना एक समाधान है। $$f$$, लेकिन वास्तव में, यह दिखाया जा सकता है कि किसी भी न्यूरॉन मॉडल के लिए, हेब्ब का नियम अस्थिर है। इसलिए, न्यूरॉन्स के नेटवर्क मॉडल आमतौर पर अन्य शिक्षण सिद्धांतों जैसे बीसीएम सिद्धांत, ओजा का नियम, को नियोजित करते हैं। या सामान्यीकृत हेब्बियन एल्गोरिदम।

भले ही, ऊपर दिए गए अस्थिर समाधान के लिए भी, कोई यह देख सकता है कि, जब पर्याप्त समय बीत जाता है, तो उनमें से एक शब्द दूसरों पर हावी हो जाता है, और
 * $$\mathbf{w}(t) \approx e^{\eta\alpha^* t}\mathbf{c}^*$$

कहाँ $$\alpha^*$$ का सबसे बड़ा eigenvalue है $$C$$. इस समय, पोस्टसिनेप्टिक न्यूरॉन निम्नलिखित ऑपरेशन करता है:
 * $$y \approx e^{\eta\alpha^* t}\mathbf{c}^* \mathbf{x}$$

क्योंकि, फिर से, $$\mathbf{c}^*$$ के बीच सहसंबंध मैट्रिक्स के सबसे बड़े eigenvalue के अनुरूप eigenvector है $$x_i$$s, यह बिल्कुल इनपुट के पहले प्रमुख घटक की गणना से मेल खाता है।

इस तंत्र को आगे पोस्टसिनेप्टिक न्यूरॉन्स को जोड़कर इनपुट का पूर्ण पीसीए (प्रमुख घटक विश्लेषण) करने के लिए बढ़ाया जा सकता है, बशर्ते कि सभी पोस्टसिनेप्टिक न्यूरॉन्स को एक ही प्रमुख घटक को लेने से रोका जाए, उदाहरण के लिए पोस्टसिनेप्टिक परत में पार्श्व अवरोध जोड़कर। इस प्रकार हमने हेब्बियन शिक्षण को पीसीए से जोड़ा है, जो कि बिना पर्यवेक्षित शिक्षण का एक प्रारंभिक रूप है, इस अर्थ में कि नेटवर्क इनपुट के उपयोगी सांख्यिकीय पहलुओं को उठा सकता है, और अपने आउटपुट में आसुत तरीके से उनका वर्णन कर सकता है।

सीमाएँ
दीर्घकालिक पोटेंशिएशन के लिए हेब्बियन मॉडल के सामान्य उपयोग के बावजूद, हेब्ब का सिद्धांत सभी प्रकार के सिनैप्टिक दीर्घकालिक प्लास्टिसिटी को कवर नहीं करता है। हेब्ब ने निरोधात्मक सिनैप्स के लिए कोई नियम नहीं बनाया, न ही उन्होंने कारण-विरोधी स्पाइक अनुक्रमों (पोस्टसिनेप्टिक न्यूरॉन के बाद प्रीसिनेप्टिक न्यूरॉन आग) के लिए भविष्यवाणियां कीं। सिनैप्टिक संशोधन न केवल सक्रिय न्यूरॉन्स ए और बी के बीच हो सकता है, बल्कि पड़ोसी सिनैप्स पर भी हो सकता है। इसलिए हेटेरोसिनैप्टिक प्लास्टिसिटी और होमोस्टैटिक प्लास्टिसिटी के सभी रूपों को गैर-हेब्बियन माना जाता है। एक उदाहरण प्रीसिनेप्टिक टर्मिनलों के लिए प्रतिगामी सिग्नलिंग है। इस प्रतिगामी ट्रांसमीटर भूमिका को पूरा करने के लिए सबसे अधिक पहचाना जाने वाला यौगिक नाइट्रिक ऑक्साइड है, जो अपनी उच्च घुलनशीलता और प्रसारशीलता के कारण, अक्सर आस-पास के न्यूरॉन्स पर प्रभाव डालता है। इस प्रकार का फैलाना सिनैप्टिक संशोधन, जिसे वॉल्यूम लर्निंग के रूप में जाना जाता है, पारंपरिक हेब्बियन मॉडल में शामिल नहीं है।

दर्पण न्यूरॉन ्स का हेब्बियन लर्निंग अकाउंट
मिरर न्यूरॉन्स कैसे उभरते हैं, इसके प्रभावशाली सिद्धांत में हेब्बियन लर्निंग और स्पाइक-टाइमिंग-डिपेंडेंट प्लास्टिसिटी का उपयोग किया गया है। मिरर न्यूरॉन्स वे न्यूरॉन्स होते हैं जो तब सक्रिय होते हैं जब कोई व्यक्ति कोई कार्य करता है और जब व्यक्ति देखता है या सुनता है दूसरा समान क्रिया करता है। इन न्यूरॉन्स की खोज यह समझाने में बहुत प्रभावशाली रही है कि व्यक्ति दूसरों के कार्यों को कैसे समझते हैं, यह दिखाते हुए कि, जब कोई व्यक्ति दूसरों के कार्यों को समझता है, तो व्यक्ति मोटर प्रोग्राम को सक्रिय करता है जिसका उपयोग वे समान कार्यों को करने के लिए करेंगे। इन मोटर कार्यक्रमों का सक्रियण तब धारणा में जानकारी जोड़ता है और यह अनुमान लगाने में मदद करता है कि व्यक्ति अपने स्वयं के मोटर कार्यक्रम के आधार पर आगे क्या करेगा। एक चुनौती यह समझाना है कि कैसे व्यक्तियों में न्यूरॉन्स आते हैं जो किसी कार्य को करते समय और दूसरे को समान कार्य करते हुए सुनते या देखते समय प्रतिक्रिया करते हैं।

ईसाई कुंजीर और डेविड पेरेट ने सुझाव दिया कि जैसे ही कोई व्यक्ति एक विशेष कार्य करता है, व्यक्ति उस कार्य को करते हुए देखेगा, सुनेगा और महसूस करेगा। ये पुनः अभिवाही संवेदी संकेत क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करने वाले न्यूरॉन्स में गतिविधि को ट्रिगर करेंगे। क्योंकि इन संवेदी न्यूरॉन्स की गतिविधि लगातार उन मोटर न्यूरॉन्स के साथ ओवरलैप होगी जो कार्रवाई का कारण बनती है, हेब्बियन लर्निंग भविष्यवाणी करती है कि न्यूरॉन्स को जोड़ने वाले सिनैप्स किसी क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करते हैं और उन न्यूरॉन्स को ट्रिगर करते हैं कार्रवाई को सशक्त बनाया जाना चाहिए. यही बात तब भी सच है जब लोग खुद को दर्पण में देखते हैं, खुद को बड़बड़ाते हुए सुनते हैं, या दूसरों की नकल करते हैं। इस पुनः-संबंध के बार-बार अनुभव के बाद, किसी क्रिया के संवेदी और मोटर प्रतिनिधित्व को जोड़ने वाले सिनैप्स इतने मजबूत होते हैं कि मोटर न्यूरॉन्स ध्वनि या क्रिया की दृष्टि पर फायरिंग करना शुरू कर देते हैं, और एक दर्पण न्यूरॉन बनाया जाता है।

उस परिप्रेक्ष्य के साक्ष्य कई प्रयोगों से मिलते हैं जो दिखाते हैं कि मोटर प्रोग्राम को मोटर प्रोग्राम के निष्पादन के साथ उत्तेजना की बार-बार जोड़ी के बाद उपन्यास श्रवण या दृश्य उत्तेजनाओं द्वारा ट्रिगर किया जा सकता है (साक्ष्य की समीक्षा के लिए, गिउडिस एट अल देखें।, 2009) ). उदाहरण के लिए, जिन लोगों ने कभी पियानो नहीं बजाया है, वे पियानो संगीत सुनते समय पियानो बजाने में शामिल मस्तिष्क क्षेत्रों को सक्रिय नहीं करते हैं। पांच घंटे का पियानो पाठ, जिसमें प्रतिभागी को हर बार कुंजी दबाने पर पियानो की ध्वनि के संपर्क में लाया जाता है, बाद में पियानो संगीत सुनने पर मस्तिष्क के मोटर क्षेत्रों में गतिविधि को ट्रिगर करने के लिए पर्याप्त साबित होता है। इस तथ्य के अनुरूप कि स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी केवल तभी होती है जब प्रीसिनेप्टिक न्यूरॉन फायरिंग पोस्टसिनेप्टिक न्यूरॉन फायरिंग की भविष्यवाणी करती है, संवेदी उत्तेजनाओं और मोटर कार्यक्रमों के बीच संबंध भी तभी प्रबल होता प्रतीत होता है जब उत्तेजना मोटर कार्यक्रम पर निर्भर हो।

यह भी देखें

 * डेल का सिद्धांत
 * न्यूरोबायोलॉजी में संयोग का पता लगाना
 * लीब्रा
 * मेटाप्लास्टिकिटी
 * धनुस्तंभीय उत्तेजना
 * सिनैप्टोट्रोपिक परिकल्पना
 * न्यूरोप्लास्टिकिटी
 * व्यवहारवाद

बाहरी संबंध

 * Overview
 * Hebbian Learning tutorial (Part 1: Novelty Filtering, Part 2: PCA)