स्पाइक-ट्रिगर औसत

स्पाइक-ट्रिगर औसत (एसटीए) समय-भिन्न उत्तेजना के जवाब में उत्सर्जित कार्रवाई क्षमता का उपयोग करके न्यूरॉन के प्रतिक्रिया गुणों को चिह्नित करने के लिए एक उपकरण है। एसटीए न्यूरॉन के रैखिक ग्रहणशील क्षेत्र का अनुमान प्रदान करता है। यह इलेक्ट्रोफिजियोलॉजी डेटा के विश्लेषण के लिए एक उपयोगी तकनीक है।

फ़ाइल: स्पाइक-ट्रिगर औसत के लिए चित्रण आरेख। पीडीएफ|अंगूठे|आरेख दिखाता है कि एसटीए की गणना कैसे की जाती है। एक उत्तेजना (यहां यादृच्छिक पिक्सेल के साथ एक बिसात से युक्त) प्रस्तुत की जाती है, और न्यूरॉन से स्पाइक्स रिकॉर्ड किए जाते हैं। प्रत्येक स्पाइक से पहले कुछ समय विंडो में उत्तेजनाओं (यहां 3 समय डिब्बे शामिल हैं) का चयन किया जाता है (रंग बक्से) और फिर एसटीए प्राप्त करने के लिए औसत (यहां केवल स्पष्टता के लिए संक्षेपित किया गया है)। एसटीए इंगित करता है कि यह न्यूरॉन स्पाइक के ठीक पहले प्रकाश के एक उज्ज्वल स्थान के लिए चयनात्मक है, जो चेकरबोर्ड के ऊपरी बाएं कोने में स्थित है।

गणितीय रूप से, एसटीए स्पाइक से पहले की औसत उत्तेजना है।   एसटीए की गणना करने के लिए, प्रत्येक स्पाइक से पहले की समय विंडो में उत्तेजना निकाली जाती है, और परिणामी (स्पाइक-ट्रिगर) उत्तेजनाओं का औसत निकाला जाता है (आरेख देखें)। एसटीए न्यूरॉन के ग्रहणशील क्षेत्र के अनुमानक अनुमान का पूर्वाग्रह केवल तभी प्रदान करता है जब उत्तेजना वितरण गोलाकार रूप से सममित हो (उदाहरण के लिए, गाऊसी शोर)। एसटीए का उपयोग रेटिना गैंग्लियन कोशिकाओं को चिह्नित करने के लिए किया गया है, पार्श्व जीनिकुलेट नाभिक में न्यूरॉन्स और धारीदार प्रांतस्था (V1) में सरल कोशिकाएं।  इसका उपयोग लीनियर-नॉनलाइनियर-पॉइसन कैस्केड मॉडल|लीनियर-नॉनलाइनियर-पॉइसन (एलएनपी) कैस्केड मॉडल के रैखिक चरण का अनुमान लगाने के लिए किया जा सकता है। दृष्टिकोण का उपयोग यह विश्लेषण करने के लिए भी किया गया है कि प्रतिलेखन कारक गतिशीलता व्यक्तिगत कोशिकाओं के भीतर जीन विनियमन को कैसे नियंत्रित करती है। स्पाइक-ट्रिगर औसत को आमतौर पर "रिवर्स सहसंबंध" या "श्वेत शोर विश्लेषण|श्वेत-शोर विश्लेषण" के रूप में भी जाना जाता है। एसटीए को वोल्टेरा श्रृंखला या वीनर श्रृंखला श्रृंखला विस्तार में पहले शब्द के रूप में जाना जाता है। यह रैखिक प्रतिगमन से निकटता से संबंधित है, और सामान्य परिस्थितियों में इसके समान है।

मानक एसटीए
होने देना $$\mathbf{x_i}$$ पूर्ववर्ती स्थानिक-अस्थायी उत्तेजना वेक्टर को निरूपित करें $$i$$'वें समय बिन, और $$y_i$$ उस बिन में स्पाइक गिनती। उत्तेजनाओं का माध्य शून्य माना जा सकता है (अर्थात्, $$E[\mathbf{x}]=0$$). यदि नहीं, तो इसे प्रत्येक वेक्टर से माध्य उत्तेजना घटाकर शून्य-माध्य में बदला जा सकता है। एसटीए दिया गया है
 * $$\mathrm{STA} = \tfrac{1}{n_{sp}}\sum_{i=1}^T y_i \mathbf{x_i},$$

कहाँ $$n_{sp} = \sum y_i$$, स्पाइक्स की कुल संख्या।

यह समीकरण मैट्रिक्स नोटेशन में अधिक आसानी से व्यक्त किया गया है: चलो $$X$$ एक मैट्रिक्स को निरूपित करें जिसका $$i$$'वीं पंक्ति उत्तेजना वेक्टर है $$\mathbf{x_i^T}$$ और जाने $$\mathbf{y}$$ एक कॉलम वेक्टर को निरूपित करें जिसका $$i$$वां तत्व है $$y_i$$. फिर एसटीए लिखा जा सकता है
 * $$\mathrm{STA} = \tfrac{1}{n_{sp}} X^T \mathbf{y}. $$

सफ़ेद एसटीए
यदि उत्तेजना सफेद शोर नहीं है, बल्कि अंतरिक्ष या समय में गैर-शून्य सहसंबंध है, तो मानक एसटीए रैखिक ग्रहणशील क्षेत्र का एक पक्षपाती अनुमान प्रदान करता है। इसलिए उत्तेजना सहप्रसरण मैट्रिक्स के व्युत्क्रम द्वारा एसटीए को सफ़ेद करना उचित हो सकता है। यह स्थानिक निर्भरता के मुद्दे को हल करता है, हालांकि हम अभी भी मानते हैं कि उत्तेजना अस्थायी रूप से स्वतंत्र है। परिणामी अनुमानक को श्वेत एसटीए के रूप में जाना जाता है, जो कि दिया जाता है
 * $$\mathrm{STA}_w = \left(\tfrac{1}{T}\sum_{i=1}^T\mathbf{x_i}\mathbf{x_i}^T\right)^{-1} \left(\tfrac{1}{n_{sp}} \sum_{i=1}^T y_i \mathbf{x_i}\right),$$

जहां पहला पद कच्ची उत्तेजनाओं का व्युत्क्रम सहप्रसरण मैट्रिक्स है और दूसरा मानक एसटीए है। मैट्रिक्स नोटेशन में इसे लिखा जा सकता है
 * $$\mathrm{STA}_w = \tfrac{T}{n_{sp}} \left(X^TX\right)^{-1}X^T \mathbf{y}. $$

सफ़ेद एसटीए केवल तभी निष्पक्ष होता है जब प्रोत्साहन वितरण को सहसंबद्ध गाऊसी वितरण द्वारा वर्णित किया जा सकता है (सहसंबद्ध गाऊसी वितरण अण्डाकार रूप से सममित होते हैं, अर्थात एक रैखिक परिवर्तन द्वारा गोलाकार रूप से सममित बनाया जा सकता है, लेकिन सभी अण्डाकार सममित वितरण गाऊसी नहीं होते हैं)। यह गोलाकार समरूपता की तुलना में कमज़ोर स्थिति है।

सफ़ेद एसटीए स्पाइक ट्रेन के विरुद्ध उत्तेजना के रैखिक प्रतिगमन | रैखिक न्यूनतम-वर्ग प्रतिगमन के बराबर है।

नियमित एसटीए
व्यवहार में, श्वेत एसटीए को नियमित करना (गणित) आवश्यक हो सकता है, क्योंकि श्वेतकरण उत्तेजना आयामों के साथ शोर को बढ़ाता है जो उत्तेजना द्वारा खराब रूप से खोजे जाते हैं (यानी, अक्ष जिसके साथ उत्तेजना में कम विचरण होता है)। इस समस्या का एक सामान्य दृष्टिकोण तिखोनोव नियमितीकरण है। रिज रिग्रेशन का उपयोग करके गणना की गई नियमित एसटीए को लिखा जा सकता है
 * $$\mathrm{STA}_{ridge} = \tfrac{T}{n_{sp}} \left(X^TX + \lambda I\right)^{-1}X^T \mathbf{y},$$

कहाँ $$I$$ पहचान मैट्रिक्स को दर्शाता है और $$\lambda$$ नियमितीकरण की मात्रा को नियंत्रित करने वाला रिज पैरामीटर है। इस प्रक्रिया की एक सरल बायेसियन व्याख्या है: रिज रिग्रेशन एसटीए तत्वों पर पूर्व लगाने के बराबर है जो कहता है कि वे आई.आई.डी. खींचे गए हैं। पहचान मैट्रिक्स के आनुपातिक सहप्रसरण के साथ शून्य-माध्य गाऊसी से पहले। रिज पैरामीटर इस पूर्व के व्युत्क्रम विचरण को सेट करता है, और आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन या अनुभवजन्य बेयस विधि द्वारा फिट होता है।

सांख्यिकीय गुण
एक लीनियर-नॉनलाइनियर-पॉइसन कैस्केड मॉडल मॉडल के अनुसार उत्पन्न प्रतिक्रियाओं के लिए, सफ़ेद एसटीए रैखिक ग्रहणशील क्षेत्र द्वारा फैलाए गए उप-स्थान का अनुमान प्रदान करता है। इस अनुमान के गुण इस प्रकार हैं

संगति
सफ़ेद एसटीए एक सुसंगत अनुमानक है, अर्थात, यह वास्तविक रैखिक उप-स्थान में परिवर्तित हो जाता है, यदि
 * 1) प्रोत्साहन वितरण $$P(\mathbf{x})$$ अण्डाकार वितरण है, उदाहरण के लिए, गाऊसी वितरण। (बुसगैंग प्रमेय|बुसगैंग प्रमेय)
 * 2) अपेक्षित एसटीए शून्य नहीं है, यानी, गैर-रैखिकता स्पाइक-ट्रिगर उत्तेजनाओं में बदलाव लाती है।

इष्टतमता
सफ़ेद एसटीए एक असिम्प्टोटिक रूप से कुशल अनुमानक है यदि
 * 1) प्रोत्साहन वितरण $$P(\mathbf{x})$$ गॉसियन है
 * 2) न्यूरॉन का अरेखीय प्रतिक्रिया कार्य घातीय है, $$exp(x)$$.

मनमानी उत्तेजनाओं के लिए, एसटीए आम तौर पर सुसंगत या कुशल नहीं होता है। ऐसे मामलों के लिए, अधिकतम संभावना और पारस्परिक जानकारी|सूचना-आधारित अनुमानक ऐसे विकसित किए गए हैं जो सुसंगत और कुशल दोनों हैं।

यह भी देखें

 * स्पाइक-ट्रिगर सहप्रसरण
 * लीनियर-नॉनलीनियर-पॉइसन कैस्केड मॉडल
 * कटा हुआ उलटा प्रतिगमन
 * रिवर्स सहसंबंध तकनीक

बाहरी संबंध

 * Matlab code for computing the STA