न्यूनतम माध्य वर्ग त्रुटि: Difference between revisions

From Vigyanwiki
Line 27: Line 27:


==गुण==
==गुण==
जब माध्य और चतुर्थिक अवरोध (variances) सीमित होते हैं, तो एमएमएसई अनुमानक एकद्रव्य (uniquely) परिभाषित होता है और यह निम्नलिखित रूप में होता है:
जब माध्य और चतुर्थिक अवरोध सीमित होते हैं, तो एमएमएसई अनुमानक एकद्रव्य परिभाषित होता है और यह निम्नलिखित रूप में होता है:


<math>\hat{x}_{\operatorname{MMSE}}(y) = \operatorname{E} \{x \mid y\}.</math>
<math>\hat{x}_{\operatorname{MMSE}}(y) = \operatorname{E} \{x \mid y\}.</math>
:
:दूसरे शब्दों में,कहा जा सकता है कि एमएमएसई अनुमानकर्ता <math>x</math> की शर्ती अपेक्षा होता है। इसे अन्य शब्दों में, यह निर्धारित करता है कि जब हमें माप की गई मानवी या वार्तालापिक डेटा होता है, तो हमें अधिकतम संभावना के अनुसार  एमएमएसई अनुमानकर्ता <math>\hat{x}{\mathrm{MMSE}}</math> पश्च माध्य  होता है और त्रुटि संवेदनशीलता मात्रिका <math>C_e</math> पश्च विकल्प मात्रिका <math>C{X|Y}</math> के बराबर होती है:
:दूसरे शब्दों में,कहा जा सकता है कि एमएमएसई अनुमानकर्ता <math>x</math> की शर्ती अपेक्षा है जो ज्ञात अवलोकन माप के लिए की गई माप की जानकारी के साथ। इसके अलावा, क्योंकिजी हां, यह सही है। MMSE अनुमानकर्ता <math>\hat{x}{\mathrm{MMSE}}</math> पोस्टीरियर मीन होता है और त्रुटि संवेदनशीलता मात्रिका <math>C_e</math> पोस्टीरियर विकल्प मात्रिका <math>C{X|Y}</math> के बराबर होती है:
<math>\hat{x}{\mathrm{MMSE}} = \operatorname{E}(x|y)</math>
<math>\hat{x}{\mathrm{MMSE}} = \operatorname{E}(x|y)</math>
<math>C_e = C{X|Y}</math>
<math>C_e = C{X|Y}</math>


*एमएमएसई अनुमानक निष्पक्ष है (ऊपर उल्लिखित नियमितता मान्यताओं के तहत):
*ऊपर उल्लिखित नियमितता मान्यताओं के अंतर्गत एमएमएसई अनुमानक निष्पक्ष है :
::<math>\operatorname{E}\{\hat{x}_{\operatorname{MMSE}}(y)\} = \operatorname{E}\{\operatorname{E}\{x\mid y\}\} = \operatorname{E}\{x\}.</math>
::<math>\operatorname{E}\{\hat{x}_{\operatorname{MMSE}}(y)\} = \operatorname{E}\{\operatorname{E}\{x\mid y\}\} = \operatorname{E}\{x\}.</math>
*एमएमएसई अनुमानक असममित रूप से निष्पक्ष है और यह सामान्य वितरण में वितरण में परिवर्तित होता है:
*एमएमएसई अनुमानक असममित रूप से निष्पक्ष है और यह सामान्य वितरण में वितरण में परिवर्तित होता है:
::<math> \sqrt{n}(\hat{x}_{\operatorname{MMSE}} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right),</math>
::<math> \sqrt{n}(\hat{x}_{\operatorname{MMSE}} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right),</math>
:कहाँ <math>I(x)</math> की [[फिशर जानकारी]] है <math>x</math>. इस प्रकार, एमएमएसई अनुमानक [[दक्षता (सांख्यिकी)]] है।
:यहाँ <math>I(x)</math> की [[फिशर जानकारी]] है. इस प्रकार <math>x</math> एमएमएसई अनुमानक [[दक्षता (सांख्यिकी)|दक्षता]] है।
*[[रूढ़िवादिता सिद्धांत]]: कब <math>x</math> एक अदिश राशि है, एक अनुमानक जो निश्चित आकार का होने के लिए बाध्य है <math>\hat{x}=g(y)</math> एक इष्टतम अनुमानक है, यानी <math>\hat{x}_{\operatorname{MMSE}}=g^*(y),</math> अगर और केवल अगर
*[[रूढ़िवादिता सिद्धांत|रूढ़ीवाद सिद्धांत]]: जब <math>x</math> एक अदिश राशि है, एक अनुमानक जो निश्चित आकार <math>\hat{x}=g(y)</math> का होने के लिए बाध्य है एक इष्टतम अनुमानक है, अर्थात  <math>\hat{x}_{\operatorname{MMSE}}=g^*(y),</math> और यदि                                                                                                                                  <math>\operatorname{E} \{ (\hat{x}_{\operatorname{MMSE}}-x) g(y) \} = 0</math>  
::<math>\operatorname{E} \{ (\hat{x}_{\operatorname{MMSE}}-x) g(y) \} = 0</math> :सभी के लिए <math>g(y)</math> बंद, रैखिक उपस्थान में <math>\mathcal{V} = \{g(y)\mid  g:\mathbb{R}^m \rightarrow \mathbb{R}, \operatorname{E}\{g(y)^2\} < + \infty \}</math> माप का. यादृच्छिक सदिश   के लिए, चूंकि एक यादृच्छिक सदिश   के आकलन के लिए एमएसई निर्देशांक के एमएसई का योग है, एक यादृच्छिक सदिश   के एमएमएसई अनुमानक को खोजने से एक्स के निर्देशांक के एमएमएसई अनुमानक को अलग से ढूंढने में विघटित हो जाता है:
*सभी के लिए <math>g(y)</math> बंद, रैखिक उपस्थान में <math>\mathcal{V} = \{g(y)\mid  g:\mathbb{R}^m \rightarrow \mathbb{R}, \operatorname{E}\{g(y)^2\} < + \infty \}</math> माप का यादृच्छिक सदिश के लिए, चूंकि एक यादृच्छिक सदिश के आकलन के लिए एमएसई निर्देशांक के एमएसई का योग है, एक यादृच्छिक सदिश के एमएमएसई अनुमानक को खोजने से <math>x</math> के निर्देशांक के एमएमएसई अनुमानक को अलग से ढूंढने में विघटित हो जाता है:
::<math>\operatorname{E} \{ (g_i^*(y)-x_i) g_j(y) \} = 0,</math> :सभी i और j के लिए। अधिक संक्षेप में कहें तो, न्यूनतम अनुमान त्रुटि के बीच अंतर-सहसंबंध <math>\hat{x}_{\operatorname{MMSE}}-x</math> और अनुमानक <math>\hat{x}</math> शून्य होना चाहिए,
::<math>\operatorname{E} \{ (g_i^*(y)-x_i) g_j(y) \} = 0,</math> :सभी i और j के लिए अधिक संक्षेप में कहें तो, न्यूनतम अनुमान त्रुटि के बीच अंतर-सहसंबंध <math>\hat{x}_{\operatorname{MMSE}}-x</math> और अनुमानक <math>\hat{x}</math> शून्य होता है ,
::<math>\operatorname{E} \{ (\hat{x}_{\operatorname{MMSE}}-x)\hat{x}^T \} = 0.</math>
::<math>\operatorname{E} \{ (\hat{x}_{\operatorname{MMSE}}-x)\hat{x}^T \} = 0.</math>
*अगर <math>x</math> और <math>y</math> [[संयुक्त रूप से गाऊसी]] हैं, तो एमएमएसई अनुमानक रैखिक है, यानी, इसका रूप है <math>Wy+b</math> मैट्रिक्स के लिए <math>W</math> और स्थिर <math>b</math>. इसे बेयस प्रमेय का उपयोग करके सीधे दिखाया जा सकता है। परिणामस्वरूप, एमएमएसई अनुमानक को खोजने के लिए, रैखिक एमएमएसई अनुमानक को ढूंढना पर्याप्त है।
*यदि  <math>x</math> और <math>y</math> [[संयुक्त रूप से गाऊसी]] हैं, तो एमएमएसई अनुमानक रैखिक है, अर्थात, इसका रूप है <math>Wy+b</math> आव्यूह के लिए <math>W</math> और <math>b</math> स्थिर होते है। इसे बेयस प्रमेय का उपयोग करके सीधे दिखाया जा सकता है। परिणामस्वरूप, एमएमएसई अनुमानक को खोजने के लिए, रैखिक एमएमएसई अनुमानक को ढूंढना पर्याप्त है।


[[Category:CS1 errors|Minimum Mean Square Error]]
[[Category:CS1 errors|Minimum Mean Square Error]]
Line 59: Line 58:
कई मामलों में, एमएमएसई अनुमानक की विश्लेषणात्मक अभिव्यक्ति निर्धारित करना संभव नहीं है। एमएमएसई अनुमान प्राप्त करने के लिए दो बुनियादी संख्यात्मक दृष्टिकोण या तो सशर्त अपेक्षा को खोजने पर निर्भर करते हैं <math>\operatorname{E}\{x\mid y\}</math> या एमएसई का मिनिमा ढूँढना। सशर्त अपेक्षा का प्रत्यक्ष संख्यात्मक मूल्यांकन कम्प्यूटेशनल रूप से महंगा है क्योंकि इसके लिए अक्सर बहुआयामी एकीकरण की आवश्यकता होती है जो आमतौर पर मोंटे कार्लो विधियों के माध्यम से किया जाता है। एक अन्य कम्प्यूटेशनल दृष्टिकोण [[ स्टोकेस्टिक ग्रेडिएंट डिसेंट | स्टोकेस्टिक ग्रेडिएंट डिसेंट]] जैसी तकनीकों का उपयोग करके सीधे एमएसई की न्यूनतमता की तलाश करना है; लेकिन इस पद्धति को अभी भी अपेक्षा के मूल्यांकन की आवश्यकता है। हालाँकि ये संख्यात्मक विधियाँ उपयोगी रही हैं, फिर भी अगर हम कुछ समझौते करने के इच्छुक हैं तो एमएमएसई अनुमानक के लिए एक बंद फॉर्म अभिव्यक्ति संभव है।
कई मामलों में, एमएमएसई अनुमानक की विश्लेषणात्मक अभिव्यक्ति निर्धारित करना संभव नहीं है। एमएमएसई अनुमान प्राप्त करने के लिए दो बुनियादी संख्यात्मक दृष्टिकोण या तो सशर्त अपेक्षा को खोजने पर निर्भर करते हैं <math>\operatorname{E}\{x\mid y\}</math> या एमएसई का मिनिमा ढूँढना। सशर्त अपेक्षा का प्रत्यक्ष संख्यात्मक मूल्यांकन कम्प्यूटेशनल रूप से महंगा है क्योंकि इसके लिए अक्सर बहुआयामी एकीकरण की आवश्यकता होती है जो आमतौर पर मोंटे कार्लो विधियों के माध्यम से किया जाता है। एक अन्य कम्प्यूटेशनल दृष्टिकोण [[ स्टोकेस्टिक ग्रेडिएंट डिसेंट | स्टोकेस्टिक ग्रेडिएंट डिसेंट]] जैसी तकनीकों का उपयोग करके सीधे एमएसई की न्यूनतमता की तलाश करना है; लेकिन इस पद्धति को अभी भी अपेक्षा के मूल्यांकन की आवश्यकता है। हालाँकि ये संख्यात्मक विधियाँ उपयोगी रही हैं, फिर भी अगर हम कुछ समझौते करने के इच्छुक हैं तो एमएमएसई अनुमानक के लिए एक बंद फॉर्म अभिव्यक्ति संभव है।


एक संभावना यह है कि पूर्ण इष्टतमता आवश्यकताओं को त्याग दिया जाए और अनुमानकों के एक विशेष वर्ग, जैसे कि रैखिक अनुमानकों के वर्ग, के भीतर एमएसई को न्यूनतम करने वाली तकनीक की तलाश की जाए। इस प्रकार, हम मानते हैं कि सशर्त अपेक्षा <math>x</math> दिया गया <math>y</math> का एक सरल रैखिक कार्य है <math>y</math>, <math>\operatorname{E}\{x\mid y\} = W y + b</math>, जहां माप <math>y</math> एक यादृच्छिक सदिश    है, <math>W</math> एक मैट्रिक्स है और <math>b</math> एक सदिश    है. इसे टेलर के प्रथम क्रम सन्निकटन के रूप में देखा जा सकता है <math>\operatorname{E}\{x\mid y\}</math>. रैखिक एमएमएसई अनुमानक ऐसे फॉर्म के सभी अनुमानकों के बीच न्यूनतम एमएसई प्राप्त करने वाला अनुमानक है। अर्थात्, यह निम्नलिखित अनुकूलन समस्या का समाधान करता है:
एक संभावना यह है कि पूर्ण इष्टतमता आवश्यकताओं को त्याग दिया जाए और अनुमानकों के एक विशेष वर्ग, जैसे कि रैखिक अनुमानकों के वर्ग, के भीतर एमएसई को न्यूनतम करने वाली तकनीक की तलाश की जाए। इस प्रकार, हम मानते हैं कि सशर्त अपेक्षा <math>x</math> दिया गया <math>y</math> का एक सरल रैखिक कार्य है <math>y</math>, <math>\operatorname{E}\{x\mid y\} = W y + b</math>, जहां माप <math>y</math> एक यादृच्छिक सदिश    है, <math>W</math> एक आव्यूह  है और <math>b</math> एक सदिश    है. इसे टेलर के प्रथम क्रम सन्निकटन के रूप में देखा जा सकता है <math>\operatorname{E}\{x\mid y\}</math>. रैखिक एमएमएसई अनुमानक ऐसे फॉर्म के सभी अनुमानकों के बीच न्यूनतम एमएसई प्राप्त करने वाला अनुमानक है। अर्थात्, यह निम्नलिखित अनुकूलन समस्या का समाधान करता है:
:<math>\min_{W,b} \operatorname{MSE} \qquad \text{s.t.} \qquad \hat{x} = W y + b.</math>
:<math>\min_{W,b} \operatorname{MSE} \qquad \text{s.t.} \qquad \hat{x} = W y + b.</math>
ऐसे रैखिक एमएमएसई अनुमानक का एक फायदा यह है कि पश्च संभाव्यता घनत्व फलन  की स्पष्ट रूप से गणना करना आवश्यक नहीं है <math>x</math>. ऐसा रैखिक अनुमानक केवल पहले दो क्षणों पर निर्भर करता है <math>x</math> और <math>y</math>. हालाँकि यह मान लेना सुविधाजनक हो सकता है <math>x</math> और <math>y</math> संयुक्त रूप से गॉसियन हैं, यह धारणा बनाना आवश्यक नहीं है, जब तक कि अनुमानित वितरण ने पहले और दूसरे क्षणों को अच्छी तरह से परिभाषित नहीं किया है। रैखिक अनुमानक का रूप अनुमानित अंतर्निहित वितरण के प्रकार पर निर्भर नहीं करता है।
ऐसे रैखिक एमएमएसई अनुमानक का एक फायदा यह है कि पश्च संभाव्यता घनत्व फलन  की स्पष्ट रूप से गणना करना आवश्यक नहीं है <math>x</math>. ऐसा रैखिक अनुमानक केवल पहले दो क्षणों पर निर्भर करता है <math>x</math> और <math>y</math>. हालाँकि यह मान लेना सुविधाजनक हो सकता है <math>x</math> और <math>y</math> संयुक्त रूप से गॉसियन हैं, यह धारणा बनाना आवश्यक नहीं है, जब तक कि अनुमानित वितरण ने पहले और दूसरे क्षणों को अच्छी तरह से परिभाषित नहीं किया है। रैखिक अनुमानक का रूप अनुमानित अंतर्निहित वितरण के प्रकार पर निर्भर नहीं करता है।
Line 65: Line 64:
इष्टतम के लिए अभिव्यक्ति <math>b</math> और <math>W</math> द्वारा दिया गया है:  
इष्टतम के लिए अभिव्यक्ति <math>b</math> और <math>W</math> द्वारा दिया गया है:  
:<math>b = \bar{x} - W \bar{y},</math> :<math> W = C_{XY}C^{-1}_{Y}.</math>
:<math>b = \bar{x} - W \bar{y},</math> :<math> W = C_{XY}C^{-1}_{Y}.</math>
कहाँ <math>\bar{x} = \operatorname{E}\{x\}</math>, <math>\bar{y} = \operatorname{E}\{y\},</math>  <math>C_{XY}</math> के बीच क्रॉस-कोवेरिएंस मैट्रिक्स है <math>x</math> और <math>y</math>, द <math>C_{Y}</math> का ऑटो-कोवेरिएंस मैट्रिक्स है <math>y</math>.
कहाँ <math>\bar{x} = \operatorname{E}\{x\}</math>, <math>\bar{y} = \operatorname{E}\{y\},</math>  <math>C_{XY}</math> के बीच क्रॉस-कोवेरिएंस आव्यूह  है <math>x</math> और <math>y</math>, द <math>C_{Y}</math> का ऑटो-कोवेरिएंस आव्यूह  है <math>y</math>.


इस प्रकार, रैखिक एमएमएसई अनुमानक, इसके माध्य और इसके ऑटो-सहप्रसरण के लिए अभिव्यक्ति दी गई है
इस प्रकार, रैखिक एमएमएसई अनुमानक, इसके माध्य और इसके ऑटो-सहप्रसरण के लिए अभिव्यक्ति दी गई है
Line 71: Line 70:
:<math>\operatorname{E}\{\hat{x}\} = \bar{x},</math>
:<math>\operatorname{E}\{\hat{x}\} = \bar{x},</math>
:<math>C_{\hat{X}} = C_{XY} C^{-1}_Y C_{YX},</math>
:<math>C_{\hat{X}} = C_{XY} C^{-1}_Y C_{YX},</math>
जहां <math>C_{YX}</math> के बीच क्रॉस-कोवेरिएंस मैट्रिक्स है <math>y</math> और <math>x</math>.
जहां <math>C_{YX}</math> के बीच क्रॉस-कोवेरिएंस आव्यूह  है <math>y</math> और <math>x</math>.


अंत में, ऐसे अनुमानक द्वारा प्राप्त होने वाली त्रुटि सहप्रसरण और न्यूनतम माध्य वर्ग त्रुटि है
अंत में, ऐसे अनुमानक द्वारा प्राप्त होने वाली त्रुटि सहप्रसरण और न्यूनतम माध्य वर्ग त्रुटि है
Line 160: Line 159:


===गणना===
===गणना===
मैट्रिक्स समीकरण को हल करने के लिए [[गॉस उन्मूलन]] जैसी मानक विधि का उपयोग किया जा सकता है <math>W</math>. [[क्यूआर अपघटन]] विधि द्वारा एक अधिक संख्यात्मक रूप से स्थिर विधि प्रदान की जाती है। मैट्रिक्स के बाद से <math>C_Y</math> एक सममित सकारात्मक निश्चित मैट्रिक्स है, <math>W</math> चोल्स्की अपघटन के साथ दोगुनी तेजी से हल किया जा सकता है, जबकि बड़ी विरल प्रणालियों के लिए संयुग्म ग्रेडिएंट विधि अधिक प्रभावी है। [[लेविंसन रिकर्सन]] एक तेज़ विधि है जब <math>C_Y</math> एक Toeplitz मैट्रिक्स भी है। ऐसा तब हो सकता है जब <math>y</math> एक [[व्यापक अर्थ स्थिर]] प्रक्रिया है. ऐसे स्थिर मामलों में, इन अनुमानकों को वीनर फ़िल्टर|वीनर-कोलमोगोरोव फ़िल्टर भी कहा जाता है।
आव्यूह  समीकरण को हल करने के लिए [[गॉस उन्मूलन]] जैसी मानक विधि का उपयोग किया जा सकता है <math>W</math>. [[क्यूआर अपघटन]] विधि द्वारा एक अधिक संख्यात्मक रूप से स्थिर विधि प्रदान की जाती है। आव्यूह  के बाद से <math>C_Y</math> एक सममित सकारात्मक निश्चित आव्यूह  है, <math>W</math> चोल्स्की अपघटन के साथ दोगुनी तेजी से हल किया जा सकता है, जबकि बड़ी विरल प्रणालियों के लिए संयुग्म ग्रेडिएंट विधि अधिक प्रभावी है। [[लेविंसन रिकर्सन]] एक तेज़ विधि है जब <math>C_Y</math> एक Toeplitz आव्यूह  भी है। ऐसा तब हो सकता है जब <math>y</math> एक [[व्यापक अर्थ स्थिर]] प्रक्रिया है. ऐसे स्थिर मामलों में, इन अनुमानकों को वीनर फ़िल्टर|वीनर-कोलमोगोरोव फ़िल्टर भी कहा जाता है।


==रैखिक अवलोकन प्रक्रिया के लिए रैखिक एमएमएसई अनुमानक==
==रैखिक अवलोकन प्रक्रिया के लिए रैखिक एमएमएसई अनुमानक==
आइए हम अवलोकन की अंतर्निहित प्रक्रिया को एक रैखिक प्रक्रिया के रूप में आगे मॉडल करें: <math>y=Ax+z</math>, कहाँ <math>A</math> एक ज्ञात मैट्रिक्स है और <math>z</math> माध्य के साथ यादृच्छिक शोर सदिश    है <math>\operatorname{E}\{z\}=0</math> और क्रॉस-सहप्रसरण <math>C_{XZ} = 0</math>. यहां आवश्यक माध्य और सहप्रसरण आव्यूह होंगे
आइए हम अवलोकन की अंतर्निहित प्रक्रिया को एक रैखिक प्रक्रिया के रूप में आगे मॉडल करें: <math>y=Ax+z</math>, कहाँ <math>A</math> एक ज्ञात आव्यूह  है और <math>z</math> माध्य के साथ यादृच्छिक शोर सदिश    है <math>\operatorname{E}\{z\}=0</math> और क्रॉस-सहप्रसरण <math>C_{XZ} = 0</math>. यहां आवश्यक माध्य और सहप्रसरण आव्यूह होंगे


:<math>\operatorname{E}\{y\} = A\bar{x},</math>
:<math>\operatorname{E}\{y\} = A\bar{x},</math>
:<math>C_Y = AC_XA^T + C_Z,</math> :<math>C_{XY} = C_X A^T .</math>
:<math>C_Y = AC_XA^T + C_Z,</math> :<math>C_{XY} = C_X A^T .</math>
इस प्रकार रैखिक एमएमएसई अनुमानक मैट्रिक्स के लिए अभिव्यक्ति <math>W</math> आगे संशोधित करता है  
इस प्रकार रैखिक एमएमएसई अनुमानक आव्यूह  के लिए अभिव्यक्ति <math>W</math> आगे संशोधित करता है  


:<math>W = C_X A^T(AC_XA^T + C_Z)^{-1} .</math>
:<math>W = C_X A^T(AC_XA^T + C_Z)^{-1} .</math>
Line 176: Line 175:


:<math>C_e = C_X - C_{\hat{X}} = C_X - C_X A^T(AC_XA^T + C_Z)^{-1}AC_X .</math>
:<math>C_e = C_X - C_{\hat{X}} = C_X - C_X A^T(AC_XA^T + C_Z)^{-1}AC_X .</math>
ऊपर दी गई अनुमान समस्या और न्यूनतम वर्गों और गॉस-मार्कोव प्रमेय | गॉस-मार्कोव अनुमान के बीच महत्वपूर्ण अंतर यह है कि अवलोकनों की संख्या एम, (यानी का आयाम) <math>y</math>) कम से कम अज्ञातों की संख्या जितनी बड़ी नहीं होनी चाहिए, n, (अर्थात् का आयाम)। <math>x</math>). रैखिक अवलोकन प्रक्रिया का अनुमान एम-बाय-एम मैट्रिक्स तक मौजूद रहता है <math>(AC_XA^T + C_Z)^{-1}</math> मौजूद; यह किसी भी एम के लिए मामला है, उदाहरण के लिए, <math>C_Z</math> सकारात्मक निश्चित है. भौतिक रूप से इस संपत्ति का कारण यह है कि तब से <math>x</math> अब एक यादृच्छिक चर है, बिना किसी माप के भी एक सार्थक अनुमान (अर्थात् इसका माध्य) बनाना संभव है। प्रत्येक नया माप बस अतिरिक्त जानकारी प्रदान करता है जो हमारे मूल अनुमान को संशोधित कर सकता है। इस अनुमान की एक अन्य विशेषता यह है कि m < n के लिए, कोई माप त्रुटि आवश्यक नहीं है। इस प्रकार, हमारे पास हो सकता है <math>C_Z = 0</math>, क्योंकि जब तक <math>AC_XA^T</math> सकारात्मक निश्चित है, अनुमान अभी भी मौजूद है। अंत में, यह तकनीक उन मामलों को संभाल सकती है जहां शोर सहसंबद्ध है।
ऊपर दी गई अनुमान समस्या और न्यूनतम वर्गों और गॉस-मार्कोव प्रमेय | गॉस-मार्कोव अनुमान के बीच महत्वपूर्ण अंतर यह है कि अवलोकनों की संख्या एम, (यानी का आयाम) <math>y</math>) कम से कम अज्ञातों की संख्या जितनी बड़ी नहीं होनी चाहिए, n, (अर्थात् का आयाम)। <math>x</math>). रैखिक अवलोकन प्रक्रिया का अनुमान एम-बाय-एम आव्यूह  तक मौजूद रहता है <math>(AC_XA^T + C_Z)^{-1}</math> मौजूद; यह किसी भी एम के लिए मामला है, उदाहरण के लिए, <math>C_Z</math> सकारात्मक निश्चित है. भौतिक रूप से इस संपत्ति का कारण यह है कि तब से <math>x</math> अब एक यादृच्छिक चर है, बिना किसी माप के भी एक सार्थक अनुमान (अर्थात् इसका माध्य) बनाना संभव है। प्रत्येक नया माप बस अतिरिक्त जानकारी प्रदान करता है जो हमारे मूल अनुमान को संशोधित कर सकता है। इस अनुमान की एक अन्य विशेषता यह है कि m < n के लिए, कोई माप त्रुटि आवश्यक नहीं है। इस प्रकार, हमारे पास हो सकता है <math>C_Z = 0</math>, क्योंकि जब तक <math>AC_XA^T</math> सकारात्मक निश्चित है, अनुमान अभी भी मौजूद है। अंत में, यह तकनीक उन मामलों को संभाल सकती है जहां शोर सहसंबद्ध है।


===वैकल्पिक रूप===
===वैकल्पिक रूप===
मैट्रिक्स पहचान का उपयोग करके अभिव्यक्ति का एक वैकल्पिक रूप प्राप्त किया जा सकता है
आव्यूह  पहचान का उपयोग करके अभिव्यक्ति का एक वैकल्पिक रूप प्राप्त किया जा सकता है
:<math>C_X A^T(AC_XA^T + C_Z)^{-1} = (A^TC_Z^{-1}A + C_X^{-1})^{-1} A^T C_Z^{-1},</math>
:<math>C_X A^T(AC_XA^T + C_Z)^{-1} = (A^TC_Z^{-1}A + C_X^{-1})^{-1} A^T C_Z^{-1},</math>
जिसे बाद में गुणा करके स्थापित किया जा सकता है <math>(AC_XA^T + C_Z)</math> और पूर्व-गुणा करके <math>(A^TC_Z^{-1}A + C_X^{-1}),</math> प्राप्त करने के लिए
जिसे बाद में गुणा करके स्थापित किया जा सकता है <math>(AC_XA^T + C_Z)</math> और पूर्व-गुणा करके <math>(A^TC_Z^{-1}A + C_X^{-1}),</math> प्राप्त करने के लिए
Line 188: Line 187:


:<math>\hat{x} = C_e A^T C_Z^{-1}(y-A\bar{x}) + \bar{x}.</math>
:<math>\hat{x} = C_e A^T C_Z^{-1}(y-A\bar{x}) + \bar{x}.</math>
इस रूप में उपरोक्त अभिव्यक्ति की तुलना न्यूनतम वर्ग#भारित न्यूनतम वर्ग और गॉस-मार्कोव प्रमेय|गॉस-मार्कोव अनुमान से आसानी से की जा सकती है। विशेषकर, जब <math>C_X^{-1}=0</math>, संबंधित पूर्ववर्ती जानकारी के अनंत भिन्नता के अनुरूप <math>x</math>, परिणाम <math>W = (A^TC_Z^{-1}A)^{-1} A^TC_Z^{-1}</math> भारित रैखिक न्यूनतम वर्ग अनुमान के समान है <math>C_Z^{-1}</math> वजन मैट्रिक्स के रूप में. इसके अलावा, यदि के घटक <math>z</math> असंबंधित हैं और इनमें समान भिन्नता है <math>C_Z = \sigma^2 I,</math> कहाँ <math>I</math> तो, एक पहचान मैट्रिक्स है <math>W = (A^TA)^{-1}A^T</math> सामान्य न्यूनतम वर्ग अनुमान के समान है।
इस रूप में उपरोक्त अभिव्यक्ति की तुलना न्यूनतम वर्ग#भारित न्यूनतम वर्ग और गॉस-मार्कोव प्रमेय|गॉस-मार्कोव अनुमान से आसानी से की जा सकती है। विशेषकर, जब <math>C_X^{-1}=0</math>, संबंधित पूर्ववर्ती जानकारी के अनंत भिन्नता के अनुरूप <math>x</math>, परिणाम <math>W = (A^TC_Z^{-1}A)^{-1} A^TC_Z^{-1}</math> भारित रैखिक न्यूनतम वर्ग अनुमान के समान है <math>C_Z^{-1}</math> वजन आव्यूह  के रूप में. इसके अलावा, यदि के घटक <math>z</math> असंबंधित हैं और इनमें समान भिन्नता है <math>C_Z = \sigma^2 I,</math> कहाँ <math>I</math> तो, एक पहचान आव्यूह  है <math>W = (A^TA)^{-1}A^T</math> सामान्य न्यूनतम वर्ग अनुमान के समान है।


==अनुक्रमिक रैखिक एमएमएसई अनुमान==
==अनुक्रमिक रैखिक एमएमएसई अनुमान==
Line 211: Line 210:
इस प्रकार, k-वें समय चरण के लिए पूर्व घनत्व (k-1)-वें समय चरण का पश्च घनत्व है। यह संरचना हमें अनुमान के लिए एक पुनरावर्ती दृष्टिकोण तैयार करने की अनुमति देती है।
इस प्रकार, k-वें समय चरण के लिए पूर्व घनत्व (k-1)-वें समय चरण का पश्च घनत्व है। यह संरचना हमें अनुमान के लिए एक पुनरावर्ती दृष्टिकोण तैयार करने की अनुमति देती है।


रैखिक एमएमएसई अनुमानक के संदर्भ में, अनुमान के सूत्र का रूप पहले जैसा ही होगा: <math>\hat{x} = C_{XY}C^{-1}_{Y}(y-\bar{y}) + \bar{x}.</math> हालाँकि, माध्य और सहप्रसरण मैट्रिक्स <math>X</math> और <math>Y</math> पूर्व घनत्व वाले लोगों द्वारा प्रतिस्थापित करने की आवश्यकता होगी <math>p(x_k|y_1,\ldots, y_{k-1})</math> और संभावना <math>p(y_k|x_k)</math>, क्रमश।
रैखिक एमएमएसई अनुमानक के संदर्भ में, अनुमान के सूत्र का रूप पहले जैसा ही होगा: <math>\hat{x} = C_{XY}C^{-1}_{Y}(y-\bar{y}) + \bar{x}.</math> हालाँकि, माध्य और सहप्रसरण आव्यूह  <math>X</math> और <math>Y</math> पूर्व घनत्व वाले लोगों द्वारा प्रतिस्थापित करने की आवश्यकता होगी <math>p(x_k|y_1,\ldots, y_{k-1})</math> और संभावना <math>p(y_k|x_k)</math>, क्रमश।


पूर्व घनत्व के लिए <math>p(x_k|y_1, \ldots, y_{k-1})</math>, इसका माध्य पिछले एमएमएसई अनुमान द्वारा दिया गया है,
पूर्व घनत्व के लिए <math>p(x_k|y_1, \ldots, y_{k-1})</math>, इसका माध्य पिछले एमएमएसई अनुमान द्वारा दिया गया है,
Line 217: Line 216:
:<math>\bar{x}_{k}=\mathrm{E}[x_k|y_1,\ldots,y_{k-1}]=\mathrm{E}[x_{k-1}|y_1,\ldots,y_{k-1}]=\hat{x}_{k-1}</math>,
:<math>\bar{x}_{k}=\mathrm{E}[x_k|y_1,\ldots,y_{k-1}]=\mathrm{E}[x_{k-1}|y_1,\ldots,y_{k-1}]=\hat{x}_{k-1}</math>,


और इसका सहप्रसरण मैट्रिक्स पिछली त्रुटि सहप्रसरण मैट्रिक्स द्वारा दिया गया है,
और इसका सहप्रसरण आव्यूह  पिछली त्रुटि सहप्रसरण आव्यूह  द्वारा दिया गया है,


:<math>C_{X_k|Y_1,\ldots,Y_{k-1}} = C_{X_{k-1}|Y_1,\ldots,Y_{k-1}} = C_{e_{k-1}},</math> एमएमएसई अनुमानकों के गुणों और स्थिरता धारणा के अनुसार।
:<math>C_{X_k|Y_1,\ldots,Y_{k-1}} = C_{X_{k-1}|Y_1,\ldots,Y_{k-1}} = C_{e_{k-1}},</math> एमएमएसई अनुमानकों के गुणों और स्थिरता धारणा के अनुसार।


इसी प्रकार, रैखिक अवलोकन प्रक्रिया के लिए, संभावना का माध्य <math>p(y_k|x_k)</math> द्वारा दिया गया है <math>\bar{y}_k = A\bar{x}_k = A\hat{x}_{k-1}</math> और सहप्रसरण मैट्रिक्स पहले जैसा है  
इसी प्रकार, रैखिक अवलोकन प्रक्रिया के लिए, संभावना का माध्य <math>p(y_k|x_k)</math> द्वारा दिया गया है <math>\bar{y}_k = A\bar{x}_k = A\hat{x}_{k-1}</math> और सहप्रसरण आव्यूह  पहले जैसा है  


:<math>
:<math>
Line 266: Line 265:
कहाँ <math>y_{k+1}</math> नया अदिश अवलोकन और लाभ कारक है <math>w_{k+1}</math> n-by-1 कॉलम सदिश    द्वारा दिया गया है
कहाँ <math>y_{k+1}</math> नया अदिश अवलोकन और लाभ कारक है <math>w_{k+1}</math> n-by-1 कॉलम सदिश    द्वारा दिया गया है
:<math>w_{k+1} = \frac{C_{e_k} a_{k+1}}{\sigma^2_{k+1} + a^T_{k+1}C_{e_k} a_{k+1}}.</math>
:<math>w_{k+1} = \frac{C_{e_k} a_{k+1}}{\sigma^2_{k+1} + a^T_{k+1}C_{e_k} a_{k+1}}.</math>
  <math>C_{e_{k+1}}</math> h> द्वारा दिया गया n-by-n त्रुटि सहप्रसरण मैट्रिक्स है
  <math>C_{e_{k+1}}</math> h> द्वारा दिया गया n-by-n त्रुटि सहप्रसरण आव्यूह  है
:<math>C_{e_{k+1}} = (I - w_{k+1}a^T_{k+1})C_{e_k} .</math>
:<math>C_{e_{k+1}} = (I - w_{k+1}a^T_{k+1})C_{e_k} .</math>
यहां, किसी मैट्रिक्स व्युत्क्रम की आवश्यकता नहीं है। इसके अलावा, लाभ कारक, <math>w_{k+1}</math>, नए डेटा नमूने में हमारे विश्वास पर निर्भर करता है, जैसा कि पिछले डेटा की तुलना में शोर भिन्नता द्वारा मापा जाता है। के प्रारंभिक मान <math>\hat{x}</math> और <math>C_e</math> पूर्व संभाव्यता घनत्व फलन  का माध्य और सहप्रसरण माना जाता है <math>x</math>.
यहां, किसी आव्यूह  व्युत्क्रम की आवश्यकता नहीं है। इसके अलावा, लाभ कारक, <math>w_{k+1}</math>, नए डेटा नमूने में हमारे विश्वास पर निर्भर करता है, जैसा कि पिछले डेटा की तुलना में शोर भिन्नता द्वारा मापा जाता है। के प्रारंभिक मान <math>\hat{x}</math> और <math>C_e</math> पूर्व संभाव्यता घनत्व फलन  का माध्य और सहप्रसरण माना जाता है <math>x</math>.


वैकल्पिक दृष्टिकोण: इस महत्वपूर्ण विशेष स्थिति  ने कई अन्य पुनरावृत्त तरीकों (या [[अनुकूली फ़िल्टर]]) को भी जन्म दिया है, जैसे कि [[न्यूनतम माध्य वर्ग फ़िल्टर]] और [[पुनरावर्ती न्यूनतम वर्ग फ़िल्टर]], जो स्टोकेस्टिक ग्रेडिएंट डीसेंट का उपयोग करके मूल एमएसई अनुकूलन समस्या को सीधे हल करता है। हालाँकि, अनुमान त्रुटि के बाद से <math>e</math> सीधे तौर पर नहीं देखा जा सकता, ये विधियाँ माध्य वर्ग पूर्वानुमान त्रुटि को कम करने का प्रयास करती हैं <math>\mathrm{E}\{\tilde{y}^T \tilde{y}\}</math>. उदाहरण के लिए, अदिश प्रेक्षणों के स्थिति  में, हमारे पास ग्रेडिएंट है <math>\nabla_{\hat{x}} \mathrm{E}\{\tilde{y}^2\} = -2 \mathrm{E}\{\tilde{y} a\}.</math> इस प्रकार, न्यूनतम माध्य वर्ग फ़िल्टर के लिए अद्यतन समीकरण इस प्रकार दिया गया है
वैकल्पिक दृष्टिकोण: इस महत्वपूर्ण विशेष स्थिति  ने कई अन्य पुनरावृत्त तरीकों (या [[अनुकूली फ़िल्टर]]) को भी जन्म दिया है, जैसे कि [[न्यूनतम माध्य वर्ग फ़िल्टर]] और [[पुनरावर्ती न्यूनतम वर्ग फ़िल्टर]], जो स्टोकेस्टिक ग्रेडिएंट डीसेंट का उपयोग करके मूल एमएसई अनुकूलन समस्या को सीधे हल करता है। हालाँकि, अनुमान त्रुटि के बाद से <math>e</math> सीधे तौर पर नहीं देखा जा सकता, ये विधियाँ माध्य वर्ग पूर्वानुमान त्रुटि को कम करने का प्रयास करती हैं <math>\mathrm{E}\{\tilde{y}^T \tilde{y}\}</math>. उदाहरण के लिए, अदिश प्रेक्षणों के स्थिति  में, हमारे पास ग्रेडिएंट है <math>\nabla_{\hat{x}} \mathrm{E}\{\tilde{y}^2\} = -2 \mathrm{E}\{\tilde{y} a\}.</math> इस प्रकार, न्यूनतम माध्य वर्ग फ़िल्टर के लिए अद्यतन समीकरण इस प्रकार दिया गया है
:<math>\hat{x}_{k+1} = \hat{x}_k + \eta_k \mathrm{E}\{\tilde{y}_k a_k\},</math>
:<math>\hat{x}_{k+1} = \hat{x}_k + \eta_k \mathrm{E}\{\tilde{y}_k a_k\},</math>
कहाँ <math>\eta_k</math> अदिश चरण का आकार है और अपेक्षा का अनुमान तात्कालिक मान से लगाया जाता है <math>\mathrm{E}\{a_k \tilde{y}_k\} \approx a_k \tilde{y}_k</math>. जैसा कि हम देख सकते हैं, ये विधियाँ सहप्रसरण मैट्रिक्स की आवश्यकता को दरकिनार कर देती हैं।
कहाँ <math>\eta_k</math> अदिश चरण का आकार है और अपेक्षा का अनुमान तात्कालिक मान से लगाया जाता है <math>\mathrm{E}\{a_k \tilde{y}_k\} \approx a_k \tilde{y}_k</math>. जैसा कि हम देख सकते हैं, ये विधियाँ सहप्रसरण आव्यूह  की आवश्यकता को दरकिनार कर देती हैं।


===विशेष मामला: असंबंधित शोर के साथ सदिश    अवलोकन===
===विशेष मामला: असंबंधित शोर के साथ सदिश    अवलोकन===
कई व्यावहारिक अनुप्रयोगों में, अवलोकन शोर असंबंधित है। वह है, <math>C_Z</math> एक विकर्ण मैट्रिक्स है. ऐसे मामलों में, इसके घटकों पर विचार करना लाभप्रद है <math>y</math> सदिश    माप के बजाय स्वतंत्र अदिश माप के रूप में। यह हमें प्रसंस्करण करके गणना समय को कम करने की अनुमति देता है <math>m \times 1</math> माप सदिश    के रूप में <math>m</math> अदिश माप. स्केलर अपडेट फॉर्मूला का उपयोग सहप्रसरण अद्यतन समीकरणों के कार्यान्वयन में मैट्रिक्स व्युत्क्रम से बचाता है, इस प्रकार राउंडऑफ त्रुटियों के खिलाफ संख्यात्मक मजबूती में सुधार करता है। अद्यतन को पुनरावर्ती रूप से इस प्रकार कार्यान्वित किया जा सकता है:
कई व्यावहारिक अनुप्रयोगों में, अवलोकन शोर असंबंधित है। वह है, <math>C_Z</math> एक विकर्ण आव्यूह  है. ऐसे मामलों में, इसके घटकों पर विचार करना लाभप्रद है <math>y</math> सदिश    माप के बजाय स्वतंत्र अदिश माप के रूप में। यह हमें प्रसंस्करण करके गणना समय को कम करने की अनुमति देता है <math>m \times 1</math> माप सदिश    के रूप में <math>m</math> अदिश माप. स्केलर अपडेट फॉर्मूला का उपयोग सहप्रसरण अद्यतन समीकरणों के कार्यान्वयन में आव्यूह  व्युत्क्रम से बचाता है, इस प्रकार राउंडऑफ त्रुटियों के खिलाफ संख्यात्मक मजबूती में सुधार करता है। अद्यतन को पुनरावर्ती रूप से इस प्रकार कार्यान्वित किया जा सकता है:


:<math>w_{k+1}^{(\ell)} = \frac{ C_{e_k}^{(\ell)} A^{(\ell) T}_{k+1} }{ C_{Z_{k+1}}^{(\ell)} + A_{k+1}^{(\ell)} C_{e_k}^{(\ell)} (A^{(\ell) T}_{k+1}) }</math> :<math>C_{e_{k+1}}^{(\ell)} = (I - w_{k+1}^{(\ell)} A_{k+1}^{(\ell)})C_{e_k}^{(\ell)}</math>
:<math>w_{k+1}^{(\ell)} = \frac{ C_{e_k}^{(\ell)} A^{(\ell) T}_{k+1} }{ C_{Z_{k+1}}^{(\ell)} + A_{k+1}^{(\ell)} C_{e_k}^{(\ell)} (A^{(\ell) T}_{k+1}) }</math> :<math>C_{e_{k+1}}^{(\ell)} = (I - w_{k+1}^{(\ell)} A_{k+1}^{(\ell)})C_{e_k}^{(\ell)}</math>
:<math>\hat{x}_{k+1}^{(\ell)} = \hat{x}_k^{(\ell-1)} + w_{k+1}^{(\ell)}(y_{k+1}^{(\ell)} - A_{k+1}^{(\ell)} \hat{x}_k^{(\ell-1)})</math>
:<math>\hat{x}_{k+1}^{(\ell)} = \hat{x}_k^{(\ell-1)} + w_{k+1}^{(\ell)}(y_{k+1}^{(\ell)} - A_{k+1}^{(\ell)} \hat{x}_k^{(\ell-1)})</math>
कहाँ <math>\ell = 1, 2, \ldots, m</math>, प्रारंभिक मानों का उपयोग करते हुए <math>C_{e_{k+1}}^{(0)} = C_{e_{k}}</math> और <math>\hat{x}_{k+1}^{(0)} = \hat{x}_{k}</math>. मध्यवर्ती चर <math>C_{Z_{k+1}}^{(\ell)}</math> है <math>\ell</math>-के विकर्ण तत्व <math>m \times m</math> विकर्ण मैट्रिक्स <math>C_{Z_{k+1}}</math>; जबकि <math>A_{k+1}^{(\ell)}</math> है <math>\ell</math>-वीं पंक्ति <math>m \times n</math> आव्यूह <math>A_{k+1}</math>. अंतिम मान हैं <math>C_{e_{k+1}}^{(m)} = C_{e_{k+1}}</math> और <math>\hat{x}_{k+1}^{(m)} = \hat{x}_{k+1}</math>.
कहाँ <math>\ell = 1, 2, \ldots, m</math>, प्रारंभिक मानों का उपयोग करते हुए <math>C_{e_{k+1}}^{(0)} = C_{e_{k}}</math> और <math>\hat{x}_{k+1}^{(0)} = \hat{x}_{k}</math>. मध्यवर्ती चर <math>C_{Z_{k+1}}^{(\ell)}</math> है <math>\ell</math>-के विकर्ण तत्व <math>m \times m</math> विकर्ण आव्यूह  <math>C_{Z_{k+1}}</math>; जबकि <math>A_{k+1}^{(\ell)}</math> है <math>\ell</math>-वीं पंक्ति <math>m \times n</math> आव्यूह <math>A_{k+1}</math>. अंतिम मान हैं <math>C_{e_{k+1}}^{(m)} = C_{e_{k+1}}</math> और <math>\hat{x}_{k+1}^{(m)} = \hat{x}_{k+1}</math>.


==उदाहरण==
==उदाहरण==


===उदाहरण 1===
===उदाहरण 1===
हम एक उदाहरण के रूप में एक [[रैखिक भविष्यवाणी]] समस्या लेंगे। मान लीजिए प्रेक्षित अदिश यादृच्छिक चरों का एक रैखिक संयोजन  <math>z_{1}, z_{2}</math> और <math>z_{3}</math> किसी अन्य भविष्य के अदिश यादृच्छिक चर का अनुमान लगाने के लिए उपयोग किया जाएगा <math>z_{4}</math> ऐसा है कि <math>\hat z_{4}=\sum_{i=1}^{3}w_{i}z_{i}</math>. यदि यादृच्छिक चर <math>z=[z_{1},z_{2},z_{3},z_{4}]^{T}</math> शून्य माध्य और इसके सहप्रसरण मैट्रिक्स के साथ वास्तविक गाऊसी यादृच्छिक चर हैं
हम एक उदाहरण के रूप में एक [[रैखिक भविष्यवाणी]] समस्या लेंगे। मान लीजिए प्रेक्षित अदिश यादृच्छिक चरों का एक रैखिक संयोजन  <math>z_{1}, z_{2}</math> और <math>z_{3}</math> किसी अन्य भविष्य के अदिश यादृच्छिक चर का अनुमान लगाने के लिए उपयोग किया जाएगा <math>z_{4}</math> ऐसा है कि <math>\hat z_{4}=\sum_{i=1}^{3}w_{i}z_{i}</math>. यदि यादृच्छिक चर <math>z=[z_{1},z_{2},z_{3},z_{4}]^{T}</math> शून्य माध्य और इसके सहप्रसरण आव्यूह  के साथ वास्तविक गाऊसी यादृच्छिक चर हैं
:<math>
:<math>
\operatorname{cov}(Z)=\operatorname{E}[zz^{T}]=\left[\begin{array}{cccc}
\operatorname{cov}(Z)=\operatorname{E}[zz^{T}]=\left[\begin{array}{cccc}
Line 293: Line 292:
तो हमारा कार्य गुणांक ज्ञात करना है <math>w_{i}</math> ऐसा कि यह एक इष्टतम रैखिक अनुमान प्राप्त करेगा <math>\hat z_{4}</math>.
तो हमारा कार्य गुणांक ज्ञात करना है <math>w_{i}</math> ऐसा कि यह एक इष्टतम रैखिक अनुमान प्राप्त करेगा <math>\hat z_{4}</math>.


पिछले अनुभागों में विकसित शब्दावली के संदर्भ में, इस समस्या के लिए हमारे पास अवलोकन सदिश    है <math>y = [z_1, z_2, z_3]^T</math>, अनुमानक मैट्रिक्स <math>W = [w_1, w_2, w_3]</math> एक पंक्ति सदिश    और अनुमानित चर के रूप में <math>x = z_4</math> एक अदिश राशि के रूप में. स्वत:सहसंबंध मैट्रिक्स <math>C_Y</math> परिभाषित किया जाता है
पिछले अनुभागों में विकसित शब्दावली के संदर्भ में, इस समस्या के लिए हमारे पास अवलोकन सदिश    है <math>y = [z_1, z_2, z_3]^T</math>, अनुमानक आव्यूह  <math>W = [w_1, w_2, w_3]</math> एक पंक्ति सदिश    और अनुमानित चर के रूप में <math>x = z_4</math> एक अदिश राशि के रूप में. स्वत:सहसंबंध आव्यूह  <math>C_Y</math> परिभाषित किया जाता है
:<math>C_Y=\left[\begin{array}{ccc}
:<math>C_Y=\left[\begin{array}{ccc}
E[z_{1},z_{1}] & E[z_{2},z_{1}] & E[z_{3},z_{1}]\\
E[z_{1},z_{1}] & E[z_{2},z_{1}] & E[z_{3},z_{1}]\\
Line 301: Line 300:
2 & 5 & 8\\
2 & 5 & 8\\
3 & 8 & 6\end{array}\right].</math>
3 & 8 & 6\end{array}\right].</math>
क्रॉस सहसंबंध मैट्रिक्स <math>C_{YX}</math> परिभाषित किया जाता है
क्रॉस सहसंबंध आव्यूह  <math>C_{YX}</math> परिभाषित किया जाता है
:<math>C_{YX}=\left[\begin{array}{c}
:<math>C_{YX}=\left[\begin{array}{c}
E[z_{4},z_{1}]\\
E[z_{4},z_{1}]\\
Line 322: Line 321:
तो हमारे पास <math>w_1=2.57,</math> <math>w_2=-0.142,</math> और <math>w_{3}=.5714</math>
तो हमारे पास <math>w_1=2.57,</math> <math>w_2=-0.142,</math> और <math>w_{3}=.5714</math>
के लिए इष्टतम गुणांक के रूप में <math>\hat z_4</math>. न्यूनतम की गणना
के लिए इष्टतम गुणांक के रूप में <math>\hat z_4</math>. न्यूनतम की गणना
तो माध्य वर्ग त्रुटि देता है <math>\left\Vert e\right\Vert _{\min}^2=\operatorname{E}[z_4 z_4]-WC_{YX}=15-WC_{YX}=.2857</math>.<ref>Moon and Stirling.</ref> ध्यान दें कि इसके विपरीत एक स्पष्ट मैट्रिक्स प्राप्त करना आवश्यक नहीं है <math>C_Y</math> के मूल्य की गणना करने के लिए <math>W</math>. मैट्रिक्स समीकरण को गॉस उन्मूलन विधि जैसी प्रसिद्ध विधियों द्वारा हल किया जा सकता है। ऑर्थोगोनैलिटी सिद्धांत में एक छोटा, गैर-संख्यात्मक उदाहरण पाया जा सकता है।
तो माध्य वर्ग त्रुटि देता है <math>\left\Vert e\right\Vert _{\min}^2=\operatorname{E}[z_4 z_4]-WC_{YX}=15-WC_{YX}=.2857</math>.<ref>Moon and Stirling.</ref> ध्यान दें कि इसके विपरीत एक स्पष्ट आव्यूह  प्राप्त करना आवश्यक नहीं है <math>C_Y</math> के मूल्य की गणना करने के लिए <math>W</math>. आव्यूह  समीकरण को गॉस उन्मूलन विधि जैसी प्रसिद्ध विधियों द्वारा हल किया जा सकता है। ऑर्थोगोनैलिटी सिद्धांत में एक छोटा, गैर-संख्यात्मक उदाहरण पाया जा सकता है।


===उदाहरण 2===
===उदाहरण 2===
एक सदिश    पर विचार करें <math>y</math> लेकर गठित किया गया <math>N</math> एक निश्चित लेकिन अज्ञात अदिश पैरामीटर का अवलोकन <math>x</math> सफ़ेद गॉसियन शोर से परेशान। हम इस प्रक्रिया का वर्णन एक रैखिक समीकरण द्वारा कर सकते हैं <math>y = 1x+ z</math>, कहाँ <math>1 = [1,1,\ldots,1]^T</math>. संदर्भ के आधार पर यह स्पष्ट होगा कि क्या <math>1</math> एक [[अदिश (गणित)]] या एक सदिश का प्रतिनिधित्व करता है। मान लीजिए कि हम जानते हैं <math>[-x_0,x_0]</math> वह सीमा होना जिसके भीतर का मान है <math>x</math> में गिरने वाला है। हम अपनी अनिश्चितता का मॉडल बना सकते हैं <math>x</math> एक अंतराल पर पूर्व [[समान वितरण (निरंतर)]] द्वारा <math>[-x_0,x_0]</math>, और इस तरह <math>x</math> का भिन्नता होगी <math>\sigma_X^2 = x_0^2/3.</math>. चलो शोर सदिश    <math>z</math> सामान्य रूप से वितरित किया जाए <math>N(0,\sigma_Z^2I)</math> कहाँ <math>I</math> एक पहचान मैट्रिक्स है. भी <math>x</math> और <math>z</math> स्वतंत्र हैं और <math>C_{XZ} = 0</math>. यह देखना आसान है
एक सदिश    पर विचार करें <math>y</math> लेकर गठित किया गया <math>N</math> एक निश्चित लेकिन अज्ञात अदिश पैरामीटर का अवलोकन <math>x</math> सफ़ेद गॉसियन शोर से परेशान। हम इस प्रक्रिया का वर्णन एक रैखिक समीकरण द्वारा कर सकते हैं <math>y = 1x+ z</math>, कहाँ <math>1 = [1,1,\ldots,1]^T</math>. संदर्भ के आधार पर यह स्पष्ट होगा कि क्या <math>1</math> एक [[अदिश (गणित)]] या एक सदिश का प्रतिनिधित्व करता है। मान लीजिए कि हम जानते हैं <math>[-x_0,x_0]</math> वह सीमा होना जिसके भीतर का मान है <math>x</math> में गिरने वाला है। हम अपनी अनिश्चितता का मॉडल बना सकते हैं <math>x</math> एक अंतराल पर पूर्व [[समान वितरण (निरंतर)]] द्वारा <math>[-x_0,x_0]</math>, और इस तरह <math>x</math> का भिन्नता होगी <math>\sigma_X^2 = x_0^2/3.</math>. चलो शोर सदिश    <math>z</math> सामान्य रूप से वितरित किया जाए <math>N(0,\sigma_Z^2I)</math> कहाँ <math>I</math> एक पहचान आव्यूह  है. भी <math>x</math> और <math>z</math> स्वतंत्र हैं और <math>C_{XZ} = 0</math>. यह देखना आसान है
:<math>
:<math>
\begin{align}
\begin{align}

Revision as of 10:15, 3 August 2023

सांख्यिकी विज्ञान और संकेत प्रसंस्करण में, न्यूनतम माध्य वर्ग त्रुटि (एमएमएसई) अनुमानकर्ता एक अनुमानन पद्धति है जो एक निर्धारित चरण वाले प्रत्याप्त चर के लिए फिट किए गए मानों के औसत वर्ग त्रुटि (एमएसई) को कम करती है। एमएसई एक अनुमानकर्ता गुणवत्ता का एक सामान्य माप है।

बायेसियन अनुमानक सेटिंग में, शब्द "एमएमएसई" विशेष रूप से वर्गीकरण त्रुटि फलन के साथ अनुमानन को दर्शाता है। ऐसे स्थिति में, एमएमएसई अनुमानकर्ता को अनुमानित पैरामीटर के उपांशीक्षांत मान द्वारा दिया जाता है। चूँकि उपांशीक्षांत मान को निर्धारित करना बहुत कठिन हो सकता है, इसलिए एमएमएसई अनुमानकर्ता का रूप सामान्यतः कुछ विशेष कक्षा के फलन में होता है। रेखीय एमएमएसई अनुमानकर्ता एक लोकप्रिय चयन हैं क्योंकि उन्हें उपयोग करना सरल होता है, उन्हें गणना करना आसान होता है, और बहुत से उदाहरणों में उपयोगी होते हैं। इसने वेनर-कोलमोगोरोव फ़िल्टर और कालमन फ़िल्टर जैसे कई प्रसिद्ध अनुमानकर्ताओं को उत्पन्न किया है।

प्रेरणा

एमएमएसई शब्द विशेष रूप से बेजियन सेटिंग में वर्गीकरण लागत फलन के साथ अनुमानन को दर्शाता है। अनुमानन के लिए बेजियन दृष्टिकोण के पीछे मूलभूत विचार का आधारीकरण व्यापक समस्याओं से होता है जहां हमें प्रायः अनुमानित पैरामीटर के बारे में कुछ पूर्व जानकारी होती है। उदाहरण के लिए, हमें अनुमानित पैरामीटर के रेंज के बारे में पूर्व जानकारी हो सकती है; या हमें अनुमानित पैरामीटर का पुराना अनुमान हो सकता है जिसे हम एक नई अवलोकन उपलब्ध करने पर संशोधित करना चाहते हैं; या बोलचाल जैसे एक वास्तविक यादृच्छिक संकेत के सांख्यिकीय हिस्से के बारे में जानकारी हो सकती है। यह न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई) जैसे गैर-बायेसियन दृष्टिकोण के विपरीत है, जहां पैरामीटर के बारे में पहले से कुछ भी ज्ञात नहीं माना जाता है और जो ऐसी स्थितियों के लिए उत्तरदायी नहीं है। बायेसियन दृष्टिकोण में, ऐसी पूर्व जानकारी मापदंडों के पूर्व संभाव्यता घनत्व फलन द्वारा अधिकृत की जाती है; और सीधे बेयस प्रमेय पर आधारित, यह हमें अधिक अवलोकन उपलब्ध होने पर पश्च अनुमान लगाने की अनुमति देता है। इस प्रकार गैर-बायेसियन दृष्टिकोण के विपरीत जहां रुचि के मापदंडों को नियतात्मक, परंतु अज्ञात स्थिरांक माना जाता है, बायेसियन अनुमानक एक पैरामीटर का अनुमान लगाना चाहता है जो स्वयं एक यादृच्छिक चर है। इसके अतिरिक्त, बायेसियन अनुमान उन स्थितियों से भी निपट सकता है जहां अवलोकनों का क्रम आवश्यक रूप से स्वतंत्र नहीं है। इस प्रकार बायेसियन अनुमान एमवीयूई के लिए एक और विकल्प प्रदान करता है। यह तब उपयोगी होता है जब एमवीयूई उपस्थित नहीं है या पाया नहीं जा सकता है।

परिभाषा

यहां, एक छिपा हुआ यादृच्छिक सदिश चर और एक ज्ञात यादृच्छिक सदिश चर है, जिनमें से दोनों सदिशो के आयाम आवश्यक रूप से एक समान नहीं हैं। एक अनुमानकर्ता एक ऐसा फलन है जो मापन का कोई भी फलन होता है। अनुमानन त्रुटि सदिश द्वारा दिया जाता है और इसका "औसत वर्गमूल त्रुटि" (एमएसई) त्रुटि सहप्रसरण आव्यूह के समापन से दिया जाता है।

यहां, के उपर लिया गया अपेक्षा के शर्तबद्ध होता है। अर्थात, हम के लिए अपेक्षित मान की गणना पर शर्तबद्ध करके करते हैं। जब एक स्केलर चर होता है, तो एमएसई अभिव्यक्ति यह सरल हो जाती है: इसमें अनुमानक चर है और मूल चर है। यह अनुमानित चर और मूल चर के बीच विचलन का वर्ग होता है ध्यान दें कि एमएसई को अन्य विधियों से भी परिभाषित किया जा सकता है, क्योंकि

एमएमएसई अनुमानक उस अनुमानक को कहते हैं जो न्यूनतम एमएसई को प्राप्त करता है:

गुण

जब माध्य और चतुर्थिक अवरोध सीमित होते हैं, तो एमएमएसई अनुमानक एकद्रव्य परिभाषित होता है और यह निम्नलिखित रूप में होता है:

दूसरे शब्दों में,कहा जा सकता है कि एमएमएसई अनुमानकर्ता की शर्ती अपेक्षा होता है। इसे अन्य शब्दों में, यह निर्धारित करता है कि जब हमें माप की गई मानवी या वार्तालापिक डेटा होता है, तो हमें अधिकतम संभावना के अनुसार एमएमएसई अनुमानकर्ता पश्च माध्य होता है और त्रुटि संवेदनशीलता मात्रिका पश्च विकल्प मात्रिका के बराबर होती है:

  • ऊपर उल्लिखित नियमितता मान्यताओं के अंतर्गत एमएमएसई अनुमानक निष्पक्ष है :
  • एमएमएसई अनुमानक असममित रूप से निष्पक्ष है और यह सामान्य वितरण में वितरण में परिवर्तित होता है:
यहाँ की फिशर जानकारी है. इस प्रकार एमएमएसई अनुमानक दक्षता है।
  • रूढ़ीवाद सिद्धांत: जब एक अदिश राशि है, एक अनुमानक जो निश्चित आकार का होने के लिए बाध्य है एक इष्टतम अनुमानक है, अर्थात और यदि
  • सभी के लिए बंद, रैखिक उपस्थान में माप का यादृच्छिक सदिश के लिए, चूंकि एक यादृच्छिक सदिश के आकलन के लिए एमएसई निर्देशांक के एमएसई का योग है, एक यादृच्छिक सदिश के एमएमएसई अनुमानक को खोजने से के निर्देशांक के एमएमएसई अनुमानक को अलग से ढूंढने में विघटित हो जाता है:
:सभी i और j के लिए अधिक संक्षेप में कहें तो, न्यूनतम अनुमान त्रुटि के बीच अंतर-सहसंबंध और अनुमानक शून्य होता है ,
  • यदि और संयुक्त रूप से गाऊसी हैं, तो एमएमएसई अनुमानक रैखिक है, अर्थात, इसका रूप है आव्यूह के लिए और स्थिर होते है। इसे बेयस प्रमेय का उपयोग करके सीधे दिखाया जा सकता है। परिणामस्वरूप, एमएमएसई अनुमानक को खोजने के लिए, रैखिक एमएमएसई अनुमानक को ढूंढना पर्याप्त है।

रैखिक एमएमएसई अनुमानक

कई मामलों में, एमएमएसई अनुमानक की विश्लेषणात्मक अभिव्यक्ति निर्धारित करना संभव नहीं है। एमएमएसई अनुमान प्राप्त करने के लिए दो बुनियादी संख्यात्मक दृष्टिकोण या तो सशर्त अपेक्षा को खोजने पर निर्भर करते हैं या एमएसई का मिनिमा ढूँढना। सशर्त अपेक्षा का प्रत्यक्ष संख्यात्मक मूल्यांकन कम्प्यूटेशनल रूप से महंगा है क्योंकि इसके लिए अक्सर बहुआयामी एकीकरण की आवश्यकता होती है जो आमतौर पर मोंटे कार्लो विधियों के माध्यम से किया जाता है। एक अन्य कम्प्यूटेशनल दृष्टिकोण स्टोकेस्टिक ग्रेडिएंट डिसेंट जैसी तकनीकों का उपयोग करके सीधे एमएसई की न्यूनतमता की तलाश करना है; लेकिन इस पद्धति को अभी भी अपेक्षा के मूल्यांकन की आवश्यकता है। हालाँकि ये संख्यात्मक विधियाँ उपयोगी रही हैं, फिर भी अगर हम कुछ समझौते करने के इच्छुक हैं तो एमएमएसई अनुमानक के लिए एक बंद फॉर्म अभिव्यक्ति संभव है।

एक संभावना यह है कि पूर्ण इष्टतमता आवश्यकताओं को त्याग दिया जाए और अनुमानकों के एक विशेष वर्ग, जैसे कि रैखिक अनुमानकों के वर्ग, के भीतर एमएसई को न्यूनतम करने वाली तकनीक की तलाश की जाए। इस प्रकार, हम मानते हैं कि सशर्त अपेक्षा दिया गया का एक सरल रैखिक कार्य है , , जहां माप एक यादृच्छिक सदिश है, एक आव्यूह है और एक सदिश है. इसे टेलर के प्रथम क्रम सन्निकटन के रूप में देखा जा सकता है . रैखिक एमएमएसई अनुमानक ऐसे फॉर्म के सभी अनुमानकों के बीच न्यूनतम एमएसई प्राप्त करने वाला अनुमानक है। अर्थात्, यह निम्नलिखित अनुकूलन समस्या का समाधान करता है:

ऐसे रैखिक एमएमएसई अनुमानक का एक फायदा यह है कि पश्च संभाव्यता घनत्व फलन की स्पष्ट रूप से गणना करना आवश्यक नहीं है . ऐसा रैखिक अनुमानक केवल पहले दो क्षणों पर निर्भर करता है और . हालाँकि यह मान लेना सुविधाजनक हो सकता है और संयुक्त रूप से गॉसियन हैं, यह धारणा बनाना आवश्यक नहीं है, जब तक कि अनुमानित वितरण ने पहले और दूसरे क्षणों को अच्छी तरह से परिभाषित नहीं किया है। रैखिक अनुमानक का रूप अनुमानित अंतर्निहित वितरण के प्रकार पर निर्भर नहीं करता है।

इष्टतम के लिए अभिव्यक्ति और द्वारा दिया गया है:

 :

कहाँ , के बीच क्रॉस-कोवेरिएंस आव्यूह है और , द का ऑटो-कोवेरिएंस आव्यूह है .

इस प्रकार, रैखिक एमएमएसई अनुमानक, इसके माध्य और इसके ऑटो-सहप्रसरण के लिए अभिव्यक्ति दी गई है

जहां के बीच क्रॉस-कोवेरिएंस आव्यूह है और .

अंत में, ऐसे अनुमानक द्वारा प्राप्त होने वाली त्रुटि सहप्रसरण और न्यूनतम माध्य वर्ग त्रुटि है

Derivation using orthogonality principle

आइए हमारे पास इष्टतम रैखिक एमएमएसई अनुमानक दिया गया है , जहां हमें इसके लिए अभिव्यक्ति ढूंढने की आवश्यकता होती है और . यह आवश्यक है कि एमएमएसई अनुमानक निष्पक्ष हो। इसका मतलब यह है,

के लिए अभिव्यक्ति को प्लग करना उपरोक्त में, हम पाते हैं

कहाँ और . इस प्रकार हम अनुमानक को इस प्रकार पुनः लिख सकते हैं

और अनुमान त्रुटि की अभिव्यक्ति बन जाती है

रूढ़िवादिता सिद्धांत से, हम प्राप्त कर सकते हैं , हम कहाँ लेते हैं . यहाँ बायीं ओर का पद है

जब शून्य के बराबर किया जाता है, तो हमें वांछित अभिव्यक्ति प्राप्त होती है जैसा

 h> X और Y के बीच क्रॉस-कोवेरिएंस मैट्रिक्स है, और  Y का ऑटो-कोवरियन्स मैट्रिक्स है। चूँकि , अभिव्यक्ति को के संदर्भ में भी दोबारा लिखा जा सकता है  जैसा

इस प्रकार रैखिक एमएमएसई अनुमानक के लिए पूर्ण अभिव्यक्ति है

अनुमान के बाद से स्वयं एक यादृच्छिक चर है , हम इसका स्वतः सहप्रसरण भी प्राप्त कर सकते हैं

के लिए अभिव्यक्ति रख रहा हूँ और , हम पाते हैं

अंत में, रैखिक एमएमएसई अनुमान त्रुटि का सहप्रसरण तब दिया जाएगा

ऑर्थोगोनैलिटी सिद्धांत के कारण तीसरी पंक्ति में पहला पद शून्य है। तब से , हम पुनः लिख सकते हैं सहप्रसरण मैट्रिक्स के संदर्भ में

इसे हम वैसा ही मान सकते हैं इस प्रकार ऐसे रैखिक अनुमानक द्वारा प्राप्त की जाने वाली न्यूनतम माध्य वर्ग त्रुटि है

.

अविभाज्य मामला

विशेष स्थिति के लिए जब दोनों और अदिश हैं, उपरोक्त संबंध को सरल बनाते हैं

 :

कहाँ के बीच पियर्सन का सहसंबंध गुणांक है और .

उपरोक्त दो समीकरण हमें सहसंबंध गुणांक की व्याख्या रैखिक प्रतिगमन के सामान्यीकृत ढलान के रूप में करने की अनुमति देते हैं

या दो प्रसरणों के अनुपात के वर्गमूल के रूप में

.

कब , अपने पास और . इस स्थिति में, माप से कोई नई जानकारी नहीं मिलती है जो अनिश्चितता को कम कर सके . दूसरी ओर, जब , अपने पास और . यहाँ द्वारा पूर्णतः निर्धारित होता है , जैसा कि सीधी रेखा के समीकरण द्वारा दिया गया है।

गणना

आव्यूह समीकरण को हल करने के लिए गॉस उन्मूलन जैसी मानक विधि का उपयोग किया जा सकता है . क्यूआर अपघटन विधि द्वारा एक अधिक संख्यात्मक रूप से स्थिर विधि प्रदान की जाती है। आव्यूह के बाद से एक सममित सकारात्मक निश्चित आव्यूह है, चोल्स्की अपघटन के साथ दोगुनी तेजी से हल किया जा सकता है, जबकि बड़ी विरल प्रणालियों के लिए संयुग्म ग्रेडिएंट विधि अधिक प्रभावी है। लेविंसन रिकर्सन एक तेज़ विधि है जब एक Toeplitz आव्यूह भी है। ऐसा तब हो सकता है जब एक व्यापक अर्थ स्थिर प्रक्रिया है. ऐसे स्थिर मामलों में, इन अनुमानकों को वीनर फ़िल्टर|वीनर-कोलमोगोरोव फ़िल्टर भी कहा जाता है।

रैखिक अवलोकन प्रक्रिया के लिए रैखिक एमएमएसई अनुमानक

आइए हम अवलोकन की अंतर्निहित प्रक्रिया को एक रैखिक प्रक्रिया के रूप में आगे मॉडल करें: , कहाँ एक ज्ञात आव्यूह है और माध्य के साथ यादृच्छिक शोर सदिश है और क्रॉस-सहप्रसरण . यहां आवश्यक माध्य और सहप्रसरण आव्यूह होंगे

 :

इस प्रकार रैखिक एमएमएसई अनुमानक आव्यूह के लिए अभिव्यक्ति आगे संशोधित करता है

के लिए अभिव्यक्ति में सब कुछ डालना , हम पाते हैं

अंत में, त्रुटि सहप्रसरण है

ऊपर दी गई अनुमान समस्या और न्यूनतम वर्गों और गॉस-मार्कोव प्रमेय | गॉस-मार्कोव अनुमान के बीच महत्वपूर्ण अंतर यह है कि अवलोकनों की संख्या एम, (यानी का आयाम) ) कम से कम अज्ञातों की संख्या जितनी बड़ी नहीं होनी चाहिए, n, (अर्थात् का आयाम)। ). रैखिक अवलोकन प्रक्रिया का अनुमान एम-बाय-एम आव्यूह तक मौजूद रहता है मौजूद; यह किसी भी एम के लिए मामला है, उदाहरण के लिए, सकारात्मक निश्चित है. भौतिक रूप से इस संपत्ति का कारण यह है कि तब से अब एक यादृच्छिक चर है, बिना किसी माप के भी एक सार्थक अनुमान (अर्थात् इसका माध्य) बनाना संभव है। प्रत्येक नया माप बस अतिरिक्त जानकारी प्रदान करता है जो हमारे मूल अनुमान को संशोधित कर सकता है। इस अनुमान की एक अन्य विशेषता यह है कि m < n के लिए, कोई माप त्रुटि आवश्यक नहीं है। इस प्रकार, हमारे पास हो सकता है , क्योंकि जब तक सकारात्मक निश्चित है, अनुमान अभी भी मौजूद है। अंत में, यह तकनीक उन मामलों को संभाल सकती है जहां शोर सहसंबद्ध है।

वैकल्पिक रूप

आव्यूह पहचान का उपयोग करके अभिव्यक्ति का एक वैकल्पिक रूप प्राप्त किया जा सकता है

जिसे बाद में गुणा करके स्थापित किया जा सकता है और पूर्व-गुणा करके प्राप्त करने के लिए

और

तब से अब के संदर्भ में लिखा जा सकता है जैसा , हमें इसके लिए एक सरलीकृत अभिव्यक्ति मिलती है जैसा

इस रूप में उपरोक्त अभिव्यक्ति की तुलना न्यूनतम वर्ग#भारित न्यूनतम वर्ग और गॉस-मार्कोव प्रमेय|गॉस-मार्कोव अनुमान से आसानी से की जा सकती है। विशेषकर, जब , संबंधित पूर्ववर्ती जानकारी के अनंत भिन्नता के अनुरूप , परिणाम भारित रैखिक न्यूनतम वर्ग अनुमान के समान है वजन आव्यूह के रूप में. इसके अलावा, यदि के घटक असंबंधित हैं और इनमें समान भिन्नता है कहाँ तो, एक पहचान आव्यूह है सामान्य न्यूनतम वर्ग अनुमान के समान है।

अनुक्रमिक रैखिक एमएमएसई अनुमान

कई वास्तविक समय अनुप्रयोगों में, अवलोकन संबंधी डेटा एक ही बैच में उपलब्ध नहीं होता है। इसके बजाय अवलोकन एक क्रम में किए जाते हैं। एक संभावित दृष्टिकोण पुराने अनुमान को अद्यतन करने के लिए अनुक्रमिक अवलोकनों का उपयोग करना है क्योंकि अतिरिक्त डेटा उपलब्ध हो जाता है, जिससे बेहतर अनुमान प्राप्त होते हैं। बैच अनुमान और अनुक्रमिक अनुमान के बीच एक महत्वपूर्ण अंतर यह है कि अनुक्रमिक अनुमान के लिए अतिरिक्त मार्कोव धारणा की आवश्यकता होती है।

बायेसियन ढांचे में, बायेस नियम का उपयोग करके ऐसे पुनरावर्ती अनुमान को आसानी से सुविधाजनक बनाया जा सकता है। दिया गया अवलोकन, , बेयस का नियम हमें पश्च घनत्व देता है जैसा

 h> को पश्च घनत्व कहा जाता है,  संभाव्यता फलन कहलाता है, और  k-वें समय चरण का पूर्व घनत्व है। यहां हमने सशर्त स्वतंत्रता की कल्पना की है  पिछले अवलोकनों से  दिया गया  जैसा
यह मार्कोव धारणा है.

एमएमएसई अनुमान यदि k-वें अवलोकन दिया गया है तो यह पश्च घनत्व का माध्य है . राज्य कैसे है, इस पर गतिशील जानकारी की कमी के साथ समय के साथ परिवर्तन, हम पूर्व के बारे में एक और स्थिरता की धारणा बनाएंगे:

इस प्रकार, k-वें समय चरण के लिए पूर्व घनत्व (k-1)-वें समय चरण का पश्च घनत्व है। यह संरचना हमें अनुमान के लिए एक पुनरावर्ती दृष्टिकोण तैयार करने की अनुमति देती है।

रैखिक एमएमएसई अनुमानक के संदर्भ में, अनुमान के सूत्र का रूप पहले जैसा ही होगा: हालाँकि, माध्य और सहप्रसरण आव्यूह और पूर्व घनत्व वाले लोगों द्वारा प्रतिस्थापित करने की आवश्यकता होगी और संभावना , क्रमश।

पूर्व घनत्व के लिए , इसका माध्य पिछले एमएमएसई अनुमान द्वारा दिया गया है,

,

और इसका सहप्रसरण आव्यूह पिछली त्रुटि सहप्रसरण आव्यूह द्वारा दिया गया है,

एमएमएसई अनुमानकों के गुणों और स्थिरता धारणा के अनुसार।

इसी प्रकार, रैखिक अवलोकन प्रक्रिया के लिए, संभावना का माध्य द्वारा दिया गया है और सहप्रसरण आव्यूह पहले जैसा है

.

के अनुमानित मूल्य के बीच का अंतर , जैसा कि दिया गया है , और इसका अवलोकित मूल्य भविष्यवाणी त्रुटि देता है , जिसे नवप्रवर्तन या अवशिष्ट भी कहा जाता है। भविष्यवाणी त्रुटि के संदर्भ में रैखिक एमएमएसई का प्रतिनिधित्व करना अधिक सुविधाजनक है, जिसका माध्य और सहप्रसरण हैं और .

इसलिए, अनुमान अद्यतन सूत्र में, हमें प्रतिस्थापित करना चाहिए और द्वारा और , क्रमश। इसके अलावा, हमें प्रतिस्थापित करना चाहिए और द्वारा और . अंत में, हम प्रतिस्थापित करते हैं द्वारा

इस प्रकार, हमारे पास नया अनुमान नए अवलोकन के रूप में है के रूप में आता है

और नई त्रुटि सहप्रसरण के रूप में

रैखिक बीजगणित के दृष्टिकोण से, अनुक्रमिक अनुमान के लिए, यदि हमारे पास कोई अनुमान है माप के आधार पर स्थान उत्पन्न करना , फिर माप का एक और सेट प्राप्त करने के बाद, हमें इन मापों से वह हिस्सा घटा देना चाहिए जिसका पहले माप के परिणाम से अनुमान लगाया जा सकता है। दूसरे शब्दों में, अद्यतनीकरण नए डेटा के उस हिस्से पर आधारित होना चाहिए जो पुराने डेटा के लिए ऑर्थोगोनल है।

अधिक अवलोकन उपलब्ध होने पर उपरोक्त दो समीकरणों का बार-बार उपयोग पुनरावर्ती अनुमान तकनीकों को जन्म देता है। भावों को अधिक संक्षिप्त रूप में लिखा जा सकता है

गणित का सवाल इसे अक्सर कलमन लाभ कारक के रूप में जाना जाता है। उपरोक्त एल्गोरिदम का वैकल्पिक सूत्रीकरण देगा

अधिक डेटा उपलब्ध होने पर इन तीन चरणों की पुनरावृत्ति एक पुनरावृत्त अनुमान एल्गोरिदम की ओर ले जाती है। गैर-स्थिर मामलों में इस विचार का सामान्यीकरण कलमन फ़िल्टर को जन्म देता है। ऊपर उल्लिखित तीन अद्यतन चरण वास्तव में कलमन फ़िल्टर का अद्यतन चरण बनाते हैं।

विशेष मामला: अदिश प्रेक्षण

एक महत्वपूर्ण विशेष स्थिति के रूप में, उपयोग में आसान पुनरावर्ती अभिव्यक्ति तब प्राप्त की जा सकती है जब प्रत्येक k-वें समय पर अंतर्निहित रैखिक अवलोकन प्रक्रिया एक स्केलर उत्पन्न करती है जैसे कि , कहाँ n-by-1 ज्ञात कॉलम सदिश है जिसका मान समय के साथ बदल सकता है, अनुमान लगाने के लिए एन-बाय-1 यादृच्छिक कॉलम सदिश है, और विचरण के साथ अदिश शोर शब्द है . (k+1)-वें अवलोकन के बाद, उपरोक्त पुनरावर्ती समीकरणों का प्रत्यक्ष उपयोग अनुमान के लिए अभिव्यक्ति देता है जैसा:

कहाँ नया अदिश अवलोकन और लाभ कारक है n-by-1 कॉलम सदिश द्वारा दिया गया है

 h> द्वारा दिया गया n-by-n त्रुटि सहप्रसरण आव्यूह   है

यहां, किसी आव्यूह व्युत्क्रम की आवश्यकता नहीं है। इसके अलावा, लाभ कारक, , नए डेटा नमूने में हमारे विश्वास पर निर्भर करता है, जैसा कि पिछले डेटा की तुलना में शोर भिन्नता द्वारा मापा जाता है। के प्रारंभिक मान और पूर्व संभाव्यता घनत्व फलन का माध्य और सहप्रसरण माना जाता है .

वैकल्पिक दृष्टिकोण: इस महत्वपूर्ण विशेष स्थिति ने कई अन्य पुनरावृत्त तरीकों (या अनुकूली फ़िल्टर) को भी जन्म दिया है, जैसे कि न्यूनतम माध्य वर्ग फ़िल्टर और पुनरावर्ती न्यूनतम वर्ग फ़िल्टर, जो स्टोकेस्टिक ग्रेडिएंट डीसेंट का उपयोग करके मूल एमएसई अनुकूलन समस्या को सीधे हल करता है। हालाँकि, अनुमान त्रुटि के बाद से सीधे तौर पर नहीं देखा जा सकता, ये विधियाँ माध्य वर्ग पूर्वानुमान त्रुटि को कम करने का प्रयास करती हैं . उदाहरण के लिए, अदिश प्रेक्षणों के स्थिति में, हमारे पास ग्रेडिएंट है इस प्रकार, न्यूनतम माध्य वर्ग फ़िल्टर के लिए अद्यतन समीकरण इस प्रकार दिया गया है

कहाँ अदिश चरण का आकार है और अपेक्षा का अनुमान तात्कालिक मान से लगाया जाता है . जैसा कि हम देख सकते हैं, ये विधियाँ सहप्रसरण आव्यूह की आवश्यकता को दरकिनार कर देती हैं।

विशेष मामला: असंबंधित शोर के साथ सदिश अवलोकन

कई व्यावहारिक अनुप्रयोगों में, अवलोकन शोर असंबंधित है। वह है, एक विकर्ण आव्यूह है. ऐसे मामलों में, इसके घटकों पर विचार करना लाभप्रद है सदिश माप के बजाय स्वतंत्र अदिश माप के रूप में। यह हमें प्रसंस्करण करके गणना समय को कम करने की अनुमति देता है माप सदिश के रूप में अदिश माप. स्केलर अपडेट फॉर्मूला का उपयोग सहप्रसरण अद्यतन समीकरणों के कार्यान्वयन में आव्यूह व्युत्क्रम से बचाता है, इस प्रकार राउंडऑफ त्रुटियों के खिलाफ संख्यात्मक मजबूती में सुधार करता है। अद्यतन को पुनरावर्ती रूप से इस प्रकार कार्यान्वित किया जा सकता है:

 :

कहाँ , प्रारंभिक मानों का उपयोग करते हुए और . मध्यवर्ती चर है -के विकर्ण तत्व विकर्ण आव्यूह ; जबकि है -वीं पंक्ति आव्यूह . अंतिम मान हैं और .

उदाहरण

उदाहरण 1

हम एक उदाहरण के रूप में एक रैखिक भविष्यवाणी समस्या लेंगे। मान लीजिए प्रेक्षित अदिश यादृच्छिक चरों का एक रैखिक संयोजन और किसी अन्य भविष्य के अदिश यादृच्छिक चर का अनुमान लगाने के लिए उपयोग किया जाएगा ऐसा है कि . यदि यादृच्छिक चर शून्य माध्य और इसके सहप्रसरण आव्यूह के साथ वास्तविक गाऊसी यादृच्छिक चर हैं

तो हमारा कार्य गुणांक ज्ञात करना है ऐसा कि यह एक इष्टतम रैखिक अनुमान प्राप्त करेगा .

पिछले अनुभागों में विकसित शब्दावली के संदर्भ में, इस समस्या के लिए हमारे पास अवलोकन सदिश है , अनुमानक आव्यूह एक पंक्ति सदिश और अनुमानित चर के रूप में एक अदिश राशि के रूप में. स्वत:सहसंबंध आव्यूह परिभाषित किया जाता है

क्रॉस सहसंबंध आव्यूह परिभाषित किया जाता है

अब हम समीकरण हल करते हैं उलट कर और प्राप्त करने के लिए पूर्व-गुणा करना

तो हमारे पास और के लिए इष्टतम गुणांक के रूप में . न्यूनतम की गणना तो माध्य वर्ग त्रुटि देता है .[1] ध्यान दें कि इसके विपरीत एक स्पष्ट आव्यूह प्राप्त करना आवश्यक नहीं है के मूल्य की गणना करने के लिए . आव्यूह समीकरण को गॉस उन्मूलन विधि जैसी प्रसिद्ध विधियों द्वारा हल किया जा सकता है। ऑर्थोगोनैलिटी सिद्धांत में एक छोटा, गैर-संख्यात्मक उदाहरण पाया जा सकता है।

उदाहरण 2

एक सदिश पर विचार करें लेकर गठित किया गया एक निश्चित लेकिन अज्ञात अदिश पैरामीटर का अवलोकन सफ़ेद गॉसियन शोर से परेशान। हम इस प्रक्रिया का वर्णन एक रैखिक समीकरण द्वारा कर सकते हैं , कहाँ . संदर्भ के आधार पर यह स्पष्ट होगा कि क्या एक अदिश (गणित) या एक सदिश का प्रतिनिधित्व करता है। मान लीजिए कि हम जानते हैं वह सीमा होना जिसके भीतर का मान है में गिरने वाला है। हम अपनी अनिश्चितता का मॉडल बना सकते हैं एक अंतराल पर पूर्व समान वितरण (निरंतर) द्वारा , और इस तरह का भिन्नता होगी . चलो शोर सदिश सामान्य रूप से वितरित किया जाए कहाँ एक पहचान आव्यूह है. भी और स्वतंत्र हैं और . यह देखना आसान है

इस प्रकार, रैखिक एमएमएसई अनुमानक द्वारा दिया जाता है

हम इसके वैकल्पिक रूप का उपयोग करके अभिव्यक्ति को सरल बना सकते हैं जैसा

कहाँ के लिए अपने पास इसी प्रकार, अनुमानक का विचरण है

इस प्रकार इस रैखिक अनुमानक का एमएमएसई है

बहुत बड़े के लिए , हम देखते हैं कि समान पूर्व वितरण वाले एक अदिश के एमएमएसई अनुमानक को सभी देखे गए डेटा के अंकगणितीय औसत द्वारा अनुमानित किया जा सकता है

जबकि विचरण डेटा से अप्रभावित रहेगा और अनुमान का एलएमएमएसई शून्य हो जाएगा।

हालाँकि, अनुमानक उप-इष्टतम है क्योंकि यह रैखिक होने के लिए बाध्य है। यादृच्छिक चर था गॉसियन भी होता, तो अनुमानक इष्टतम होता। ध्यान दें, कि पूर्वानुमेय वितरण की परवाह किए बिना, अनुमानक का रूप अपरिवर्तित रहेगा , जब तक कि इन वितरणों का माध्य और विचरण समान है।

उदाहरण 3

उपरोक्त उदाहरण की विविधता पर विचार करें: दो उम्मीदवार एक चुनाव के लिए खड़े हैं। बता दें कि चुनाव के दिन एक उम्मीदवार को वोटों का अंश प्राप्त होगा इस प्रकार दूसरे उम्मीदवार को वोटों का अंश प्राप्त होगा हम लेंगे एक समान पूर्व वितरण के साथ एक यादृच्छिक चर के रूप में ताकि इसका माध्य हो और विचरण है चुनाव से कुछ हफ़्ते पहले, दो अलग-अलग सर्वेक्षणकर्ताओं द्वारा दो स्वतंत्र जनमत सर्वेक्षण आयोजित किए गए थे। पहले सर्वेक्षण से पता चला कि उम्मीदवार को मिलने की संभावना है वोटों का अंश. चूंकि सीमित नमूने और अपनाई गई विशेष मतदान पद्धति के कारण कुछ त्रुटि हमेशा मौजूद रहती है, इसलिए पहला सर्वेक्षणकर्ता अपने अनुमान में त्रुटि होने की घोषणा करता है। शून्य माध्य और विचरण के साथ इसी प्रकार, दूसरा सर्वेक्षणकर्ता अपना अनुमान घोषित करता है एक त्रुटि के साथ शून्य माध्य और विचरण के साथ ध्यान दें कि त्रुटि के माध्य और विचरण को छोड़कर, त्रुटि वितरण अनिर्दिष्ट है। किसी दिए गए उम्मीदवार के लिए मतदान की भविष्यवाणी प्राप्त करने के लिए दोनों सर्वेक्षणों को कैसे जोड़ा जाना चाहिए?

पिछले उदाहरण की तरह, हमारे पास है

यहाँ, दोनों . इस प्रकार, हम एलएमएमएसई अनुमान को रैखिक संयोजन के रूप में प्राप्त कर सकते हैं और जैसा

जहां वजन दिया जाता है

यहां, चूंकि हर पद स्थिर है, इसलिए चुनाव परिणाम की भविष्यवाणी करने के लिए कम त्रुटि वाले मतदान को अधिक महत्व दिया जाता है। अंत में, का विचरण द्वारा दिया गया है

किसने बनाया तुलना में छोटा इस प्रकार, एलएमएमएसई द्वारा दिया गया है

सामान्य तौर पर, अगर हमारे पास है फिर, प्रदूषक जहां आई-वें पोलस्टर के लिए वजन दिया गया है और एलएमएमएसई द्वारा दिया गया है


उदाहरण 4

मान लीजिए कि एक संगीतकार एक वाद्ययंत्र बजा रहा है और ध्वनि दो माइक्रोफोनों द्वारा प्राप्त की जाती है, जिनमें से प्रत्येक दो अलग-अलग स्थानों पर स्थित हैं। प्रत्येक माइक्रोफ़ोन पर दूरी के कारण ध्वनि का क्षीणन होने दें और , जिन्हें ज्ञात स्थिरांक माना जाता है। इसी प्रकार, प्रत्येक माइक्रोफ़ोन पर शोर होने दें और , प्रत्येक शून्य माध्य और भिन्नता के साथ और क्रमश। होने देना संगीतकार द्वारा उत्पादित ध्वनि को निरूपित करें, जो शून्य माध्य और विचरण के साथ एक यादृच्छिक चर है इन दोनों माइक्रोफोनों से रिकॉर्ड किए गए संगीत को एक-दूसरे के साथ समन्वयित करने के बाद कैसे संयोजित किया जाना चाहिए?

हम प्रत्येक माइक्रोफोन द्वारा प्राप्त ध्वनि को इस प्रकार मॉडल कर सकते हैं

यहाँ दोनों . इस प्रकार, हम दोनों ध्वनियों को इस प्रकार जोड़ सकते हैं

जहां i-वें भार इस प्रकार दिया गया है


यह भी देखें

  • बायेसियन अनुमानक
  • मतलब चुकता त्रुटि
  • कम से कम वर्गों
  • न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई)
  • रूढ़िवादिता सिद्धांत
  • विनीज़ फ़िल्टर
  • कलमन फ़िल्टर
  • रैखिक भविष्यवाणी
  • शून्य-बल तुल्यकारक

टिप्पणियाँ

  1. Moon and Stirling.


अग्रिम पठन

  • Johnson, D. "Minimum Mean Squared Error Estimators". Connexions. Archived from Minimum Mean Squared Error Estimators the original on 25 July 2008. Retrieved 8 January 2013. {{cite web}}: Check |url= value (help)
  • Jaynes, E.T. (2003). Probability Theory: The Logic of Science. Cambridge University Press. ISBN 978-0521592710.
  • Bibby, J.; Toutenburg, H. (1977). Prediction and Improved Estimation in Linear Models. Wiley. ISBN 9780471016564.
  • Lehmann, E. L.; Casella, G. (1998). "Chapter 4". Theory of Point Estimation (2nd ed.). Springer. ISBN 0-387-98502-6.
  • Kay, S. M. (1993). Fundamentals of Statistical Signal Processing: Estimation Theory. Prentice Hall. pp. 344–350. ISBN 0-13-042268-1.
  • Luenberger, D.G. (1969). "Chapter 4, Least-squares estimation". Optimization by Vector Space Methods (1st ed.). Wiley. ISBN 978-0471181170.
  • Moon, T.K.; Stirling, W.C. (2000). Mathematical Methods and Algorithms for Signal Processing (1st ed.). Prentice Hall. ISBN 978-0201361865.
  • Van Trees, H. L. (1968). Detection, Estimation, and Modulation Theory, Part I. New York: Wiley. ISBN 0-471-09517-6.
  • Haykin, S.O. (2013). Adaptive Filter Theory (5th ed.). Prentice Hall. ISBN 978-0132671453.