न्यूनतम माध्य वर्ग त्रुटि

सांख्यिकी विज्ञान और संकेत प्रसंस्करण में, न्यूनतम माध्य वर्ग त्रुटि (एमएमएसई) अनुमानकर्ता एक अनुमानन पद्धति है जो एक निर्धारित चरण वाले प्रत्याप्त चर के लिए फिट किए गए मानों के औसत वर्ग त्रुटि (एमएसई) को कम करती है। एमएसई एक अनुमानकर्ता गुणवत्ता का एक सामान्य माप है।

बायेसियन अनुमानक सेटिंग में, शब्द "एमएमएसई" विशेष रूप से वर्गीकरण त्रुटि फलन के साथ अनुमानन को दर्शाता है। ऐसे स्थिति   में, एमएमएसई अनुमानकर्ता को अनुमानित पैरामीटर के उपांशीक्षांत मान द्वारा दिया जाता है। चूँकि उपांशीक्षांत मान को निर्धारित करना बहुत कठिन हो सकता है, इसलिए एमएमएसई अनुमानकर्ता का रूप सामान्यतः कुछ विशेष कक्षा के फलन  में होता है। रेखीय एमएमएसई अनुमानकर्ता एक लोकप्रिय चयन हैं क्योंकि उन्हें उपयोग करना सरल होता है, उन्हें गणना करना आसान होता है, और बहुत से उदाहरणों में उपयोगी होते हैं। इसने वेनर-कोलमोगोरोव फ़िल्टर और कालमन फ़िल्टर जैसे कई प्रसिद्ध अनुमानकर्ताओं को उत्पन्न किया है।

प्रेरणा
एमएमएसई शब्द विशेष रूप से बेजियन सेटिंग में वर्गीकरण लागत फलन के साथ अनुमानन को दर्शाता है। अनुमानन के लिए बेजियन दृष्टिकोण के पीछे मूलभूत विचार का आधारीकरण व्यापक समस्याओं से होता है जहां हमें प्रायः अनुमानित पैरामीटर के बारे में कुछ पूर्व जानकारी होती है। उदाहरण के लिए, हमें अनुमानित पैरामीटर के रेंज के बारे में पूर्व जानकारी हो सकती है; या हमें अनुमानित पैरामीटर का पुराना अनुमान हो सकता है जिसे हम एक नई अवलोकन उपलब्ध करने पर संशोधित करना चाहते हैं; या बोलचाल जैसे एक वास्तविक यादृच्छिक संकेत के सांख्यिकीय हिस्से के बारे में जानकारी हो सकती है। यह न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई) जैसे गैर-बायेसियन दृष्टिकोण के विपरीत है, जहां पैरामीटर के बारे में पहले से कुछ भी ज्ञात नहीं माना जाता है और जो ऐसी स्थितियों के लिए उत्तरदायी नहीं है। बायेसियन दृष्टिकोण में, ऐसी पूर्व जानकारी मापदंडों के पूर्व संभाव्यता घनत्व फलन द्वारा अधिकृत की जाती है; और सीधे बेयस प्रमेय पर आधारित, यह हमें अधिक अवलोकन उपलब्ध होने पर पश्च अनुमान लगाने की अनुमति देता है। इस प्रकार गैर-बायेसियन दृष्टिकोण के विपरीत जहां रुचि के मापदंडों को नियतात्मक, परंतु अज्ञात स्थिरांक माना जाता है, बायेसियन अनुमानक एक पैरामीटर का अनुमान लगाना चाहता है जो स्वयं एक यादृच्छिक चर है। इसके अतिरिक्त, बायेसियन अनुमान उन स्थितियों से भी निपट सकता है जहां अवलोकनों का क्रम आवश्यक रूप से स्वतंत्र नहीं है। इस प्रकार बायेसियन अनुमान एमवीयूई के लिए एक और विकल्प प्रदान करता है। यह तब उपयोगी होता है जब एमवीयूई उपस्थित नहीं है या पाया नहीं जा सकता है।

परिभाषा
यहां, $$x$$ एक $$n \times 1$$ छिपा हुआ यादृच्छिक सदिश चर और $$y$$ एक $$m \times 1$$ ज्ञात यादृच्छिक सदिश चर है, जिनमें से दोनों सदिशो के आयाम आवश्यक रूप से एक समान नहीं हैं। एक अनुमानकर्ता $$\hat{x}(y)$$ एक ऐसा फलन है जो मापन $$y$$ का कोई भी फलन होता है। अनुमानन त्रुटि सदिश द्वारा दिया जाता है $$e = \hat{x} - x$$ और इसका "औसत वर्गमूल त्रुटि" (एमएसई) त्रुटि सहप्रसरण आव्यूह के समापन से दिया जाता है।


 * $$\operatorname{MSE} = \operatorname{tr} \left\{ \operatorname{E}\{(\hat{x} - x)(\hat{x} - x)^T \} \right\} = \operatorname{E}\{(\hat{x} - x)^T(\hat{x} - x)\}, $$

यहां, $$x$$ के उपर लिया गया अपेक्षा $$\operatorname{E}$$ $$y$$ के शर्तबद्ध होता है। अर्थात, हम $$x$$ के लिए अपेक्षित मान की गणना $$y$$ पर शर्तबद्ध करके करते हैं। जब $$x$$ एक स्केलर चर होता है, तो एमएसई अभिव्यक्ति यह सरल हो जाती है: $$\operatorname{E} \left\{ (\hat{x} - x)^2 \right\}$$ इसमें $$\hat{x}$$ अनुमानक चर है और $$x$$ मूल चर है। यह अनुमानित चर और मूल चर के बीच विचलन का वर्ग होता है ध्यान दें कि एमएसई को अन्य विधियों से भी परिभाषित किया जा सकता है, क्योंकि
 * $$\operatorname{tr} \left\{ \operatorname{E}\{ee^T \} \right\} = \operatorname{E} \left\{ \operatorname{tr}\{ee^T \} \right\} = \operatorname{E}\{e^T e \} = \sum_{i=1}^n \operatorname{E}\{e_i^2\}.$$

एमएमएसई अनुमानक उस अनुमानक को कहते हैं जो न्यूनतम एमएसई को प्राप्त करता है:
 * $$\hat{x}{\operatorname{MMSE}}(y) = \operatorname{argmin}{\hat{x}} \operatorname{MSE}.$$

गुण
जब माध्य और चतुर्थिक अवरोध सीमित होते हैं, तो एमएमएसई अनुमानक एकद्रव्य  परिभाषित होता है और यह निम्नलिखित रूप में होता है:

$$\hat{x}_{\operatorname{MMSE}}(y) = \operatorname{E} \{x \mid y\}.$$
 * दूसरे शब्दों में,कहा जा सकता है कि एमएमएसई अनुमानकर्ता $$x$$ की शर्ती अपेक्षा होता है। इसे अन्य शब्दों में, यह निर्धारित करता है कि जब हमें माप की गई मानवी या वार्तालापिक डेटा होता है, तो हमें अधिकतम संभावना के अनुसार एमएमएसई अनुमानकर्ता $$\hat{x}{\mathrm{MMSE}}$$ पश्च माध्य  होता है और त्रुटि संवेदनशीलता मात्रिका $$C_e$$ पश्च विकल्प मात्रिका $$C{X|Y}$$ के बराबर होती है:

$$\hat{x}{\mathrm{MMSE}} = \operatorname{E}(x|y)$$ $$C_e = C{X|Y}$$


 * ऊपर उल्लिखित नियमितता मान्यताओं के अंतर्गत एमएमएसई अनुमानक निष्पक्ष है :
 * $$\operatorname{E}\{\hat{x}_{\operatorname{MMSE}}(y)\} = \operatorname{E}\{\operatorname{E}\{x\mid y\}\} = \operatorname{E}\{x\}.$$


 * एमएमएसई अनुमानक असममित रूप से निष्पक्ष है और यह सामान्य वितरण में वितरण में परिवर्तित होता है:
 * $$ \sqrt{n}(\hat{x}_{\operatorname{MMSE}} - x) \xrightarrow{d} \mathcal{N}\left(0, I^{-1}(x)\right),$$
 * यहाँ $$I(x)$$ की फिशर जानकारी है. इस प्रकार $$x$$ एमएमएसई अनुमानक दक्षता है।


 * रूढ़ीवाद सिद्धांत: जब $$x$$ एक अदिश राशि है, एक अनुमानक जो निश्चित आकार $$\hat{x}=g(y)$$ का होने के लिए बाध्य है एक इष्टतम अनुमानक है, अर्थात  $$\hat{x}_{\operatorname{MMSE}}=g^*(y),$$ और यदि                                                                                                                                   $$\operatorname{E} \{ (\hat{x}_{\operatorname{MMSE}}-x) g(y) \} = 0$$
 * सभी के लिए $$g(y)$$ बंद, रैखिक उपस्थान में $$\mathcal{V} = \{g(y)\mid g:\mathbb{R}^m \rightarrow \mathbb{R}, \operatorname{E}\{g(y)^2\} < + \infty \}$$ माप का यादृच्छिक सदिश  के लिए, चूंकि एक यादृच्छिक सदिश के आकलन के लिए एमएसई निर्देशांक के एमएसई का योग है, एक यादृच्छिक सदिश के एमएमएसई अनुमानक को खोजने से $$x$$ के निर्देशांक के एमएमएसई अनुमानक को अलग से ढूंढने में विघटित हो जाता है:
 * $$\operatorname{E} \{ (g_i^*(y)-x_i) g_j(y) \} = 0,$$ :सभी i और j के लिए अधिक संक्षेप में कहें तो, न्यूनतम अनुमान त्रुटि के बीच अंतर-सहसंबंध $$\hat{x}_{\operatorname{MMSE}}-x$$ और अनुमानक $$\hat{x}$$ शून्य होता है ,
 * $$\operatorname{E} \{ (\hat{x}_{\operatorname{MMSE}}-x)\hat{x}^T \} = 0.$$


 * यदि $$x$$ और $$y$$ संयुक्त रूप से गाऊसी हैं, तो एमएमएसई अनुमानक रैखिक है, अर्थात, इसका रूप है $$Wy+b$$ आव्यूह के लिए $$W$$ और $$b$$ स्थिर होते है। इसे बेयस प्रमेय का उपयोग करके सीधे दिखाया जा सकता है। परिणामस्वरूप, एमएमएसई अनुमानक को खोजने के लिए, रैखिक एमएमएसई अनुमानक को ढूंढना पर्याप्त है।

रैखिक एमएमएसई अनुमानक
कई स्थितियों में, एमएमएसई अनुमानक की विश्लेषणात्मक अभिव्यक्ति निर्धारित करना संभव नहीं है। एमएमएसई अनुमान प्राप्त करने के दो आसान आंकड़ीय विधि हैं जो निम्नलिखित कोणीय अपेक्षा $$\operatorname{E}\{x\mid y\}$$ का पता लगाने पर निर्भर करते हैं सशर्त अपेक्षा का प्रत्यक्ष संख्यात्मक मूल्यांकन कम्प्यूटेशनल रूप से महंगा है क्योंकि इसके लिए प्रायः बहुआयामी एकीकरण की आवश्यकता होती है जो सामान्यतः मोंटे कार्लो विधियों के माध्यम से किया जाता है। एक अन्य कम्प्यूटेशनल दृष्टिकोण स्टोकेस्टिक ग्रेडिएंट डिसेंट जैसी तकनीकों का उपयोग करके सीधे एमएसई की न्यूनतमता की अंवेषण, करता है; परंतु इस पद्धति को अभी भी अपेक्षा के मूल्यांकन की आवश्यकता है। यद्यपि ये संख्यात्मक विधियाँ उपयोगी रही हैं, फिर भी यदि हम सहमति करने के इच्छुक हैं तो एमएमएसई अनुमानक के लिए एक बंद फॉर्म अभिव्यक्ति संभव है।

इसलिए, हम प्राधिकरण करते हैं कि $$y$$ के दिए गए शर्ताधीन अपेक्षा $$x$$ का शर्ताधीन अपेक्षा एक सरल रैखिक फलन है, $$\operatorname{E}{x\mid y} = Wy + b$$, जहाँ $$y$$ एक यादृच्छिक वेक्टर है, $$W$$ एक आव्यूह   है और $$b$$ एक वेक्टर है। इसे $$\operatorname{E}{x\mid y}$$ का पहले अवधि टेलर अनुमान के रूप में देखा जा सकता है। रैखिक एमएमएसई अनुमान एक अनुमानकर्ता है जो ऐसे रूप के सभी अनुमानों में मिनिमम MSE प्राप्त करता है। इसका अर्थ है, यह निम्नलिखित अनुक्रमणिक समस्या का समाधान करता है:

इस प्रकार के रैखिक एमएमएसई अनुमान का एक लाभ यह है कि इसके लिए $$x$$ की प्रत्याश्रित प्राकृतिक घनत्व फलन को स्पष्ट रूप से गणना करने की आवश्यकता नहीं है। इस रैखिक अनुमानकर्ता केवल $$x$$ और $$y$$ के पहले दो केंद्रबिन्दु के आधार पर ही निर्भर करता है। इसलिए यह सुविधा होती है कि हम यह मानें कि $$x$$ और $$y$$ संयुक्त गौसियन हैं, परंतु इस अनुमान को करने के लिए यह ज़रूरी नहीं है, जिससे लंबित वितरण का अनुमान किया जा सके, जिसकी पहली और दूसरी केंद्रबिन्दु से अच्छी तरह परिभाषित हैं। रैखिक अनुमानकर्ता का रूप उस अनुमानित आधारित वितरण के प्रकार पर नहीं निर्भर करता है।:

इष्टतम के लिए अभिव्यक्ति $$b$$ और $$W$$ द्वारा दिया गया है:
 * $$b = \bar{x} - W \bar{y},$$:$$ W = C_{XY}C^{-1}_{Y}.$$

यहाँ $$\bar{x} = \operatorname{E}\{x\}$$, $$\bar{y} = \operatorname{E}\{y\},$$ $$C_{XY}$$ के बीच क्रॉस-कोवेरिएंस  $$x$$ और $$y$$, आव्यूह है $$C_{Y}$$ का ऑटो-कोवेरिएंस आव्यूह है.

इस प्रकार, रैखिक एमएमएसई अनुमानक, इसके माध्य और इसके ऑटो-सहप्रसरण के लिए अभिव्यक्ति दी गई है
 * $$\hat{x} = C_{XY}C^{-1}_{Y}(y-\bar{y}) + \bar{x},$$
 * $$\operatorname{E}\{\hat{x}\} = \bar{x},$$
 * $$C_{\hat{X}} = C_{XY} C^{-1}_Y C_{YX},$$

जहां $$C_{YX}$$ के बीच क्रॉस-कोवेरिएंस आव्यूह  है $$y$$ और $$x$$.

अंत में, ऐसे अनुमानक द्वारा प्राप्त होने वाली त्रुटि सहप्रसरण और न्यूनतम माध्य वर्ग त्रुटि है


 * $$C_e = C_X - C_{\hat{X}} = C_X - C_{XY} C^{-1}_Y C_{YX},$$
 * $$\operatorname{LMMSE} = \operatorname{tr} \{C_e\}.$$

आइए हमारे पास इष्टतम रैखिक एमएमएसई अनुमानक दिया गया है $$\hat{x} = Wy+b$$, जहां हमें इसके लिए अभिव्यक्ति ढूंढने की आवश्यकता होती है $$W$$ और $$b$$. यह आवश्यक है कि एमएमएसई अनुमानक निष्पक्ष हो। इसका मतलब यह है,


 * $$\operatorname{E}\{\hat{x}\} = \operatorname{E}\{x\}.$$

के लिए अभिव्यक्ति को प्लग करना $$\hat{x}$$ उपरोक्त में, हम पाते हैं


 * $$b = \bar{x} - W \bar{y},$$

कहाँ $$\bar{x} = \operatorname{E}\{x\}$$ और $$\bar{y} = \operatorname{E}\{y\}$$. इस प्रकार हम अनुमानक को इस प्रकार पुनः लिख सकते हैं


 * $$\hat{x} = W(y-\bar{y}) + \bar{x}$$

और अनुमान त्रुटि की अभिव्यक्ति बन जाती है


 * $$\hat{x} - x = W(y-\bar{y}) - (x-\bar{x}).$$

रूढ़िवादिता सिद्धांत से, हम प्राप्त कर सकते हैं $$\operatorname{E} \{ (\hat{x}-x) (y-\bar{y})^T\} = 0$$, हम कहाँ लेते हैं $$g(y) = y - \bar{y}$$. यहाँ बायीं ओर का पद है



\begin{align} \operatorname{E} \{ (\hat{x}-x)(y - \bar{y})^T\} &= \operatorname{E} \{ (W(y-\bar{y}) - (x-\bar{x})) (y - \bar{y})^T \} \\ &= W \operatorname{E} \{(y-\bar{y})(y-\bar{y})^T \} - \operatorname{E} \{ (x-\bar{x})(y-\bar{y})^T \} \\ &= WC_Y - C_{XY}. \end{align} $$ जब शून्य के बराबर किया जाता है, तो हमें वांछित अभिव्यक्ति प्राप्त होती है $$W$$ जैसा


 * $$ W = C_{XY}C^{-1}_Y .$$

$$C_{XY}$$ h> X और Y के बीच क्रॉस-कोवेरिएंस मैट्रिक्स है, और $$C_{Y}$$ Y का ऑटो-कोवरियन्स मैट्रिक्स है। चूँकि $$C_{XY}=C^T_{YX}$$, अभिव्यक्ति को के संदर्भ में भी दोबारा लिखा जा सकता है $$C_{YX}$$ जैसा


 * $$W^T = C^{-1}_Y C_{YX} .$$

इस प्रकार रैखिक एमएमएसई अनुमानक के लिए पूर्ण अभिव्यक्ति है


 * $$\hat{x} = C_{XY} C^{-1}_Y (y-\bar{y}) + \bar{x}.$$

अनुमान के बाद से $$\hat{x}$$ स्वयं एक यादृच्छिक चर है $$\operatorname{E}\{\hat{x}\} = \bar{x}$$, हम इसका स्वतः सहप्रसरण भी प्राप्त कर सकते हैं



\begin{align} C_{\hat{X}} &= \operatorname{E}\{(\hat x - \bar x)(\hat x - \bar x)^T\} \\ &= W \operatorname{E}\{(y-\bar{y})(y-\bar{y})^T\} W^T \\ &= W C_Y W^T .\\ \end{align} $$ के लिए अभिव्यक्ति रख रहा हूँ $$W$$ और $$W^T$$, हम पाते हैं


 * $$C_{\hat{X}} = C_{XY} C^{-1}_Y C_{YX}.$$

अंत में, रैखिक एमएमएसई अनुमान त्रुटि का सहप्रसरण तब दिया जाएगा



\begin{align} C_e &= \operatorname{E}\{(\hat x - x)(\hat x - x)^T\} \\ &= \operatorname{E}\{(\hat x - x)(W(y-\bar{y}) - (x-\bar{x}))^T\} \\ &= \underbrace{\operatorname{E}\{(\hat x - x)(y-\bar{y})^T \}}_0 W^T - \operatorname{E}\{(\hat x - x)(x-\bar{x})^T\} \\ &= - \operatorname{E}\{(W(y-\bar{y}) - (x-\bar{x}))(x-\bar{x})^T\} \\ &= \operatorname{E}\{(x-\bar{x})(x-\bar{x})^T\} - W \operatorname{E}\{(y-\bar{y})(x-\bar{x})^T\} \\ &= C_X - WC_{YX}. \end{align} $$ ऑर्थोगोनैलिटी सिद्धांत के कारण तीसरी पंक्ति में पहला पद शून्य है। तब से $$W = C_{XY}C^{-1}_Y$$, हम पुनः लिख सकते हैं $$C_e$$ सहप्रसरण मैट्रिक्स के संदर्भ में


 * $$C_e = C_X - C_{XY} C^{-1}_Y C_{YX} .$$

इसे हम वैसा ही मान सकते हैं $$C_e = C_X - C_{\hat{X}}.$$ इस प्रकार ऐसे रैखिक अनुमानक द्वारा प्राप्त की जाने वाली न्यूनतम माध्य वर्ग त्रुटि है


 * $$\operatorname{LMMSE} = \operatorname{tr}\{C_e\} $$.

अविभाज्य स्थिति
विशेष स्थिति के लिए जब दोनों $$x$$ और $$y$$ अदिश हैं, उपरोक्त संबंध को सरल बनाते हैं


 * $$ \hat{x} = \frac{\sigma_{XY}}{\sigma_Y^2}(y-\bar{y}) + \bar{x} = \rho \frac{\sigma_{X}}{\sigma_Y}(y-\bar{y}) + \bar{x},$$ :$$\sigma^2_e = \sigma_X^2 - \frac{\sigma_{XY}^2}{\sigma_Y^2} = (1 - \rho^2)\sigma_X^2,$$

यहाँ $$\rho = \frac{\sigma_{XY}}{\sigma_X \sigma_Y}$$ के बीच पियर्सन का सहसंबंध गुणांक $$x$$ और $$y$$ है

उपरोक्त दो समीकरण हमें सहसंबंध गुणांक की व्याख्या रैखिक प्रतिगमन के सामान्यीकृत ढलान के रूप में करने की अनुमति देते हैं


 * $$ \left(\frac{\hat{x} - \bar{x}}{\sigma_{X}}\right) = \rho \left(\frac{y-\bar{y}}{\sigma_Y}\right)$$

या दो प्रसरणों के अनुपात के वर्गमूल के रूप में


 * $$\rho^2 = \frac{\sigma_X^2 - \sigma_e^2}{\sigma_X^2} = \frac{\sigma^2_{\hat{X}}}{\sigma^2_X}$$.

तब $$\rho = 0$$, अपने पास $$\hat{x} = \bar{x}$$ और $$\sigma^2_e = \sigma_X^2$$. इस स्थिति में, माप से कोई नई जानकारी नहीं मिलती है जो $$x$$ अनिश्चितता को कम कर सके दूसरी ओर, जब $$\rho = \pm 1$$, अपने पास $$\hat{x} = \frac{\sigma_{XY}}{\sigma_Y}(y-\bar{y}) + \bar{x}$$ और $$\sigma^2_e = 0$$. यहाँ $$x$$ द्वारा $$y$$ पूर्णतः निर्धारित होता है, जैसा कि सीधी रेखा के समीकरण द्वारा दिया गया है।

गणना
सामान्य विधि जैसे गौस-समाप्ति का उपयोग $$W$$ के लिए आव्यूह समीकरण को हल करने के लिए किया जा सकता है। एक और संख्यात्मक रूप से स्थिर विधि QR विघटन विधि द्वारा प्रदान किया जाता है। क्योंकि आव्यूह $$C_Y$$ एक संघात सकारात्मक निर्धारित आव्यूह है, इसलिए $$W$$ को कोलेस्की विघटन के साथ दो बार तत्काल हल किया जा सकता है, जबकि बड़े विरल प्रणालियों के लिए संयुक्त अभियोजन विधि अधिक प्रभावी है। लेविन्सन पुनरावर्तन वह समयवेगीय विधि है जब $$C_Y$$ एक भी टोएप्लिट्ज़ आव्यूह है। यह इसलिए हो सकता है कि $$y$$ एक वाइड सेंस स्थिर प्रक्रिया है। इस तरह के स्थिर केस में, इन अनुमानकर्ताओं को भी विनर-कोल्मोगोरोव फ़िल्टर भी कहा जाता है।

रैखिक अवलोकन प्रक्रिया के लिए रैखिक एमएमएसई अनुमानक
आइए हम अवलोकन की अंतर्निहित प्रक्रिया को एक रैखिक प्रक्रिया के रूप में आगे प्रारूपित करें:

$$y=Ax+z$$, यहाँ $$A$$ एक ज्ञात आव्यूह है और $$z$$ माध्य के साथ यादृच्छिक शोर सदिश $$\operatorname{E}\{z\}=0$$ और क्रॉस-सहप्रसरण $$C_{XZ} = 0$$ है यहां आवश्यक माध्य और सहप्रसरण आव्यूह होंगे:


 * $$\operatorname{E}\{y\} = A\bar{x},$$
 * $$C_Y = AC_XA^T + C_Z,$$ :$$C_{XY} = C_X A^T .$$

इस प्रकार रैखिक एमएमएसई अनुमानक आव्यूह के लिए अभिव्यक्ति $$W$$ आगे संशोधित करता है


 * $$W = C_X A^T(AC_XA^T + C_Z)^{-1} .$$

प्रत्येक वस्तु को $$\hat{x}$$ के लिए एक अभिव्यक्ति में रखते हुए, हम निम्नलिखित प्राप्त करते हैं


 * $$\hat{x} = C_X A^T(AC_XA^T + C_Z)^{-1}(y-A\bar{x}) + \bar{x}.$$

अंत में, त्रुटि सहप्रसरण है


 * $$C_e = C_X - C_{\hat{X}} = C_X - C_X A^T(AC_XA^T + C_Z)^{-1}AC_X .$$

ऊपर दी गई अनुमान समस्या और न्यूनतम वर्गों और गॉस-मार्कोव प्रमेय अनुमान के बीच महत्वपूर्ण अंतर यह है कि अवलोकनों की संख्या m, कम से कम n अज्ञातों की संख्या जितनी बड़ी नहीं होनी चाहिए, रैखिक अवलोकन प्रक्रिया का अनुमान m से m आव्यूह तक $$(AC_XA^T + C_Z)^{-1}$$ उपस्थित रहता है, यह किसी भी m के लिए स्थिति है, उदाहरण के लिए, $$C_Z$$ सकारात्मक निश्चित है भौतिक रूप से इस गुण का कारण यह है कि तब से $$x$$ अब एक यादृच्छिक चर है, बिना किसी माप के भी एक सार्थक अनुमान अर्थात् इसका माध्य) बनाना संभव है। प्रत्येक नया माप बस अतिरिक्त जानकारी प्रदान करता है जो हमारे मूल अनुमान को संशोधित कर सकता है। इस अनुमान की एक अन्य विशेषता यह है कि m < n के लिए, कोई माप त्रुटि आवश्यक नहीं है। इस प्रकार, हमारे पास यह हो सकता है कि $$C_Z = 0$$  क्योंकि जब तक$$AC_XA^T$$ सकारात्मक प्रतिनिधि है, तब भी अनुमान बनता है। अंततः, यह तकनीक वहाँ भी उपयुक्त हो सकती है जहां शोर इकट्ठा होता है।

वैकल्पिक रूप
आव्यूह पहचान का उपयोग करके अभिव्यक्ति का एक वैकल्पिक रूप प्राप्त किया जा सकता है
 * $$C_X A^T(AC_XA^T + C_Z)^{-1} = (A^TC_Z^{-1}A + C_X^{-1})^{-1} A^T C_Z^{-1},$$

जिसे बाद में गुणा करके स्थापित किया जा सकता है $$(AC_XA^T + C_Z)$$ और पूर्व-गुणा करके $$(A^TC_Z^{-1}A + C_X^{-1}),$$ प्राप्त करने के लिए


 * $$W = (A^TC_Z^{-1}A + C_X^{-1})^{-1} A^TC_Z^{-1},$$ और
 * $$C_e = (A^TC_Z^{-1}A + C_X^{-1})^{-1}.$$

तब से $$W$$ अब के संदर्भ में लिखा जा सकता है $$C_e$$ जैसा $$W = C_e A^T C_Z^{-1}$$, हमें इसके लिए एक सरलीकृत $$\hat{x}$$ अभिव्यक्ति मिलती है जैसा


 * $$\hat{x} = C_e A^T C_Z^{-1}(y-A\bar{x}) + \bar{x}.$$

इस रूप में उपरोक्त अभिव्यक्ति की तुलना न्यूनतम वर्ग भारित न्यूनतम वर्ग और गॉस-मार्कोव प्रमेय अनुमान सरलता से की जा सकती है। विशेषकर, जब $$C_X^{-1}=0$$, संबंधित पूर्ववर्ती जानकारी के अनंत भिन्नता $$x$$ के अनुरूप, परिणाम $$W = (A^TC_Z^{-1}A)^{-1} A^TC_Z^{-1}$$ भारित रैखिक न्यूनतम वर्ग अनुमान के समान $$C_Z^{-1}$$  भारित आव्यूह के रूप में है।  इसके अतिरिक्त, यदि के घटक $$z$$ असंबंधित हैं और इनमें समान भिन्नता  $$C_Z = \sigma^2 I,$$है यहाँ $$I$$ तो, एक पहचान आव्यूह $$W = (A^TA)^{-1}A^T$$ है तो सामान्य न्यूनतम वर्ग अनुमान के समान है।

अनुक्रमिक रैखिक एमएमएसई अनुमान
कई वास्तविक समय अनुप्रयोगों में, अवलोकन संबंधी डेटा एक ही बैच में उपलब्ध नहीं होता है। इसके अतिरिक्त अवलोकन एक क्रम में किए जाते हैं। एक संभावित दृष्टिकोण पुराने अनुमान को अद्यतन करने के लिए अनुक्रमिक अवलोकनों का उपयोग करना है क्योंकि अतिरिक्त डेटा उपलब्ध हो जाता है, जिससे बेहतर अनुमान प्राप्त होते हैं। बैच अनुमान और अनुक्रमिक अनुमान के बीच एक महत्वपूर्ण अंतर यह है कि अनुक्रमिक अनुमान के लिए अतिरिक्त मार्कोव धारणा की आवश्यकता होती है।

बायेसियन ढांचे में, बायेस नियम का उपयोग करके ऐसे पुनरावर्ती अनुमान को सरलता से सुविधाजनक बनाया जा सकता है। दिया गया $$k$$ अवलोकन, $$y_1, \ldots, y_k$$, बेयस का नियम हमें पश्च घनत्व $$x_k$$ देता है जैसा



\begin{align} p(x_k|y_1, \ldots, y_k) &\propto p(y_k|x,y_1,\ldots,y_{k-1}) p(x_k|y_1, \ldots, y_{k-1}) \\ &= p(y_k|x_k) p(x_k|y_1, \ldots, y_{k-1}). \end{align} $$

यहां $$p(x_k|y_1, \ldots, y_k)$$ h> को पश्च घनत्व कहा जाता है, $$p(y_k|x_k)$$ संभाव्यता फलन कहलाता है, और $$p(x_k|y_1, \ldots, y_{k-1})$$ को k-वें समय-चरण का प्राथमिक घनत्व कहा जाता है। यहां हमने $$y_k$$ को पूर्विक अवलोकन $$y_1, \ldots, y_{k-1}$$ दिए गए $$x$$ के लिए शर्ताधीन स्वतंत्रता के रूप में मान लिया गया है।


 * $$p(y_k|x_k,y_1,\ldots,y_{k-1}) = p(y_k|x_k).$$
 * यह मार्कोव धारणा है:
 * एमएमएसई अनुमान $$\hat{x}_k$$ जो कि k-वें अवलोकन के आधार पर है, वह पश्च घनत्व $$p(x_k|y_1,\ldots, y_k)$$ का औसत है। यदि हमारे पास क्षेत्र, $$x$$ के समय के साथ कैसे बदलता है के बारे में गतिशील जानकारी न हो, तो हम प्राथमिकता के बारे में एक अतिरिक्त स्थिरता कल्पना करेंगे:
 * $$p(x_k|y_1, \ldots, y_{k-1}) = p(x_{k-1}|y_1, \ldots, y_{k-1}).$$

इस प्रकार, k-वें समय चरण के लिए पूर्व घनत्व (k-1)-वें समय चरण का पश्च घनत्व है। यह संरचना हमें अनुमान के लिए एक पुनरावर्ती दृष्टिकोण तैयार करने की अनुमति देती है।

रैखिक एमएमएसई अनुमानक के संदर्भ में, अनुमान के सूत्र का रूप पहले जैसा ही होगा: $$\hat{x} = C_{XY}C^{-1}_{Y}(y-\bar{y}) + \bar{x}.$$

यद्यपि, माध्य और सहप्रसरण आव्यूह $$X$$ और $$Y$$ पूर्व घनत्व वाले लोगों द्वारा प्रतिस्थापित करने की आवश्यकता होगी $$p(x_k|y_1,\ldots, y_{k-1})$$ और संभावना $$p(y_k|x_k)$$, क्रमश पूर्व घनत्व के लिए $$p(x_k|y_1, \ldots, y_{k-1})$$, इसका माध्य पिछले एमएमएसई अनुमान द्वारा दिया गया है,


 * $$\bar{x}_{k}=\mathrm{E}[x_k|y_1,\ldots,y_{k-1}]=\mathrm{E}[x_{k-1}|y_1,\ldots,y_{k-1}]=\hat{x}_{k-1}$$,

और इसका सहप्रसरण आव्यूह पिछली त्रुटि सहप्रसरण आव्यूह द्वारा दिया गया है,

एमएमएसई अनुमानकों के गुणों और स्थिरता धारणा के अनुसार:


 * $$C_{X_k|Y_1,\ldots,Y_{k-1}} = C_{X_{k-1}|Y_1,\ldots,Y_{k-1}} = C_{e_{k-1}},$$

इसी प्रकार, रैखिक अवलोकन प्रक्रिया के लिए, संभावना का माध्य $$p(y_k|x_k)$$ द्वारा $$\bar{y}_k = A\bar{x}_k = A\hat{x}_{k-1}$$ दिया गया है और सहप्रसरण आव्यूह पहले जैसा है



\begin{align} C_{Y_k|X_k} &= A C_{X_k|Y_1,\ldots,Y_{k-1}} A^T + C_Z = A C_{e_{k-1}} A^T + C_Z. \end{align} $$.

के अनुमानित मूल्य के बीच का अंतर $$Y_k$$, जैसा कि दिया गया है $$\bar{y}_k = A\hat{x}_{k-1}$$, और इसका अवलोकित मूल्य $$y_k$$ भविष्यवाणी त्रुटि $$\tilde{y}_k = y_k - \bar{y}_k$$, देता है जिसे नवप्रवर्तन या अवशिष्ट भी कहा जाता है। भविष्यवाणी त्रुटि के संदर्भ में रैखिक एमएमएसई का प्रतिनिधित्व करना अधिक सुविधाजनक है, जिसका माध्य और सहप्रसरण $$\mathrm{E}[\tilde{y}_k] = 0$$ और $$C_{\tilde{Y}_k} = C_{Y_k|X_k}$$ हैं।

इसलिए, अनुमान अद्यतन सूत्र $$\bar{x}$$ और $$C_X$$ द्वारा $$\hat{x}_{k-1}$$ और $$C_{e_{k-1}}$$, क्रमश हमें प्रतिस्थापित करना चाहिए। इसके अतिरिक्त, $$\bar{y}$$ और $$C_Y$$ द्वारा $$\bar{y}_{k-1}$$ और $$C_{\tilde{Y}_k}$$. अंत में,$$C_{XY}$$ द्वारा हम प्रतिस्थापित करते हैं:



\begin{align} C_{X_k Y_k| Y_1,\ldots, Y_{k-1}} &= C_{e_{k-1}\tilde{Y}_k} = C_{e_{k-1}}A^T. \end{align} $$ इस प्रकार, हमारे पास नया अनुमान नए अवलोकन के रूप में $$y_k$$आता है

\begin{align} \hat{x}_k &= \hat{x}_{k-1} + C_{e_{k-1} \tilde{Y}_k} C_{\tilde{Y}_k}^{-1} (y_k - \bar{y}_k) \\ &= \hat{x}_{k-1} + C_{e_{k-1}}A^T (AC_{e_{k-1}}A^T + C_Z)^{-1}(y_k-A\hat{x}_{k-1}) \end{align} $$ और नई त्रुटि सहप्रसरण के रूप में
 * $$C_{e_k} = C_{e_{k-1}} - C_{e_{k-1}}A^T(AC_{e_{k-1}}A^T + C_Z)^{-1}AC_{e_{k-1}}.$$

रैखिक बीजगणित के दृष्टिकोण से, अनुक्रमिक अनुमान के लिए, यदि हमारे पास कोई अनुमान $$\hat{x}_1$$है माप के आधार पर स्थान उत्पन्न करना $$Y_1$$, फिर माप का एक और समुच्चय प्राप्त करने के बाद, हमें इन मापों से वह भाग घटा देना चाहिए जिसका पहले माप के परिणाम से अनुमान लगाया जा सकता है। दूसरे शब्दों में, अद्यतनीकरण नए डेटा के उस हिस्से पर आधारित होना चाहिए जो पुराने डेटा के लिए ऑर्थोगोनल है।

अधिक अवलोकन उपलब्ध होने पर उपरोक्त दो समीकरणों का बार-बार उपयोग पुनरावर्ती अनुमान तकनीकों को उत्पन्न करता है। तथा इन भावों को अधिक संक्षिप्त रूप में लिखा जा सकता है


 * $$W_{k} = C_{e_{k-1}} A^T(AC_{e_{k-1}}A^T + C_Z)^{-1},$$
 * $$\hat{x}_{k} = \hat{x}_{k-1} + W_{k} (y_{k}-A\hat{x}_{k-1}),$$
 * $$C_{e_{k}} = (I - W_{k} A)C_{e_{k-1}}.$$

आव्यूह $$W_k$$ इसे प्रायः कलमन लाभ कारक के रूप में जाना जाता है उपरोक्त कलन विधि का वैकल्पिक सूत्रीकरण देगा


 * $$C_{e_{k}}^{-1} = C_{e_{k-1}}^{-1} + A^T C_Z^{-1} A,$$
 * $$W_{k} = C_{e_{k}} A^T C_Z^{-1},$$
 * $$\hat{x}_{k} = \hat{x}_{k-1} + W_{k} (y_{k}-A\hat{x}_{k-1}),$$

अधिक डेटा उपलब्ध होने पर इन तीन चरणों की पुनरावृत्ति एक पुनरावृत्त अनुमान कलन विधि की ओर ले जाती है। गैर-स्थिर स्थितियों में इस विचार का सामान्यीकरण कलमन फ़िल्टर को जन्म देता है। ऊपर उल्लिखित तीन अद्यतन चरण वास्तव में कलमन फ़िल्टर का अद्यतन चरण बनाते हैं।

विशेष मामला: अदिश प्रेक्षण
एक महत्वपूर्ण विशेष स्थिति  के रूप में, उपयोग में आसान पुनरावर्ती अभिव्यक्ति तब प्राप्त की जा सकती है जब प्रत्येक k-वें समय पर अंतर्निहित रैखिक अवलोकन प्रक्रिया एक स्केलर उत्पन्न करती है जैसे कि $$y_k = a_k^T x_k + z_k$$, कहाँ $$a_k$$ n-by-1 ज्ञात कॉलम सदिश    है जिसका मान समय के साथ बदल सकता है, $$x_k$$ अनुमान लगाने के लिए एन-बाय-1 यादृच्छिक कॉलम सदिश    है, और $$z_k$$ विचरण के साथ अदिश शोर शब्द है $$\sigma_k^2$$. (k+1)-वें अवलोकन के बाद, उपरोक्त पुनरावर्ती समीकरणों का प्रत्यक्ष उपयोग अनुमान के लिए अभिव्यक्ति देता है $$\hat{x}_{k+1}$$ जैसा:
 * $$\hat{x}_{k+1} = \hat{x}_k + w_{k+1}(y_{k+1} - a^T_{k+1} \hat{x}_k)$$

कहाँ $$y_{k+1}$$ नया अदिश अवलोकन और लाभ कारक है $$w_{k+1}$$ n-by-1 कॉलम सदिश   द्वारा दिया गया है
 * $$w_{k+1} = \frac{C_{e_k} a_{k+1}}{\sigma^2_{k+1} + a^T_{k+1}C_{e_k} a_{k+1}}.$$

$$C_{e_{k+1}}$$ h> द्वारा दिया गया n-by-n त्रुटि सहप्रसरण आव्यूह  है
 * $$C_{e_{k+1}} = (I - w_{k+1}a^T_{k+1})C_{e_k} .$$

यहां, किसी आव्यूह  व्युत्क्रम की आवश्यकता नहीं है। इसके अलावा, लाभ कारक, $$w_{k+1}$$, नए डेटा नमूने में हमारे विश्वास पर निर्भर करता है, जैसा कि पिछले डेटा की तुलना में शोर भिन्नता द्वारा मापा जाता है। के प्रारंभिक मान $$\hat{x}$$ और $$C_e$$ पूर्व संभाव्यता घनत्व फलन  का माध्य और सहप्रसरण माना जाता है $$x$$.

वैकल्पिक दृष्टिकोण: इस महत्वपूर्ण विशेष स्थिति  ने कई अन्य पुनरावृत्त तरीकों (या अनुकूली फ़िल्टर) को भी जन्म दिया है, जैसे कि न्यूनतम माध्य वर्ग फ़िल्टर और पुनरावर्ती न्यूनतम वर्ग फ़िल्टर, जो स्टोकेस्टिक ग्रेडिएंट डीसेंट का उपयोग करके मूल एमएसई अनुकूलन समस्या को सीधे हल करता है। यद्यपि  , अनुमान त्रुटि के बाद से $$e$$ सीधे तौर पर नहीं देखा जा सकता, ये विधियाँ माध्य वर्ग पूर्वानुमान त्रुटि को कम करने का प्रयास करती हैं $$\mathrm{E}\{\tilde{y}^T \tilde{y}\}$$. उदाहरण के लिए, अदिश प्रेक्षणों के स्थिति  में, हमारे पास ग्रेडिएंट है $$\nabla_{\hat{x}} \mathrm{E}\{\tilde{y}^2\} = -2 \mathrm{E}\{\tilde{y} a\}.$$ इस प्रकार, न्यूनतम माध्य वर्ग फ़िल्टर के लिए अद्यतन समीकरण इस प्रकार दिया गया है
 * $$\hat{x}_{k+1} = \hat{x}_k + \eta_k \mathrm{E}\{\tilde{y}_k a_k\},$$

कहाँ $$\eta_k$$ अदिश चरण का आकार है और अपेक्षा का अनुमान तात्कालिक मान से लगाया जाता है $$\mathrm{E}\{a_k \tilde{y}_k\} \approx a_k \tilde{y}_k$$. जैसा कि हम देख सकते हैं, ये विधियाँ सहप्रसरण आव्यूह  की आवश्यकता को दरकिनार कर देती हैं।

विशेष मामला: असंबंधित शोर के साथ सदिश  अवलोकन
कई व्यावहारिक अनुप्रयोगों में, अवलोकन शोर असंबंधित है। वह है, $$C_Z$$ एक विकर्ण आव्यूह  है. ऐसे मामलों में, इसके घटकों पर विचार करना लाभप्रद है $$y$$ सदिश   माप के अतिरिक्त     स्वतंत्र अदिश माप के रूप में। यह हमें प्रसंस्करण करके गणना समय को कम करने की अनुमति देता है $$m \times 1$$ माप सदिश    के रूप में $$m$$ अदिश माप. स्केलर अपडेट फॉर्मूला का उपयोग सहप्रसरण अद्यतन समीकरणों के कार्यान्वयन में आव्यूह  व्युत्क्रम से बचाता है, इस प्रकार राउंडऑफ त्रुटियों के खिलाफ संख्यात्मक मजबूती में सुधार करता है। अद्यतन को पुनरावर्ती रूप से इस प्रकार कार्यान्वित किया जा सकता है:


 * $$w_{k+1}^{(\ell)} = \frac{ C_{e_k}^{(\ell)} A^{(\ell) T}_{k+1} }{ C_{Z_{k+1}}^{(\ell)} + A_{k+1}^{(\ell)} C_{e_k}^{(\ell)} (A^{(\ell) T}_{k+1}) }$$ :$$C_{e_{k+1}}^{(\ell)} = (I - w_{k+1}^{(\ell)} A_{k+1}^{(\ell)})C_{e_k}^{(\ell)}$$
 * $$\hat{x}_{k+1}^{(\ell)} = \hat{x}_k^{(\ell-1)} + w_{k+1}^{(\ell)}(y_{k+1}^{(\ell)} - A_{k+1}^{(\ell)} \hat{x}_k^{(\ell-1)})$$

कहाँ $$\ell = 1, 2, \ldots, m$$, प्रारंभिक मानों का उपयोग करते हुए $$C_{e_{k+1}}^{(0)} = C_{e_{k}}$$ और $$\hat{x}_{k+1}^{(0)} = \hat{x}_{k}$$. मध्यवर्ती चर $$C_{Z_{k+1}}^{(\ell)}$$ है $$\ell$$-के विकर्ण तत्व $$m \times m$$ विकर्ण आव्यूह  $$C_{Z_{k+1}}$$; जबकि $$A_{k+1}^{(\ell)}$$ है $$\ell$$-वीं पंक्ति $$m \times n$$ आव्यूह $$A_{k+1}$$. अंतिम मान हैं $$C_{e_{k+1}}^{(m)} = C_{e_{k+1}}$$ और $$\hat{x}_{k+1}^{(m)} = \hat{x}_{k+1}$$.

उदाहरण 1
हम एक उदाहरण के रूप में एक रैखिक भविष्यवाणी समस्या लेंगे। मान लीजिए प्रेक्षित अदिश यादृच्छिक चरों का एक रैखिक संयोजन $$z_{1}, z_{2}$$ और $$z_{3}$$ किसी अन्य भविष्य के अदिश यादृच्छिक चर का अनुमान लगाने के लिए उपयोग किया जाएगा $$z_{4}$$ ऐसा है कि $$\hat z_{4}=\sum_{i=1}^{3}w_{i}z_{i}$$. यदि यादृच्छिक चर $$z=[z_{1},z_{2},z_{3},z_{4}]^{T}$$ शून्य माध्य और इसके सहप्रसरण आव्यूह  के साथ वास्तविक गाऊसी यादृच्छिक चर हैं

\operatorname{cov}(Z)=\operatorname{E}[zz^{T}]=\left[\begin{array}{cccc} 1 & 2 & 3 & 4\\ 2 & 5 & 8 & 9\\ 3 & 8 & 6 & 10\\ 4 & 9 & 10 & 15\end{array}\right],$$ तो हमारा कार्य गुणांक ज्ञात करना है $$w_{i}$$ ऐसा कि यह एक इष्टतम रैखिक अनुमान प्राप्त करेगा $$\hat z_{4}$$.

पिछले अनुभागों में विकसित शब्दावली के संदर्भ में, इस समस्या के लिए हमारे पास अवलोकन सदिश   है $$y = [z_1, z_2, z_3]^T$$, अनुमानक आव्यूह   $$W = [w_1, w_2, w_3]$$ एक पंक्ति सदिश    और अनुमानित चर के रूप में $$x = z_4$$ एक अदिश राशि के रूप में. स्वत:सहसंबंध आव्यूह  $$C_Y$$ परिभाषित किया जाता है
 * $$C_Y=\left[\begin{array}{ccc}

E[z_{1},z_{1}] & E[z_{2},z_{1}] & E[z_{3},z_{1}]\\ E[z_{1},z_{2}] & E[z_{2},z_{2}] & E[z_{3},z_{2}]\\ E[z_{1},z_{3}] & E[z_{2},z_{3}] & E[z_{3},z_{3}]\end{array}\right]=\left[\begin{array}{ccc} 1 & 2 & 3\\ 2 & 5 & 8\\ 3 & 8 & 6\end{array}\right].$$ क्रॉस सहसंबंध आव्यूह  $$C_{YX}$$ परिभाषित किया जाता है
 * $$C_{YX}=\left[\begin{array}{c}

E[z_{4},z_{1}]\\ E[z_{4},z_{2}]\\ E[z_{4},z_{3}]\end{array}\right]=\left[\begin{array}{c} 4\\ 9\\ 10\end{array}\right].$$ अब हम समीकरण हल करते हैं $$C_Y W^T=C_{YX}$$ उलट कर $$C_Y$$ और प्राप्त करने के लिए पूर्व-गुणा करना
 * $$C_Y^{-1}C_{YX}=\left[\begin{array}{ccc}

4.85 & -1.71 & -0.142\\ -1.71 & 0.428 & 0.2857\\ -0.142 & 0.2857 & -0.1429\end{array}\right]\left[\begin{array}{c} 4\\ 9\\ 10\end{array}\right]=\left[\begin{array}{c} 2.57\\ -0.142\\ 0.5714\end{array}\right]=W^T.$$ तो हमारे पास $$w_1=2.57,$$ $$w_2=-0.142,$$ और $$w_{3}=.5714$$ के लिए इष्टतम गुणांक के रूप में $$\hat z_4$$. न्यूनतम की गणना तो माध्य वर्ग त्रुटि देता है $$\left\Vert e\right\Vert _{\min}^2=\operatorname{E}[z_4 z_4]-WC_{YX}=15-WC_{YX}=.2857$$. ध्यान दें कि इसके विपरीत एक स्पष्ट आव्यूह  प्राप्त करना आवश्यक नहीं है $$C_Y$$ के मूल्य की गणना करने के लिए $$W$$. आव्यूह  समीकरण को गॉस उन्मूलन विधि जैसी प्रसिद्ध विधियों द्वारा हल किया जा सकता है। ऑर्थोगोनैलिटी सिद्धांत में एक छोटा, गैर-संख्यात्मक उदाहरण पाया जा सकता है।

उदाहरण 2
एक सदिश   पर विचार करें $$y$$ लेकर गठित किया गया $$N$$ एक निश्चित परंतु     अज्ञात अदिश पैरामीटर का अवलोकन $$x$$ सफ़ेद गॉसियन शोर से परेशान। हम इस प्रक्रिया का वर्णन एक रैखिक समीकरण द्वारा कर सकते हैं $$y = 1x+ z$$, कहाँ $$1 = [1,1,\ldots,1]^T$$. संदर्भ के आधार पर यह स्पष्ट होगा कि क्या $$1$$ एक अदिश (गणित) या एक सदिश का प्रतिनिधित्व करता है। मान लीजिए कि हम जानते हैं $$[-x_0,x_0]$$ वह सीमा होना जिसके भीतर का मान है $$x$$ में गिरने वाला है। हम अपनी अनिश्चितता का प्रारूपित    बना सकते हैं $$x$$ एक अंतराल पर पूर्व समान वितरण (निरंतर) द्वारा $$[-x_0,x_0]$$, और इस तरह $$x$$ का भिन्नता होगी $$\sigma_X^2 = x_0^2/3.$$. चलो शोर सदिश   $$z$$ सामान्य रूप से वितरित किया जाए $$N(0,\sigma_Z^2I)$$ कहाँ $$I$$ एक पहचान आव्यूह   है. भी $$x$$ और $$z$$ स्वतंत्र हैं और $$C_{XZ} = 0$$. यह देखना आसान है

\begin{align} & \operatorname{E}\{y\} = 0, \\ & C_Y = \operatorname{E}\{yy^T\} = \sigma_X^2 11^T + \sigma_Z^2I, \\ & C_{XY} = \operatorname{E}\{xy^T\} = \sigma_X^2 1^T. \end{align} $$ इस प्रकार, रैखिक एमएमएसई अनुमानक द्वारा दिया जाता है

\begin{align} \hat{x} &= C_{XY}C_Y^{-1} y \\ &= \sigma_X^2 1^T(\sigma_X^2 11^T + \sigma_Z^2I)^{-1} y. \end{align} $$ हम इसके वैकल्पिक रूप का उपयोग करके अभिव्यक्ति को सरल बना सकते हैं $$W$$ जैसा

\begin{align} \hat{x} &= \left(1^T \frac{1}{\sigma_Z^2}I 1 + \frac{1}{\sigma_X^2}\right)^{-1} 1^T \frac{1}{\sigma_Z^2} I y \\ &= \frac{1}{\sigma_Z^2} \left( \frac{N}{\sigma_Z^2} + \frac{1}{\sigma_X^2} \right)^{-1} 1^T y \\ &= \frac{\sigma_X^2}{\sigma_X^2 + \sigma_Z^2/N} \bar{y}, \end{align} $$ कहाँ के लिए $$y = [y_1,y_2,\ldots,y_N]^T $$ अपने पास $$\bar{y} = \frac{1^Ty}{N} = \frac{\sum_{i=1}^N y_i}{N}.$$ इसी प्रकार, अनुमानक का विचरण है
 * $$\sigma_{\hat{X}}^2 = C_{XY}C_Y^{-1}C_{YX} = \Big(\frac{\sigma_X^2}{\sigma_X^2 + \sigma_Z^2/N}\Big) \sigma_X^2.$$

इस प्रकार इस रैखिक अनुमानक का एमएमएसई है
 * $$\operatorname{LMMSE} = \sigma_X^2 - \sigma_{\hat{X}}^2 = \Big(\frac{\sigma_Z^2}{\sigma_X^2 + \sigma_Z^2/N}\Big) \frac{\sigma_X^2} N.$$

बहुत बड़े के लिए $$N$$, हम देखते हैं कि समान पूर्व वितरण वाले एक अदिश के एमएमएसई अनुमानक को सभी देखे गए डेटा के अंकगणितीय औसत द्वारा अनुमानित किया जा सकता है
 * $$\hat{x} = \frac 1 N \sum_{i=1}^N y_i,$$ जबकि विचरण डेटा से अप्रभावित रहेगा $$\sigma_{\hat{X}}^2 = \sigma_{X}^2,$$ और अनुमान का एलएमएमएसई शून्य हो जाएगा।

यद्यपि , अनुमानक उप-इष्टतम है क्योंकि यह रैखिक होने के लिए बाध्य है। यादृच्छिक चर था $$x$$ गॉसियन भी होता, तो अनुमानक इष्टतम होता। ध्यान दें, कि पूर्वानुमेय वितरण की परवाह किए बिना, अनुमानक का रूप अपरिवर्तित रहेगा $$x$$, जब तक कि इन वितरणों का माध्य और विचरण समान है।

उदाहरण 3
उपरोक्त उदाहरण की विविधता पर विचार करें: दो उम्मीदवार एक चुनाव के लिए खड़े हैं। बता दें कि चुनाव के दिन एक उम्मीदवार को वोटों का अंश प्राप्त होगा $$x \in [0,1].$$ इस प्रकार दूसरे उम्मीदवार को वोटों का अंश प्राप्त होगा $$1-x.$$ हम लेंगे $$x$$ एक समान पूर्व वितरण के साथ एक यादृच्छिक चर के रूप में $$[0,1]$$ ताकि इसका माध्य हो $$\bar{x} = 1/2 $$ और विचरण है $$\sigma_X^2 = 1/12.$$ चुनाव से कुछ हफ़्ते पहले, दो अलग-अलग सर्वेक्षणकर्ताओं द्वारा दो स्वतंत्र जनमत सर्वेक्षण आयोजित किए गए थे। पहले सर्वेक्षण से पता चला कि उम्मीदवार को मिलने की संभावना है $$y_1$$ वोटों का अंश. चूंकि सीमित नमूने और अपनाई गई विशेष मतदान पद्धति के कारण कुछ त्रुटि हमेशा उपस्थित   रहती है, इसलिए पहला सर्वेक्षणकर्ता अपने अनुमान में त्रुटि होने की घोषणा करता है। $$z_1$$ शून्य माध्य और विचरण के साथ $$\sigma_{Z_1}^2.$$ इसी प्रकार, दूसरा सर्वेक्षणकर्ता अपना अनुमान घोषित करता है $$y_2$$ एक त्रुटि के साथ $$z_2$$ शून्य माध्य और विचरण के साथ $$ \sigma_{Z_2}^2. $$ ध्यान दें कि त्रुटि के माध्य और विचरण को छोड़कर, त्रुटि वितरण अनिर्दिष्ट है। किसी दिए गए उम्मीदवार के लिए मतदान की भविष्यवाणी प्राप्त करने के लिए दोनों सर्वेक्षणों को कैसे जोड़ा जाना चाहिए?

पिछले उदाहरण की तरह, हमारे पास है

\begin{align} y_1 &= x + z_1 \\ y_2 &= x + z_2. \end{align} $$ यहाँ, दोनों $$\operatorname{E}\{y_1\} = \operatorname{E}\{y_2\} = \bar{x} = 1/2$$. इस प्रकार, हम एलएमएमएसई अनुमान को रैखिक संयोजन के रूप में प्राप्त कर सकते हैं $$y_1$$ और $$y_2$$ जैसा
 * $$ \hat{x} = w_1 (y_1 - \bar{x}) + w_2 (y_2 - \bar{x}) + \bar{x}, $$

जहां वजन दिया जाता है

\begin{align} w_1 &= \frac{1/\sigma_{Z_1}^2}{1/\sigma_{Z_1}^2 + 1/\sigma_{Z_2}^2 + 1/\sigma_X^2}, \\ w_2 &= \frac{1/\sigma_{Z_2}^2}{1/\sigma_{Z_1}^2 + 1/\sigma_{Z_2}^2 + 1/\sigma_X^2}. \end{align} $$ यहां, चूंकि हर पद स्थिर है, इसलिए चुनाव परिणाम की भविष्यवाणी करने के लिए कम त्रुटि वाले मतदान को अधिक महत्व दिया जाता है। अंत में, का विचरण $$\hat{x}$$ द्वारा दिया गया है

\sigma_{\hat{X}}^2 = \frac{1/\sigma_{Z_1}^2 + 1/\sigma_{Z_2}^2}{1/\sigma_{Z_1}^2 + 1/\sigma_{Z_2}^2 + 1/\sigma_X^2} \sigma_X^2 , $$ किसने बनाया $$\sigma_{\hat{X}}^2$$ तुलना में छोटा $$\sigma_X^2.$$ इस प्रकार, एलएमएमएसई द्वारा दिया गया है
 * $$\mathrm{LMMSE} = \sigma_{X}^2 - \sigma_{\hat{X}}^2 = \frac{1}{1/\sigma_{Z_1}^2 + 1/\sigma_{Z_2}^2 + 1/\sigma_X^2}.$$

सामान्य तौर पर, यदि    हमारे पास है $$N$$ फिर, प्रदूषक $$\hat{x} = \sum_{i=1}^N w_i (y_i - \bar{x}) + \bar{x},$$ जहां आई-वें पोलस्टर के लिए वजन दिया गया है $$w_i = \frac{1/\sigma_{Z_i}^2}{\sum_{j=1}^N 1/\sigma_{Z_j}^2 + 1/\sigma_X^2}$$ और एलएमएमएसई द्वारा दिया गया है $$\mathrm{LMMSE} = \frac{1}{\sum_{j=1}^N 1/\sigma_{Z_j}^2 + 1/\sigma_X^2}.$$

उदाहरण 4
मान लीजिए कि एक संगीतकार एक वाद्ययंत्र बजा रहा है और ध्वनि दो माइक्रोफोनों द्वारा प्राप्त की जाती है, जिनमें से प्रत्येक दो अलग-अलग स्थानों पर स्थित हैं। प्रत्येक माइक्रोफ़ोन पर दूरी के कारण ध्वनि का क्षीणन होने दें $$a_1$$ और $$a_2$$, जिन्हें ज्ञात स्थिरांक माना जाता है। इसी प्रकार, प्रत्येक माइक्रोफ़ोन पर शोर होने दें $$z_1$$ और $$z_2$$, प्रत्येक शून्य माध्य और भिन्नता के साथ $$\sigma_{Z_1}^2$$ और $$\sigma_{Z_2}^2$$ क्रमश। होने देना $$x$$ संगीतकार द्वारा उत्पादित ध्वनि को निरूपित करें, जो शून्य माध्य और विचरण के साथ एक यादृच्छिक चर है $$\sigma_X^2.$$ इन दोनों माइक्रोफोनों से रिकॉर्ड किए गए संगीत को एक-दूसरे के साथ समन्वयित करने के बाद कैसे संयोजित किया जाना चाहिए?

हम प्रत्येक माइक्रोफोन द्वारा प्राप्त ध्वनि को इस प्रकार प्रारूपित    कर सकते हैं

\begin{align} y_1 &= a_1 x + z_1 \\ y_2 &= a_2 x + z_2. \end{align} $$ यहाँ दोनों $$\operatorname{E}\{y_1\} = \operatorname{E}\{y_2\} = 0$$. इस प्रकार, हम दोनों ध्वनियों को इस प्रकार जोड़ सकते हैं
 * $$y = w_1 y_1 + w_2 y_2$$

जहां i-वें भार इस प्रकार दिया गया है
 * $$w_i = \frac{a_i/\sigma_{Z_i}^2}{\sum_j a_j^2/\sigma_{Z_j}^2 + 1/\sigma_{X}^2}.$$

यह भी देखें

 * बायेसियन अनुमानक
 * मतलब चुकता त्रुटि
 * कम से कम वर्गों
 * न्यूनतम-विचरण निष्पक्ष अनुमानक (एमवीयूई)
 * रूढ़िवादिता सिद्धांत
 * विनीज़ फ़िल्टर
 * कलमन फ़िल्टर
 * रैखिक भविष्यवाणी
 * शून्य-बल तुल्यकारक