पुनरावर्ती न्यूनतम वर्ग फ़िल्टर

पुनरावर्ती न्यूनतम वर्ग (आरएलएस) एक अनुकूली फ़िल्टर एल्गोरिथ्म है जो पुनरावर्ती रूप से उन गुणांकों को ढूंढता है जो इनपुट संकेत से संबंधित भारित रैखिक न्यूनतम वर्ग लागत फलन को कम करते हैं। यह दृष्टिकोण अन्य एल्गोरिदम जैसे कि न्यूनतम माध्य वर्ग (एलएमएस) के विपरीत है जिसका लक्ष्य माध्य वर्ग त्रुटि को कम करना है। आरएलएस की व्युत्पत्ति में, इनपुट संकेतों को नियतात्मक माना जाता है, जबकि एलएमएस और इसी तरह के एल्गोरिदम के लिए उन्हें स्टोकेस्टिक माना जाता है। अपने अधिकांश प्रतिस्पर्धियों की तुलना में, आरएलएस अत्यंत तीव्र अभिसरण प्रदर्शित करता है। हालाँकि, यह लाभ उच्च कम्प्यूटेशनल सम्मिश्रता की कीमत पर मिलता है।

प्रेरणा
आरएलएस की खोज गॉस ने की थी, लेकिन 1950 तक अप्रयुक्त या नजरअंदाज कर दिया गया था, जब प्लैकेट ने 1821 में गॉस के मूल कार्य को फिर से खोजा था। सामान्य तौर पर, आरएलएस का उपयोग किसी भी समस्या को हल करने के लिए किया जा सकता है जिसे अनुकूली फिल्टर द्वारा हल किया जा सकता है। उदाहरण के लिए, मान लीजिए कि संकेत $$d(n)$$ प्रतिध्वनि वाले, ध्वनि वाले चैनल पर प्रसारित होता है जिसके कारण इसे प्राप्त किया जाता है


 * $$x(n)=\sum_{k=0}^q b_n(k) d(n-k)+v(n)$$

जहां $$v(n)$$ योगात्मक शोर का प्रतिनिधित्व करता है। आरएलएस फ़िल्टर का उद्देश्य $$p+1$$-टैप FIR फ़िल्टर के उपयोग से वांछित संकेत $$d(n)$$ को पुनर्प्राप्त करना है, $$\mathbf{w}$$:


 * $$d(n) \approx \sum_{k=0}^{p} w(k)x(n-k)=\mathbf{w}^\mathit{T} \mathbf{x}_n$$

जहां $$\mathbf{x}_n = [x(n)\quad x(n-1)\quad\ldots\quad x(n-p)]^T$$ कॉलम सदिश है जिसमें $$x(n)$$ के सबसे हाल के नमूने $$p+1$$ सम्मिलित हैं। प्राप्त वांछित संकेत का अनुमान है


 * $$\hat{d}(n) = \sum_{k=0}^{p} w_n(k)x(n-k)=\mathbf{w}_n^\mathit{T} \mathbf{x}_n$$

फ़िल्टर $$\mathbf{w}$$ के मापदंडों का अनुमान लगाना है, और प्रत्येक समय $$n$$ पर हम वर्तमान अनुमान को $$\mathbf{w}_n$$और अनुकूलित न्यूनतम-वर्ग अनुमान को $$\mathbf{w}_{n+1}$$के रूप में संदर्भित करते हैं। जैसा कि नीचे दिखाया गया है, $$\mathbf{w}_n$$भी एक कॉलम सदिश है, और ट्रांसपोज़, $$\mathbf{w}_n^\mathit{T}$$ एक पंक्ति सदिश है। आव्यूह गुणनफल $$\mathbf{w}_n^\mathit{T} \mathbf{x}_n$$ (जो कि डॉट गुणनफल है $$\mathbf{w}_n$$और $$\mathbf{x}_n$$$$\hat{d}(n)$$, एक अदिश राशि है। अनुमान "अच्छा" है यदि $$\hat{d}(n)-d(n)$$ कुछ न्यूनतम वर्ग अर्थों में परिमाण में छोटा है।

जैसे-जैसे समय बढ़ता है, $$\mathbf{w}_{n+1}$$के लिए नए अनुमान को खोजने के लिए न्यूनतम वर्ग एल्गोरिथ्म को पूरी तरह से दोबारा करने से बचना चाहिए, $$\mathbf{w}_n$$ के संदर्भ में।

आरएलएस एल्गोरिदम का लाभ यह है कि आव्यूह को उलटने की कोई आवश्यकता नहीं है, जिससे कम्प्यूटेशनल लागत बचती है। अन्य लाभ यह है कि यह कलमन फ़िल्टर जैसे परिणामों के पीछे अंतर्ज्ञान प्रदान करता है।

विचार-विमर्श
आरएलएस फ़िल्टर के पीछे का विचार फ़िल्टर गुणांक $$\mathbf{w}_n$$ का उचित चयन करके और नए डेटा आने पर फ़िल्टर को अपडेट करके लागत फलन $$C$$ को कम करना है। त्रुटि संकेत $$e(n)$$ और वांछित सिग्नल $$d(n)$$ को नीचे ऋणात्मक प्रतिक्रिया आरेख में परिभाषित किया गया है:



त्रुटि अनुमान के माध्यम से फ़िल्टर गुणांक $$\hat{d}(n)$$ पर परोक्ष रूप से निर्भर करती है:


 * $$e(n)=d(n)-\hat{d}(n)$$

भारित न्यूनतम वर्ग त्रुटि फलन $$C$$- जिस लागत फलन को हम कम करना चाहते हैं - वह फलन $$e(n)$$ है इसलिए फ़िल्टर गुणांक पर भी निर्भर है:
 * $$C(\mathbf{w}_n)=\sum_{i=0}^n\lambda^{n-i}e^2(i)$$

जहाँ $$0<\lambda\le 1$$ "विस्मृति कारक" है जो पुराने त्रुटि नमूनों को तेजी से कम महत्व देता है।

गुणांक सदिश $$\mathbf{w}_{n}$$ की सभी प्रविष्टियों $$k$$ के लिए आंशिक व्युत्पन्न लेकर और परिणामों को शून्य पर सेट करके लागत फलन को न्यूनतम किया जाता है।
 * $$\frac{\partial C(\mathbf{w}_n)}{\partial w_n(k)}=\sum_{i=0}^n 2\lambda^{n-i}e(i)\cdot \frac{\partial e(i)}{\partial w_n(k)}=-\sum_{i=0}^n 2\lambda^{n-i}e(i)\,x(i-k)=0 \qquad k=0,1,\ldots,p$$

अगला, प्रतिस्थापित करें $$e(n)$$ त्रुटि संकेत की परिभाषा के साथ
 * $$\sum_{i=0}^n\lambda^{n-i}\left[d(i)-\sum_{\ell=0}^p w_n(\ell)x(i-\ell)\right]x(i-k)= 0\qquad k=0,1,\ldots,p$$

समीकरण को पुनर्व्यवस्थित करने से परिणाम प्राप्त होते हैं।
 * $$\sum_{\ell=0}^p w_n(\ell)\left[\sum_{i=0}^n \lambda^{n-i}\,x(i-l)x(i-k)\right]= \sum_{i=0}^n \lambda^{n-i}d(i)x(i-k) \qquad k=0,1,\ldots,p$$

इस रूप को आव्यूह के संदर्भ में व्यक्त किया जा सकता है।
 * $$\mathbf{R}_{x}(n)\,\mathbf{w}_{n}=\mathbf{r}_{dx}(n)$$

जहाँ $$\mathbf{R}_{x}(n)$$ के लिए भारित नमूना माध्य और नमूना सहप्रसरण $$x(n)$$आव्यूह है, और $$\mathbf{r}_{dx}(n)$$ के बीच परस्पर सहप्रसरण के लिए समतुल्य अनुमान $$d(n)$$ और $$x(n)$$ है इस अभिव्यक्ति के आधार पर हम ऐसे गुणांक पाते हैं जो लागत फलन को कम करते हैं।
 * $$\mathbf{w}_{n}=\mathbf{R}_{x}^{-1}(n)\,\mathbf{r}_{dx}(n)$$

यह विचार-विमर्श का मुख्य परिणाम है।

λ का चयन करना
$$\lambda$$ जितना छोटा होगा, सहसंयोजक आव्यूह में पिछले नमूनों का योगदान उतना ही छोटा होगा। यह फ़िल्टर को हाल के नमूनों के प्रति अधिक संवेदनशील बनाता है, जिसका अर्थ है कि फ़िल्टर गुणांक में अधिक उतार-चढ़ाव। $$\lambda=1$$ केस को ग्रोइंग विंडो आरएलएस एल्गोरिथम के रूप में जाना जाता है। व्यवहार में, $$\lambda$$ को सामान्यतः 0.98 और 1 के बीच चुना जाता है। प्रकार-II अधिकतम संभावना अनुमान का उपयोग करके डेटा के एक सेट से इष्टतम $$\lambda$$ का अनुमान लगाया जा सकता है।

पुनरावर्ती एल्गोरिथ्म
विचार-विमर्श के परिणामस्वरूप गुणांक सदिश निर्धारित करने के लिए एक एकल समीकरण तैयार हुआ जो लागत फलन को न्यूनतम करता है। इस अनुभाग में हम प्रपत्र का पुनरावर्ती समाधान प्राप्त करना चाहते हैं।
 * $$\mathbf{w}_{n}=\mathbf{w}_{n-1}+\Delta\mathbf{w}_{n-1}$$

जहाँ $$\Delta\mathbf{w}_{n-1}$$ समय पर एक सुधार कारक $${n-1}$$ है। हम क्रॉस सहप्रसरण को व्यक्त करके पुनरावर्ती एल्गोरिदम की व्युत्पत्ति प्रारम्भ करते हैं $$\mathbf{r}_{dx}(n)$$ के अनुसार $$\mathbf{r}_{dx}(n-1)$$

जहाँ $$\mathbf{x}(i)$$ है $${p+1}$$ आयामी डेटा सदिश
 * $$\mathbf{r}_{dx}(n)$$
 * $$=\sum_{i=0}^{n}\lambda^{n-i}d(i)\mathbf{x}(i)$$
 * $$=\sum_{i=0}^{n-1}\lambda^{n-i}d(i)\mathbf{x}(i)+\lambda^{0}d(n)\mathbf{x}(n)$$
 * $$=\lambda\mathbf{r}_{dx}(n-1)+d(n)\mathbf{x}(n)$$
 * }
 * $$=\sum_{i=0}^{n-1}\lambda^{n-i}d(i)\mathbf{x}(i)+\lambda^{0}d(n)\mathbf{x}(n)$$
 * $$=\lambda\mathbf{r}_{dx}(n-1)+d(n)\mathbf{x}(n)$$
 * }
 * $$=\lambda\mathbf{r}_{dx}(n-1)+d(n)\mathbf{x}(n)$$
 * }
 * $$\mathbf{x}(i)=[x(i), x(i-1), \dots, x(i-p) ]^{T}$$

वैसे ही हम व्यक्त करते हैं $$\mathbf{R}_{x}(n)$$ के अनुसार $$\mathbf{R}_{x}(n-1)$$ द्वारा

गुणांक सदिश उत्पन्न करने के लिए हम नियतात्मक ऑटो-सहप्रसरण आव्यूह के व्युत्क्रम में रुचि रखते हैं। उस कार्य के लिए वुडबरी आव्यूह सर्वसमिका काम आती है।
 * $$\mathbf{R}_{x}(n)$$
 * $$=\sum_{i=0}^{n}\lambda^{n-i}\mathbf{x}(i)\mathbf{x}^{T}(i)$$
 * $$=\lambda\mathbf{R}_{x}(n-1)+\mathbf{x}(n)\mathbf{x}^{T}(n)$$
 * }
 * $$=\lambda\mathbf{R}_{x}(n-1)+\mathbf{x}(n)\mathbf{x}^{T}(n)$$
 * }
 * }

वुडबरी आव्यूह सर्वसमिका इस प्रकार है
 * $$A$$
 * $$=\lambda\mathbf{R}_{x}(n-1)$$ is $$(p+1)$$-by-$$(p+1)$$
 * $$U$$
 * $$=\mathbf{x}(n)$$ is $$(p+1)$$-by-1 (column vector)
 * $$V$$
 * $$=\mathbf{x}^{T}(n)$$ is 1-by-$$(p+1)$$ (row vector)
 * $$C$$
 * $$=\mathbf{I}_1$$ is the 1-by-1 identity matrix
 * }
 * $$C$$
 * $$=\mathbf{I}_1$$ is the 1-by-1 identity matrix
 * }
 * }

मानक साहित्य के अनुरूप आने के लिए, हम परिभाषित करते हैं
 * $$\mathbf{R}_{x}^{-1}(n)$$
 * $$\left[\lambda\mathbf{R}_{x}(n-1)+\mathbf{x}(n)\mathbf{x}^{T}(n)\right]^{-1}$$
 * $$\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * $$-\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)$$
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * $$-\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)$$
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$-\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)$$
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }

जहां लाभ सदिश $$g(n)$$ है
 * $$\mathbf{P}(n)$$
 * $$=\mathbf{R}_{x}^{-1}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)$$
 * }
 * $$=\lambda^{-1}\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)$$
 * }
 * }

आगे बढ़ने से पहले ये लाना जरूरी है $$\mathbf{g}(n)$$ दूसरे रूप में
 * $$\mathbf{g}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)\right\}^{-1}$$
 * $$=\mathbf{P}(n-1)\mathbf{x}(n)\left\{\lambda+\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{x}(n)\right\}^{-1}$$
 * }
 * $$=\mathbf{P}(n-1)\mathbf{x}(n)\left\{\lambda+\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{x}(n)\right\}^{-1}$$
 * }
 * }

बायीं ओर का दूसरा पद घटाने पर प्राप्त होता है
 * $$\mathbf{g}(n)\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)\right\}$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * $$\mathbf{g}(n)+\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * }
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * }

की पुनरावर्ती परिभाषा के साथ $$\mathbf{P}(n)$$ वांछित प्रपत्र इस प्रकार है
 * $$\mathbf{g}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * $$=\lambda^{-1}\left[\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\right]\mathbf{x}(n)$$
 * }
 * $$=\lambda^{-1}\left[\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\right]\mathbf{x}(n)$$
 * }
 * }
 * $$\mathbf{g}(n)=\mathbf{P}(n)\mathbf{x}(n)$$

अब हम रिकर्सन पूरा करने के लिए तैयार हैं। विचार-विमर्श के अनुसार

दूसरा चरण की पुनरावर्ती परिभाषा से अनुसरण करता है $$\mathbf{r}_{dx}(n )$$. आगे हम की पुनरावर्ती परिभाषा को सम्मिलित करते हैं $$\mathbf{P}(n)$$ के वैकल्पिक रूप के साथ $$\mathbf{g}(n)$$ और प्राप्त
 * $$\mathbf{w}_{n}$$
 * $$=\mathbf{P}(n)\,\mathbf{r}_{dx}(n)$$
 * $$=\lambda\mathbf{P}(n)\,\mathbf{r}_{dx}(n-1)+d(n)\mathbf{P}(n)\,\mathbf{x}(n)$$
 * }
 * $$=\lambda\mathbf{P}(n)\,\mathbf{r}_{dx}(n-1)+d(n)\mathbf{P}(n)\,\mathbf{x}(n)$$
 * }
 * }

साथ $$\mathbf{w}_{n-1}=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)$$ हम अद्यतन समीकरण पर पहुँचते हैं
 * $$\mathbf{w}_{n}$$
 * $$=\lambda\left[\lambda^{-1}\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\right]\mathbf{r}_{dx}(n-1)+d(n)\mathbf{g}(n)$$
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+d(n)\mathbf{g}(n)$$
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)\right]$$
 * }
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+d(n)\mathbf{g}(n)$$
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)\right]$$
 * }
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)\right]$$
 * }

जहाँ $$\alpha(n)=d(n)-\mathbf{x}^{T}(n)\mathbf{w}_{n-1}$$
 * $$\mathbf{w}_{n}$$
 * $$=\mathbf{w}_{n-1}+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{w}_{n-1}\right]$$
 * $$=\mathbf{w}_{n-1}+\mathbf{g}(n)\alpha(n)$$
 * }
 * $$=\mathbf{w}_{n-1}+\mathbf{g}(n)\alpha(n)$$
 * }
 * }

एक प्राथमिकता और एक पश्चवर्ती त्रुटि है। इसकी तुलना पिछली त्रुटि से करें; फ़िल्टर अद्यतन होने के बाद गणना की गई त्रुटि:


 * $$e(n)=d(n)-\mathbf{x}^{T}(n)\mathbf{w}_n$$

इसका अर्थ है कि हमें सुधार कारक मिल गया है
 * $$\Delta\mathbf{w}_{n-1}=\mathbf{g}(n)\alpha(n)$$

यह सहज रूप से संतोषजनक परिणाम इंगित करता है कि सुधार कारक त्रुटि और लाभ सदिश दोनों के लिए सीधे आनुपातिक है, जो भार कारक $$\lambda$$ के माध्यम से नियंत्रित करता है कि कितनी संवेदनशीलता वांछित है.

आरएलएस एल्गोरिदम सारांश
पी-वें क्रम आरएलएस फ़िल्टर के लिए आरएलएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है के लिए प्रत्यावर्तन $$P$$ बीजगणितीय रिकाटी समीकरण का अनुसरण करता है और इस प्रकार कलमन फिल्टर के समानांतर खींचता है।

लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (LRLS)
लैटिस पुनरावर्ती न्यूनतम वर्ग अनुकूली फ़िल्टर मानक आरएलएस से संबंधित है, सिवाय इसके कि इसके लिए कम अंकगणितीय संचालन (आदेश एन) की आवश्यकता होती है। यह पारंपरिक एलएमएस एल्गोरिदम पर अतिरिक्त लाभ प्रदान करता है जैसे कि तेज अभिसरण दर, मॉड्यूलर संरचना, और इनपुट सहसंबंध आव्यूह के ईजेनवैल्यू प्रसार में भिन्नता के प्रति असंवेदनशीलता। वर्णित LRLS एल्गोरिदम पिछली त्रुटियों पर आधारित है और इसमें सामान्यीकृत फॉर्म सम्मिलित है। व्युत्पत्ति मानक आरएलएस एल्गोरिथ्म के समान है और की परिभाषा पर आधारित है $$d(k)\,\!$$ आगे की पूर्वानुमान के स्थिति में, हमारे पास है $$d(k) = x(k)\,\!$$ इनपुट संकेत के साथ $$x(k-1)\,\!$$ सबसे अद्यतित नमूने के रूप में। पिछड़े पूर्वानुमान $$d(k) = x(k-i-1)\,\!$$की स्थिति है, जहां i भूतपूर्व में नमूने का सूचकांक है जिसकी हम पूर्वानुमान करना चाहते हैं, और इनपुट संकेत $$x(k)\,\!$$ सबसे नवीन नमूना है।

पैरामीटर सारांश

 * $$\kappa_f(k,i)\,\!$$ अग्र परावर्तन गुणांक है


 * $$\kappa_b(k,i)\,\!$$ पश्चगामी परावर्तन गुणांक है


 * $$e_f(k,i)\,\!$$ तात्कालिक पूर्ववर्ती अग्रगामी पूर्वानुमान त्रुटि का प्रतिनिधित्व करता है


 * $$e_b(k,i)\,\!$$ तात्कालिक पश्चगामी पूर्वानुमान त्रुटि का प्रतिनिधित्व करता है


 * $$\xi^d_{b_{\min}}(k,i)\,\!$$ न्यूनतम न्यूनतम-वर्ग पिछड़ा पूर्वानुमान त्रुटि है


 * $$\xi^d_{f_{\min}}(k,i)\,\!$$ न्यूनतम न्यूनतम-वर्ग अग्रेषित पूर्वानुमान त्रुटि है


 * $$\gamma(k,i)\,\!$$ प्राथमिक और पश्चवर्ती त्रुटियों के बीच एक रूपांतरण कारक है


 * $$v_i(k)\,\!$$ फीडफॉरवर्ड गुणक गुणांक हैं।


 * $$\varepsilon\,\!$$ एक छोटा धनात्मक स्थिरांक है जो 0.01 हो सकता है

LRLS एल्गोरिदम सारांश
LRLS फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है

सामान्यीकृत लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (NLRLS)
LRLS के सामान्यीकृत रूप में कम पुनरावर्तन और चर हैं। इसकी गणना एल्गोरिदम के आंतरिक चर के लिए सामान्यीकरण लागू करके की जा सकती है जो उनके परिमाण को एक से सीमित रखेगा। इसका उपयोग आमतौर पर वास्तविक समय के अनुप्रयोगों में नहीं किया जाता है क्योंकि विभाजन और वर्ग-रूट संचालन की संख्या उच्च कम्प्यूटेशनल भार के साथ आती है।

NLRLS एल्गोरिदम सारांश
NLRLS फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है

यह भी देखें

 * अनुकूली फ़िल्टर
 * कर्नेल अनुकूली फ़िल्टर
 * न्यूनतम माध्य वर्ग फ़िल्टर
 * जीरो-फोर्सिंग इक्वलाइज़र

संदर्भ

 * Simon Haykin, Adaptive Filter Theory, Prentice Hall, 2002, ISBN 0-13-048434-2
 * M.H.A Davis, R.B. Vinter, Stochastic Modelling and Control, Springer, 1985, ISBN 0-412-16200-8
 * Weifeng Liu, Jose Principe and Simon Haykin, Kernel Adaptive Filtering: A Comprehensive Introduction, John Wiley, 2010, ISBN 0-470-44753-2
 * R.L.Plackett, Some Theorems in Least Squares, Biometrika, 1950, 37, 149–157,
 * C.F.Gauss, Theoria combinationis observationum erroribus minimis obnoxiae, 1821, Werke, 4. Gottinge
 * C.F.Gauss, Theoria combinationis observationum erroribus minimis obnoxiae, 1821, Werke, 4. Gottinge

टिप्पणियाँ
[Category:Statistical signal processi