पुनरावर्ती न्यूनतम वर्ग फ़िल्टर

पुनरावर्ती न्यूनतम वर्ग (आरएलएस) एक अनुकूली फ़िल्टर एल्गोरिदम है जो पुनरावर्ती रूप से उन गुणांकों को ढूंढता है जो इनपुट सिग्नल से संबंधित भारित न्यूनतम वर्ग हानि फ़ंक्शन को कम करते हैं। यह दृष्टिकोण अन्य एल्गोरिदम जैसे कि न्यूनतम माध्य वर्ग (एलएमएस) के विपरीत है जिसका उद्देश्य माध्य वर्ग त्रुटि को कम करना है। आरएलएस की व्युत्पत्ति में, इनपुट संकेतों को नियतात्मक प्रणाली (गणित) माना जाता है, जबकि एलएमएस और समान एल्गोरिदम के लिए उन्हें स्टोकेस्टिक माना जाता है। अपने अधिकांश प्रतिस्पर्धियों की तुलना में, आरएलएस बेहद तेज़ अभिसरण प्रदर्शित करता है। हालाँकि, यह लाभ उच्च कम्प्यूटेशनल जटिलता की कीमत पर आता है।

प्रेरणा
आरएलएस की खोज कार्ल फ्रेडरिक गॉस ने की थी, लेकिन 1950 तक अप्रयुक्त या नजरअंदाज कर दिया गया था जब प्लैकेट ने 1821 से गॉस के मूल काम को फिर से खोजा था। सामान्य तौर पर, आरएलएस का उपयोग किसी भी समस्या को हल करने के लिए किया जा सकता है जिसे अनुकूली फिल्टर द्वारा हल किया जा सकता है। उदाहरण के लिए, मान लीजिए कि एक संकेत $$d(n)$$ एक प्रतिध्वनि, शोर वाले चैनल पर प्रसारित होता है जिसके कारण इसे प्राप्त किया जाता है


 * $$x(n)=\sum_{k=0}^q b_n(k) d(n-k)+v(n)$$

कहाँ $$v(n)$$ योगात्मक शोर का प्रतिनिधित्व करता है। आरएलएस फ़िल्टर का उद्देश्य वांछित सिग्नल को पुनर्प्राप्त करना है $$d(n)$$ ए के उपयोग से $$p+1$$- परिमित आवेग प्रतिक्रिया फ़िल्टर टैप करें, $$\mathbf{w}$$:


 * $$d(n) \approx \sum_{k=0}^{p} w(k)x(n-k)=\mathbf{w}^\mathit{T} \mathbf{x}_n$$

कहाँ $$\mathbf{x}_n = [x(n)\quad x(n-1)\quad\ldots\quad x(n-p)]^T$$ युक्त स्तंभ वेक्टर है $$p+1$$ के नवीनतम नमूने $$x(n)$$. पुनर्प्राप्त वांछित सिग्नल का अनुमान है


 * $$\hat{d}(n) = \sum_{k=0}^{p} w_n(k)x(n-k)=\mathbf{w}_n^\mathit{T} \mathbf{x}_n$$

लक्ष्य फ़िल्टर के मापदंडों का अनुमान लगाना है $$\mathbf{w}$$, और हर समय $$n$$ हम वर्तमान अनुमान को इस प्रकार संदर्भित करते हैं $$\mathbf{w}_n$$ और द्वारा अनुकूलित न्यूनतम-वर्ग अनुमान $$\mathbf{w}_{n+1}$$. $$\mathbf{w}_n$$ एक कॉलम वेक्टर भी है, जैसा कि नीचे दिखाया गया है, और खिसकाना, $$\mathbf{w}_n^\mathit{T}$$, एक पंक्ति सदिश है. मैट्रिक्स उत्पाद $$\mathbf{w}_n^\mathit{T} \mathbf{x}_n$$ (जो कि डॉट उत्पाद है $$\mathbf{w}_n$$ और $$\mathbf{x}_n$$) है $$\hat{d}(n)$$, एक अदिश राशि। अनुमान अच्छा है अगर $$\hat{d}(n)-d(n)$$ कुछ न्यूनतम वर्ग अर्थों में परिमाण में छोटा है।

जैसे-जैसे समय विकसित होता है, नए अनुमान को खोजने के लिए न्यूनतम वर्ग एल्गोरिदम को पूरी तरह से दोबारा करने से बचना वांछित है $$\mathbf{w}_{n+1}$$, के अनुसार $$\mathbf{w}_n$$.

आरएलएस एल्गोरिदम का लाभ यह है कि मैट्रिक्स को उलटने की कोई आवश्यकता नहीं है, जिससे कम्प्यूटेशनल लागत बचती है। एक अन्य लाभ यह है कि यह कलमन फ़िल्टर जैसे परिणामों के पीछे अंतर्ज्ञान प्रदान करता है।

चर्चा
आरएलएस फ़िल्टर के पीछे का विचार हानि फ़ंक्शन को कम करना है $$C$$ फ़िल्टर गुणांकों का उचित चयन करके $$\mathbf{w}_n$$, नया डेटा आने पर फ़िल्टर को अपडेट करना। त्रुटि संकेत $$e(n)$$ और वांछित संकेत $$d(n)$$ नीचे नकारात्मक प्रतिक्रिया आरेख में परिभाषित किया गया है:

त्रुटि अनुमान के माध्यम से फ़िल्टर गुणांक पर परोक्ष रूप से निर्भर करती है $$\hat{d}(n)$$:


 * $$e(n)=d(n)-\hat{d}(n)$$

भारित न्यूनतम वर्ग त्रुटि फ़ंक्शन $$C$$- जिस लागत फ़ंक्शन को हम कम करना चाहते हैं - वह एक फ़ंक्शन है $$e(n)$$ इसलिए फ़िल्टर गुणांक पर भी निर्भर है:
 * $$C(\mathbf{w}_n)=\sum_{i=0}^n\lambda^{n-i}e^2(i)$$

कहाँ $$0<\lambda\le 1$$ भूलने वाला कारक है जो पुराने त्रुटि नमूनों को तेजी से कम महत्व देता है।

सभी प्रविष्टियों के लिए आंशिक व्युत्पन्न लेकर लागत फ़ंक्शन को कम किया जाता है $$k$$ गुणांक वेक्टर का $$\mathbf{w}_{n}$$ और परिणामों को शून्य पर सेट करना
 * $$\frac{\partial C(\mathbf{w}_n)}{\partial w_n(k)}=\sum_{i=0}^n 2\lambda^{n-i}e(i)\cdot \frac{\partial e(i)}{\partial w_n(k)}=-\sum_{i=0}^n 2\lambda^{n-i}e(i)\,x(i-k)=0 \qquad k=0,1,\ldots,p$$

अगला, बदलें $$e(n)$$ त्रुटि संकेत की परिभाषा के साथ
 * $$\sum_{i=0}^n\lambda^{n-i}\left[d(i)-\sum_{\ell=0}^p w_n(\ell)x(i-\ell)\right]x(i-k)= 0\qquad k=0,1,\ldots,p$$

समीकरण को पुनर्व्यवस्थित करने से परिणाम प्राप्त होते हैं
 * $$\sum_{\ell=0}^p w_n(\ell)\left[\sum_{i=0}^n \lambda^{n-i}\,x(i-l)x(i-k)\right]= \sum_{i=0}^n \lambda^{n-i}d(i)x(i-k) \qquad k=0,1,\ldots,p$$

इस रूप को मैट्रिक्स के संदर्भ में व्यक्त किया जा सकता है
 * $$\mathbf{R}_{x}(n)\,\mathbf{w}_{n}=\mathbf{r}_{dx}(n)$$

कहाँ $$\mathbf{R}_{x}(n)$$ के लिए भारित नमूना माध्य और नमूना सहप्रसरण मैट्रिक्स है $$x(n)$$, और $$\mathbf{r}_{dx}(n)$$ के बीच क्रॉस-सहप्रसरण  के लिए समतुल्य अनुमान है $$d(n)$$ और $$x(n)$$. इस अभिव्यक्ति के आधार पर हम ऐसे गुणांक पाते हैं जो लागत फ़ंक्शन को कम करते हैं
 * $$\mathbf{w}_{n}=\mathbf{R}_{x}^{-1}(n)\,\mathbf{r}_{dx}(n)$$

यह चर्चा का मुख्य परिणाम है.

λ
चुनना छोटे $$\lambda$$ है, सहप्रसरण मैट्रिक्स में पिछले नमूनों का योगदान उतना ही छोटा है। यह फ़िल्टर को हाल के नमूनों के प्रति अधिक संवेदनशील बनाता है, जिसका अर्थ है फ़िल्टर गुणांक में अधिक उतार-चढ़ाव। $$\lambda=1$$ h> केस को ग्रोइंग विंडो आरएलएस एल्गोरिदम के रूप में जाना जाता है। व्यवहार में, $$\lambda$$ आमतौर पर 0.98 और 1 के बीच चुना जाता है। टाइप- II अधिकतम संभावना अनुमान का उपयोग करके इष्टतम $$\lambda$$ डेटा के एक सेट से अनुमान लगाया जा सकता है।

पुनरावर्ती एल्गोरिथ्म
चर्चा के परिणामस्वरूप गुणांक वेक्टर निर्धारित करने के लिए एक एकल समीकरण तैयार हुआ जो लागत फ़ंक्शन को न्यूनतम करता है। इस अनुभाग में हम प्रपत्र का पुनरावर्ती समाधान प्राप्त करना चाहते हैं
 * $$\mathbf{w}_{n}=\mathbf{w}_{n-1}+\Delta\mathbf{w}_{n-1}$$

कहाँ $$\Delta\mathbf{w}_{n-1}$$ समय पर एक सुधार कारक है $${n-1}$$. हम क्रॉस सहप्रसरण को व्यक्त करके पुनरावर्ती एल्गोरिदम की व्युत्पत्ति शुरू करते हैं $$\mathbf{r}_{dx}(n)$$ के अनुसार $$\mathbf{r}_{dx}(n-1)$$

कहाँ $$\mathbf{x}(i)$$ है $${p+1}$$ आयामी डेटा वेक्टर
 * $$\mathbf{r}_{dx}(n)$$
 * $$=\sum_{i=0}^{n}\lambda^{n-i}d(i)\mathbf{x}(i)$$
 * $$=\sum_{i=0}^{n-1}\lambda^{n-i}d(i)\mathbf{x}(i)+\lambda^{0}d(n)\mathbf{x}(n)$$
 * $$=\lambda\mathbf{r}_{dx}(n-1)+d(n)\mathbf{x}(n)$$
 * }
 * $$=\sum_{i=0}^{n-1}\lambda^{n-i}d(i)\mathbf{x}(i)+\lambda^{0}d(n)\mathbf{x}(n)$$
 * $$=\lambda\mathbf{r}_{dx}(n-1)+d(n)\mathbf{x}(n)$$
 * }
 * $$=\lambda\mathbf{r}_{dx}(n-1)+d(n)\mathbf{x}(n)$$
 * }
 * $$\mathbf{x}(i)=[x(i), x(i-1), \dots, x(i-p) ]^{T}$$

वैसे ही हम व्यक्त करते हैं $$\mathbf{R}_{x}(n)$$ के अनुसार $$\mathbf{R}_{x}(n-1)$$ द्वारा

गुणांक वेक्टर उत्पन्न करने के लिए हम नियतात्मक ऑटो-सहप्रसरण मैट्रिक्स के व्युत्क्रम में रुचि रखते हैं। उस कार्य के लिए वुडबरी मैट्रिक्स पहचान काम आती है। साथ
 * $$\mathbf{R}_{x}(n)$$
 * $$=\sum_{i=0}^{n}\lambda^{n-i}\mathbf{x}(i)\mathbf{x}^{T}(i)$$
 * $$=\lambda\mathbf{R}_{x}(n-1)+\mathbf{x}(n)\mathbf{x}^{T}(n)$$
 * }
 * $$=\lambda\mathbf{R}_{x}(n-1)+\mathbf{x}(n)\mathbf{x}^{T}(n)$$
 * }
 * }

वुडबरी मैट्रिक्स पहचान इस प्रकार है
 * $$A$$
 * $$=\lambda\mathbf{R}_{x}(n-1)$$ is $$(p+1)$$-by-$$(p+1)$$
 * $$U$$
 * $$=\mathbf{x}(n)$$ is $$(p+1)$$-by-1 (column vector)
 * $$V$$
 * $$=\mathbf{x}^{T}(n)$$ is 1-by-$$(p+1)$$ (row vector)
 * $$C$$
 * $$=\mathbf{I}_1$$ is the 1-by-1 identity matrix
 * }
 * $$C$$
 * $$=\mathbf{I}_1$$ is the 1-by-1 identity matrix
 * }
 * }

मानक साहित्य के अनुरूप आने के लिए, हम परिभाषित करते हैं
 * $$\mathbf{R}_{x}^{-1}(n)$$
 * $$\left[\lambda\mathbf{R}_{x}(n-1)+\mathbf{x}(n)\mathbf{x}^{T}(n)\right]^{-1}$$
 * $$\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * $$-\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)$$
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * $$-\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)$$
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$-\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)$$
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }
 * $$\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)\mathbf{x}(n)\right\}^{-1} \mathbf{x}^{T}(n)\lambda^{-1}\mathbf{R}_{x}^{-1}(n-1)$$
 * }

जहां लाभ वेक्टर $$g(n)$$ है
 * $$\mathbf{P}(n)$$
 * $$=\mathbf{R}_{x}^{-1}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)$$
 * }
 * $$=\lambda^{-1}\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)$$
 * }
 * }

आगे बढ़ने से पहले ये लाना जरूरी है $$\mathbf{g}(n)$$ दूसरे रूप में
 * $$\mathbf{g}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)\right\}^{-1}$$
 * $$=\mathbf{P}(n-1)\mathbf{x}(n)\left\{\lambda+\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{x}(n)\right\}^{-1}$$
 * }
 * $$=\mathbf{P}(n-1)\mathbf{x}(n)\left\{\lambda+\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{x}(n)\right\}^{-1}$$
 * }
 * }

बायीं ओर का दूसरा पद घटाने पर प्राप्त होता है
 * $$\mathbf{g}(n)\left\{1+\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)\right\}$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * $$\mathbf{g}(n)+\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * }
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * }

की पुनरावर्ती परिभाषा के साथ $$\mathbf{P}(n)$$ वांछित प्रपत्र इस प्रकार है
 * $$\mathbf{g}(n)$$
 * $$=\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\mathbf{x}(n)$$
 * $$=\lambda^{-1}\left[\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\right]\mathbf{x}(n)$$
 * }
 * $$=\lambda^{-1}\left[\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\right]\mathbf{x}(n)$$
 * }
 * }
 * $$\mathbf{g}(n)=\mathbf{P}(n)\mathbf{x}(n)$$

अब हम रिकर्सन पूरा करने के लिए तैयार हैं। चर्चा के अनुसार

दूसरा चरण की पुनरावर्ती परिभाषा से अनुसरण करता है $$\mathbf{r}_{dx}(n )$$. आगे हम की पुनरावर्ती परिभाषा को शामिल करते हैं $$\mathbf{P}(n)$$ के वैकल्पिक रूप के साथ $$\mathbf{g}(n)$$ और पाओ
 * $$\mathbf{w}_{n}$$
 * $$=\mathbf{P}(n)\,\mathbf{r}_{dx}(n)$$
 * $$=\lambda\mathbf{P}(n)\,\mathbf{r}_{dx}(n-1)+d(n)\mathbf{P}(n)\,\mathbf{x}(n)$$
 * }
 * $$=\lambda\mathbf{P}(n)\,\mathbf{r}_{dx}(n-1)+d(n)\mathbf{P}(n)\,\mathbf{x}(n)$$
 * }
 * }

साथ $$\mathbf{w}_{n-1}=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)$$ हम अद्यतन समीकरण पर पहुँचते हैं
 * $$\mathbf{w}_{n}$$
 * $$=\lambda\left[\lambda^{-1}\mathbf{P}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\lambda^{-1}\mathbf{P}(n-1)\right]\mathbf{r}_{dx}(n-1)+d(n)\mathbf{g}(n)$$
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+d(n)\mathbf{g}(n)$$
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)\right]$$
 * }
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)-\mathbf{g}(n)\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+d(n)\mathbf{g}(n)$$
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)\right]$$
 * }
 * $$=\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{P}(n-1)\mathbf{r}_{dx}(n-1)\right]$$
 * }

कहाँ $$\alpha(n)=d(n)-\mathbf{x}^{T}(n)\mathbf{w}_{n-1}$$ एक प्राथमिकता और एक पश्चवर्ती त्रुटि है। इसकी तुलना पिछली त्रुटि से करें; फ़िल्टर अद्यतन होने के बाद गणना की गई त्रुटि:
 * $$\mathbf{w}_{n}$$
 * $$=\mathbf{w}_{n-1}+\mathbf{g}(n)\left[d(n)-\mathbf{x}^{T}(n)\mathbf{w}_{n-1}\right]$$
 * $$=\mathbf{w}_{n-1}+\mathbf{g}(n)\alpha(n)$$
 * }
 * $$=\mathbf{w}_{n-1}+\mathbf{g}(n)\alpha(n)$$
 * }
 * }


 * $$e(n)=d(n)-\mathbf{x}^{T}(n)\mathbf{w}_n$$

इसका मतलब है कि हमें सुधार कारक मिल गया है
 * $$\Delta\mathbf{w}_{n-1}=\mathbf{g}(n)\alpha(n)$$

यह सहज रूप से संतोषजनक परिणाम इंगित करता है कि सुधार कारक त्रुटि और लाभ वेक्टर दोनों के लिए सीधे आनुपातिक है, जो भार कारक के माध्यम से नियंत्रित करता है कि कितनी संवेदनशीलता वांछित है, $$\lambda$$.

आरएलएस एल्गोरिदम सारांश
पी-वें ऑर्डर आरएलएस फ़िल्टर के लिए आरएलएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है के लिए प्रत्यावर्तन $$P$$ बीजगणितीय रिकाटी समीकरण का अनुसरण करता है और इस प्रकार कलमन फिल्टर के समानांतर खींचता है।

जाली पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (एलआरएलएस)
जाली पुनरावर्ती न्यूनतम वर्ग अनुकूली फ़िल्टर मानक आरएलएस से संबंधित है, सिवाय इसके कि इसके लिए कम अंकगणितीय संचालन (आदेश एन) की आवश्यकता होती है। यह पारंपरिक एलएमएस एल्गोरिदम पर अतिरिक्त लाभ प्रदान करता है जैसे कि तेज अभिसरण दर, मॉड्यूलर संरचना, और इनपुट सहसंबंध मैट्रिक्स के ईजेनवैल्यू प्रसार में भिन्नता के प्रति असंवेदनशीलता। वर्णित एलआरएलएस एल्गोरिदम पिछली त्रुटियों पर आधारित है और इसमें सामान्यीकृत फॉर्म शामिल है। व्युत्पत्ति मानक आरएलएस एल्गोरिथ्म के समान है और की परिभाषा पर आधारित है $$d(k)\,\!$$. आगे की भविष्यवाणी के मामले में, हमारे पास है $$d(k) = x(k)\,\!$$ इनपुट सिग्नल के साथ $$x(k-1)\,\!$$ सबसे अद्यतित नमूने के रूप में। पिछड़ी भविष्यवाणी का मामला है $$d(k) = x(k-i-1)\,\!$$, जहां i अतीत में नमूने का सूचकांक है जिसकी हम भविष्यवाणी करना चाहते हैं, और इनपुट सिग्नल $$x(k)\,\!$$ सबसे ताज़ा नमूना है.

पैरामीटर सारांश

 * $$\kappa_f(k,i)\,\!$$ अग्र परावर्तन गुणांक है


 * $$\kappa_b(k,i)\,\!$$ पश्चगामी परावर्तन गुणांक है


 * $$e_f(k,i)\,\!$$ तात्कालिक पूर्ववर्ती अग्रगामी भविष्यवाणी त्रुटि का प्रतिनिधित्व करता है


 * $$e_b(k,i)\,\!$$ तात्कालिक पश्चगामी पूर्वानुमान त्रुटि का प्रतिनिधित्व करता है


 * $$\xi^d_{b_{\min}}(k,i)\,\!$$ न्यूनतम न्यूनतम-वर्ग पिछड़ा पूर्वानुमान त्रुटि है


 * $$\xi^d_{f_{\min}}(k,i)\,\!$$ न्यूनतम न्यूनतम-वर्ग अग्रेषित पूर्वानुमान त्रुटि है


 * $$\gamma(k,i)\,\!$$ प्राथमिक और पश्चवर्ती त्रुटियों के बीच एक रूपांतरण कारक है


 * $$v_i(k)\,\!$$ फीडफॉरवर्ड गुणक गुणांक हैं।


 * $$\varepsilon\,\!$$ एक छोटा धनात्मक स्थिरांक है जो 0.01 हो सकता है

एलआरएलएस एल्गोरिदम सारांश
एलआरएलएस फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है

सामान्यीकृत जाली पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (एनएलआरएलएस)
एलआरएलएस के सामान्यीकृत रूप में कम पुनरावृत्ति और चर होते हैं। इसकी गणना एल्गोरिदम के आंतरिक चर में सामान्यीकरण लागू करके की जा सकती है जो उनके परिमाण को एक से सीमित रखेगा। इसका उपयोग आम तौर पर वास्तविक समय के अनुप्रयोगों में नहीं किया जाता है क्योंकि विभाजन और वर्ग-रूट संचालन की संख्या उच्च कम्प्यूटेशनल लोड के साथ आती है।

एनएलआरएलएस एल्गोरिदम सारांश
एनएलआरएलएस फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है

यह भी देखें

 * अनुकूली फ़िल्टर
 * कर्नेल अनुकूली फ़िल्टर
 * न्यूनतम माध्य वर्ग फ़िल्टर
 * शून्य-बल तुल्यकारक

संदर्भ

 * Simon Haykin, Adaptive Filter Theory, Prentice Hall, 2002, ISBN 0-13-048434-2
 * M.H.A Davis, R.B. Vinter, Stochastic Modelling and Control, Springer, 1985, ISBN 0-412-16200-8
 * Weifeng Liu, Jose Principe and Simon Haykin, Kernel Adaptive Filtering: A Comprehensive Introduction, John Wiley, 2010, ISBN 0-470-44753-2
 * R.L.Plackett, Some Theorems in Least Squares, Biometrika, 1950, 37, 149–157,
 * C.F.Gauss, Theoria combinationis observationum erroribus minimis obnoxiae, 1821, Werke, 4. Gottinge
 * C.F.Gauss, Theoria combinationis observationum erroribus minimis obnoxiae, 1821, Werke, 4. Gottinge

टिप्पणियाँ
[Category:Statistical signal processi