लीनियर प्रेडिक्शन

रैखिक प्रेडिक्शन एक गणितीय संचालन होता है जहाँ असतत-समय संकेत के भविष्य के मूल्यों का प्राक्कलन पिछले प्रतिरूपों के रैखिक परिवर्तन के रूप में लगाया जाता है।

अंकीय संकेत प्रक्रिया में, रैखिक प्रेडिक्शन को अधिकांशतः रैखिक पूर्वानुमानित कोडिंग (एलपीसी) कहा जाता है और इस प्रकार इसे निस्पंदन सिद्धांत के उपसमूह के रूप में देखा जा सकता है। प्रणाली विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक प्रेडिक्शन को गणितीय मॉडलिंग या अनुकूलन के एक भाग के रूप में देखा जा सकता है।

प्रेडिक्शन मॉडल
सबसे सामान्य प्रतिनिधित्व निम्न प्रकार है


 * $$\widehat{x}(n) = \sum_{i=1}^p a_i x(n-i)\,$$

जहाँ $$\widehat{x}(n)$$ प्राक्कलित संकेत मान होता है, $$x(n-i)$$ पिछले देखे गए मान, के साथ $$ p \leq n $$, और $$a_i$$ भविष्यवक्ता गुणांक होता है। इस प्राक्कलन से उत्पन्न त्रुटि इस प्रकार है


 * $$e(n) = x(n) - \widehat{x}(n)\,$$

जहाँ $$x(n)$$ सत्य संकेत मान होता है।

ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक प्रेडिक्शन के लिए मान्य होता हैं। अंतर चयन किये गए भविष्यवक्ता गुणांक $$a_i$$ के विधि में पाए जाते हैं।बहुआयामी संकेतों के लिए त्रुटि अव्व्युह को अधिकांशतः इस प्रकार परिभाषित किया जाता है


 * $$e(n) = \|x(n) - \widehat{x}(n)\|\,$$

जहाँ $$\|\cdot\|$$ एक उपयुक्त चुना हुआ सदिश मानदंड होता है। जैसी भविष्यवाणियाँ $$\widehat{x}(n)$$ ध्वनि माप से क्रमशः वर्तमान और पिछले संकेत मूल्यों का प्राक्कलन लगाने के लिए कलमन निस्पंदन और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।

मापदंडों का प्राक्कलन लगाना
मापदंडों के अनुकूलन में सबसे सधारण विकल्प $$a_i$$ मूल माध्य वर्ग मानदंड होता है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि$$ E[e^2(n)]$$ के अपेक्षित मान को न्यूनतम कर देते हैं, जो समीकरण उत्पन्न करता है जो इस प्रकार है


 * $$\sum_{i=1}^p a_i R(j-i) = R(j),$$

1 ≤ j ≤ p के लिए, जहाँ R संकेत xn का स्वत:सहसंबंध होता है, जिसे निम्न प्रकार परिभाषित किया जाता है


 * $$\ R(i) = E\{x(n)x(n-i)\}\,$$,

और E अपेक्षित मान होता है। बहुआयामी स्थिति में यह L2 मानदंड को न्यूनतम करने के अनुरूप होता है।

उपरोक्त समीकरणों को सामान्य समीकरण या यूल-वॉकर समीकरण कहा जाता है। अव्व्युह रूप में समीकरणों को समकक्ष रूप में निम्न प्रकार से लिखा जा सकता है


 * $$\mathbf{R A} = \mathbf{r}$$

जहाँ ऑटोसहसंबंध अव्व्युह $$\mathbf{R}$$ एक सममित होता है, $$p \times p$$ तत्वों के साथ टोएप्लिट्ज़ अव्व्युह $$ r_{ij} = R(i-j), 0 \leq i, j<p $$ होता है, सदिश $$\mathbf{r}$$ स्वसहसंबंध सदिश $$ r_j = R(j), 0<j \leq p$$, और $$\mathbf{A} = [a_1, a_2, \,\cdots\,, a_{p-1}, a_p]$$ पैरामीटर सदिश होता है।

दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना होता है


 * $$e(n) = x(n) - \widehat{x}(n) = x(n) - \sum_{i=1}^p a_i x(n-i) = - \sum_{i=0}^p a_i x(n-i)$$

जहाँ सभी $$a_i$$पर अन्वेषण में अनुकूलन समस्या अब $$a_0=-1$$ होती है।

दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकात्मकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर सम्मिलित किया जाता है, तो समीकरणों का संवर्धित समूह इस प्रकार प्राप्त होता है


 * $$\ \mathbf{R A} = [1, 0, ..., 0]^{\mathrm{T}}$$

जहाँ सूचकांक $$i$$ 0 से लेकर $$p$$ होता है, और $$\mathbf{R}$$ एक $$(p+1)\times(p+1)$$ आव्यूह होता है।

रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय होता है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए जाते हैं। वास्तव में, स्वसहसंबंध विधि सबसे सधारण होती है और इसका उपयोग, उदाहरण के लिए, जीएसएम मानक में भाषण कोडिंग के लिए किया जाता है।

अव्व्युह समीकरण का समाधान $$\mathbf{R A} = \mathbf{r}$$ कम्प्यूटेशनल रूप से एक अपेक्षाकृत उच्च लागत की प्रक्रिया होती है। अव्व्युह व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान होता है परन्तु यह दृष्टिकोण समरूपता $$\mathbf{R}$$ का कुशलतापूर्वक उपयोग नहीं करता है। एक उच्च एल्गोरिथ्म 1947 में नॉर्मन लेविंसन द्वारा प्रस्तावित लेविंसन रिकर्सन होता है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है।

1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए न्यूनाधिक आधी संख्या में गुणन और विभाजन की आवश्यकता होती है। यह पश्चात् के रिकर्सन स्तरों पर पैरामीटर सदिश की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना $$p$$ क्रम $$p-1$$ उद्देशों इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं।

मॉडल मापदंडों की पहचान करने की एक अन्य विधि कलमन फिल्टर का उपयोग करके स्थिति प्राक्कलन की पुनरावृत्तीय गणना करती है और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर अधिकतम संभावना प्राक्कलन प्राप्त करती है।

समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप दिए गए मानों का एक रैखिक संयोजन होता है। यदि असतत समय संकेत को डिग्री $$p-1$$ के बहुपद का पालन करने का प्राक्कलन लगाया जाता है फिर भविष्यवक्ता गुणांक $$a_i$$ पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह होता है। यह प्राक्कलन कम ध्वनि वाले धीरे-धीरे बदलते संकेत के लिए उपयुक्त हो सकता है। पहले के कुछ मूल्यों के लिए भविष्यवाणियाँ $$p$$ निम्न प्रकार हैं


 * $$\begin{array}{lcl}

p=1 & : & \widehat{x}(n) = 1x(n-1)\\ p=2 & : & \widehat{x}(n) = 2x(n-1) - 1x(n-2) \\ p=3 & : & \widehat{x}(n) = 3x(n-1) - 3x(n-2) + 1x(n-3)\\ p=4 & : & \widehat{x}(n) = 4x(n-1) - 6x(n-2) + 4x(n-3) - 1x(n-4)\\ \end{array} $$

यह भी देखें

 * ऑटोरेग्रेसिव मॉडल
 * रेखीय पूर्वानुमानित विश्लेषण
 * न्यूनतम माध्य वर्ग त्रुटि
 * प्रेडिक्शन अंतराल
 * मार्ग निस्पंदन

बाहरी संबंध

 * PLP and RASTA (and MFCC, and inversion) in Matlab