लीनियर प्रेडिक्शन

रैखिक भविष्यवाणी एक गणितीय ऑपरेशन है जहां असतत समय और निरंतर समय के भविष्य के मूल्यों का अनुमान लगाया जाता है। असतत-समय संकेत आगे बढ़ाना का अनुमान पिछले नमूनों के रैखिक परिवर्तन के रूप में लगाया जाता है।

अंकीय संकेत प्रक्रिया में, रैखिक भविष्यवाणी को अक्सर रैखिक भविष्य कहनेवाला कोडिंग (एलपीसी) कहा जाता है और इस प्रकार इसे फ़िल्टर सिद्धांत के सबसेट के रूप में देखा जा सकता है। सिस्टम विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक भविष्यवाणी को गणितीय मॉडलिंग या अनुकूलन (गणित) के एक भाग के रूप में देखा जा सकता है।

भविष्यवाणी मॉडल
सबसे आम प्रतिनिधित्व है


 * $$\widehat{x}(n) = \sum_{i=1}^p a_i x(n-i)\,$$

कहाँ $$\widehat{x}(n)$$ अनुमानित संकेत मान है, $$x(n-i)$$ पिछले देखे गए मान, के साथ $$ p \leq n $$, और $$a_i$$ भविष्यवक्ता गुणांक. इस अनुमान से उत्पन्न त्रुटि है


 * $$e(n) = x(n) - \widehat{x}(n)\,$$

कहाँ $$x(n)$$ सही सिग्नल मान है.

ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक भविष्यवाणी के लिए मान्य हैं। अंतर भविष्यवक्ता गुणांक के तरीके में पाए जाते हैं $$a_i$$ चुने गए हैं.

बहुआयामी संकेतों के लिए त्रुटि मीट्रिक को अक्सर इस प्रकार परिभाषित किया जाता है


 * $$e(n) = \|x(n) - \widehat{x}(n)\|\,$$

कहाँ $$\|\cdot\|$$ एक उपयुक्त चुना हुआ वेक्टर मानदंड (गणित) है। जैसी भविष्यवाणियाँ $$\widehat{x}(n)$$ शोर माप से क्रमशः वर्तमान और पिछले सिग्नल मूल्यों का अनुमान लगाने के लिए कलमन फ़िल्टर और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।

मापदंडों का अनुमान लगाना
मापदंडों के अनुकूलन में सबसे आम विकल्प $$a_i$$ मूल माध्य वर्ग मानदंड है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि के अपेक्षित मान को न्यूनतम कर देते हैं $$ E[e^2(n)]$$, जो समीकरण उत्पन्न करता है


 * $$\sum_{i=1}^p a_i R(j-i) = R(j),$$

1 ≤ j ≤ p के लिए, जहां R सिग्नल x का स्वत:सहसंबंध हैn, के रूप में परिभाषित


 * $$\ R(i) = E\{x(n)x(n-i)\}\,$$,

और E अपेक्षित मान है. बहुआयामी मामले में यह एलपी स्पेस|एल को न्यूनतम करने के अनुरूप है2 आदर्श.

उपरोक्त समीकरणों को सामान्य समीकरण या ऑटोरेग्रेसिव मॉडल#यूल-वॉकर समीकरण|यूल-वॉकर समीकरण कहा जाता है। मैट्रिक्स रूप में समीकरणों को समकक्ष रूप में लिखा जा सकता है


 * $$\mathbf{R A} = \mathbf{r}$$

जहां ऑटोसहसंबंध मैट्रिक्स $$\mathbf{R}$$ एक सममित है, $$p \times p$$ तत्वों के साथ Toeplitz मैट्रिक्स $$ r_{ij} = R(i-j), 0 \leq i, j<p $$, वेक्टर $$\mathbf{r}$$ स्वसहसंबंध वेक्टर है $$ r_j = R(j), 0<j \leq p$$, और $$\mathbf{A} = [a_1, a_2, \,\cdots\,, a_{p-1}, a_p]$$, पैरामीटर वेक्टर।

दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना है


 * $$e(n) = x(n) - \widehat{x}(n) = x(n) - \sum_{i=1}^p a_i x(n-i) = - \sum_{i=0}^p a_i x(n-i)$$

जहां सब पर खोज में अनुकूलन समस्या है $$a_i$$ अब बाध्य होना चाहिए $$a_0=-1$$.

दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर शामिल किया जाता है, तो समीकरणों का संवर्धित सेट इस प्रकार प्राप्त होता है


 * $$\ \mathbf{R A} = [1, 0, ..., 0]^{\mathrm{T}}$$

जहां सूचकांक $$i$$ 0 से लेकर है $$p$$, और $$\mathbf{R}$$ एक है $$(p+1)\times(p+1)$$ आव्यूह।

रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए गए हैं। वास्तव में, स्वसहसंबंध विधि सबसे आम है और इसका उपयोग, उदाहरण के लिए, मोबाइल संप्रेषण के लिए विश्वव्यापी व्यवस्था मानक में वाक् कोडिंग के लिए किया जाता है।

मैट्रिक्स समीकरण का समाधान $$\mathbf{R A} = \mathbf{r}$$ कम्प्यूटेशनल रूप से एक अपेक्षाकृत महंगी प्रक्रिया है। मैट्रिक्स व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान है लेकिन यह दृष्टिकोण समरूपता का कुशलतापूर्वक उपयोग नहीं करता है $$\mathbf{R}$$. एक तेज़ एल्गोरिथ्म 1947 में नॉर्मन लेविंसन द्वारा प्रस्तावित लेविंसन रिकर्सन है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है। 1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए लगभग आधी संख्या में गुणन और विभाजन की आवश्यकता होती है। यह बाद के रिकर्सन स्तरों पर पैरामीटर वैक्टर की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना $$p$$ शर्तें इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं $$p-1$$ शर्तें।

मॉडल मापदंडों की पहचान करने का एक अन्य तरीका कलमन फिल्टर का उपयोग करके राज्य अनुमानों की पुनरावृत्तीय गणना करना और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर अधिकतम संभावना अनुमान अनुमान प्राप्त करना है।

समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप एक बहुपद प्रक्षेप#दिए गए मानों का एक रैखिक संयोजन|ज्ञात मानों का रैखिक संयोजन है। यदि असतत समय संकेत को डिग्री के बहुपद का पालन करने का अनुमान लगाया जाता है $$p-1,$$ फिर भविष्यवक्ता गुणांक $$a_i$$ पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए हैं#द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह है।|द्विपद परिवर्तन गुणांक का त्रिकोण। यह अनुमान कम शोर वाले धीरे-धीरे बदलते सिग्नल के लिए उपयुक्त हो सकता है। के पहले कुछ मूल्यों के लिए भविष्यवाणियाँ $$p$$ हैं


 * $$\begin{array}{lcl}

p=1 & : & \widehat{x}(n) = 1x(n-1)\\ p=2 & : & \widehat{x}(n) = 2x(n-1) - 1x(n-2) \\ p=3 & : & \widehat{x}(n) = 3x(n-1) - 3x(n-2) + 1x(n-3)\\ p=4 & : & \widehat{x}(n) = 4x(n-1) - 6x(n-2) + 4x(n-3) - 1x(n-4)\\ \end{array} $$

यह भी देखें

 * ऑटोरेग्रेसिव मॉडल
 * रेखीय पूर्वानुमानित विश्लेषण
 * न्यूनतम माध्य वर्ग त्रुटि
 * भविष्यवाणी अंतराल
 * सड़क फ़िल्टरिंग

बाहरी संबंध

 * PLP and RASTA (and MFCC, and inversion) in Matlab