ऑटोरेग्रेसिव मॉडल

सांख्यिकी, अर्थमिति और सिग्नल प्रोसेसिंग में, एक ऑटोरेग्रेसिव (एआर) मॉडल एक प्रकार की यादृच्छिक प्रक्रिया का प्रतिनिधित्व है; जैसे, इसका उपयोग प्रकृति, अर्थशास्त्र, व्यवहार आदि में कुछ निश्चित समय-भिन्न प्रक्रियाओं का वर्णन करने के लिए किया जाता है। ऑटोरेग्रेसिव मॉडल निर्दिष्ट करता है कि आउटपुट चर अपने स्वयं के पिछले मूल्यों पर और स्टोकेस्टिक शब्द (एक अपूर्ण रूप से अनुमानित शब्द) पर रैखिक रूप से निर्भर करता है; इस प्रकार मॉडल एक स्टोकास्टिक अंतर समीकरण (या पुनरावृत्ति संबंध जो अंतर समीकरण के साथ भ्रमित नहीं होना चाहिए) के रूप में है। मूविंग-एवरेज मॉडल | मूविंग-एवरेज (MA) मॉडल के साथ, यह एक विशेष मामला है और अधिक सामान्य ऑटोरेग्रेसिव-मूविंग-एवरेज मॉडल | ऑटोरेग्रेसिव-मूविंग-एवरेज (ARMA) और ऑटोरेग्रेसिव इंटीग्रेटेड मूविंग एवरेज (ARIMA) का प्रमुख घटक है। ) समय श्रृंखला के मॉडल, जिनमें अधिक जटिल स्टोकेस्टिक संरचना होती है; यह वेक्टर ऑटोरेग्रेसिव मॉडल (VAR) का एक विशेष मामला भी है, जिसमें एक से अधिक विकसित यादृच्छिक चर में एक से अधिक इंटरलॉकिंग स्टोचैस्टिक अंतर समीकरण की प्रणाली शामिल है।

मूविंग-एवरेज (MA) मॉडल के विपरीत, ऑटोरेग्रेसिव मॉडल हमेशा स्थिर नहीं होता है क्योंकि इसमें एक यूनिट रूट हो सकता है।

परिभाषा
अंकन $$AR(p)$$ ऑर्डर पी के एक ऑटोरेग्रेसिव मॉडल को इंगित करता है। एआर (पी) मॉडल के रूप में परिभाषित किया गया है


 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i} + \varepsilon_t$$

कहाँ $$\varphi_1, \ldots, \varphi_p$$ मॉडल के पैरामीटर हैं, और $$\varepsilon_t$$ सफेद शोर है। इसे बैकशिफ्ट ऑपरेटर B as का उपयोग करके समान रूप से लिखा जा सकता है


 * $$ X_t = \sum_{i=1}^p \varphi_i B^i X_{t} + \varepsilon_t $$

ताकि, योग पद को बाईं ओर ले जाने और बहुपद संकेतन का उपयोग करने पर, हमारे पास हो


 * $$\phi [B]X_t= \varepsilon_t$$

इस प्रकार एक ऑटोरेग्रेसिव मॉडल को ऑल-पोल (जटिल विश्लेषण) अनंत आवेग प्रतिक्रिया फ़िल्टर के आउटपुट के रूप में देखा जा सकता है जिसका इनपुट सफेद शोर है।

मॉडल स्थिर रहने के लिए कुछ पैरामीटर बाधाएँ आवश्यक हैं प्रक्रिया#कमजोर या व्यापक-अर्थ स्थिरता|कमजोर-भाव स्थिर। उदाहरण के लिए, एआर (1) मॉडल में प्रक्रियाएं $$|\varphi_1 | \geq 1$$ स्थिर नहीं हैं। अधिक आम तौर पर, एआर (पी) मॉडल के लिए कमजोर-भावना स्थिर होने के लिए, बहुपद की जड़ें $$\Phi(z):=\textstyle 1 - \sum_{i=1}^p \varphi_i z^{i}$$ यूनिट सर्कल के बाहर होना चाहिए, यानी प्रत्येक (जटिल) रूट $$z_i$$ संतुष्ट करना चाहिए $$|z_i |>1$$ (पेज 89,92 देखें ).

झटकों का अंतर्कालिक प्रभाव
एआर प्रक्रिया में, एक बार का झटका विकासशील चर के मूल्यों को भविष्य में असीम रूप से प्रभावित करता है। उदाहरण के लिए, AR(1) मॉडल पर विचार करें $$ X_t = \varphi_1 X_{t-1} + \varepsilon_t$$. के लिए एक गैर-शून्य मान $$\varepsilon_t$$ कहने के समय टी = 1 प्रभावित करता है $$X_1$$ राशि से $$\varepsilon_1$$. फिर एआर समीकरण द्वारा के लिए $$X_2$$ के अनुसार $$X_1$$, यह प्रभावित करता है $$X_2$$ राशि से $$\varphi_1 \varepsilon_1$$. फिर एआर समीकरण द्वारा के लिए $$X_3$$ के अनुसार $$X_2$$, यह प्रभावित करता है $$X_3$$ राशि से $$\varphi_1^2 \varepsilon_1$$. इस प्रक्रिया को जारी रखने से पता चलता है कि का प्रभाव $$\varepsilon_1$$ कभी समाप्त नहीं होता, यद्यपि यदि प्रक्रिया स्थिर प्रक्रिया है तो सीमा में प्रभाव शून्य की ओर कम हो जाता है।

क्योंकि प्रत्येक आघात X मानों को असीम रूप से भविष्य में तब से प्रभावित करता है जब वे होते हैं, कोई भी मान Xt अतीत में असीम रूप से होने वाले झटकों से प्रभावित होता है। इसे ऑटोरिग्रेशन को फिर से लिखकर भी देखा जा सकता है


 * $$\phi (B)X_t= \varepsilon_t \,$$

(जहां स्थिर शब्द को यह मानकर दबा दिया गया है कि चर को उसके माध्य से विचलन के रूप में मापा गया है) के रूप में


 * $$X_t= \frac{1}{\phi (B)}\varepsilon_t \, .$$

जब दाईं ओर बहुपद लंबा विभाजन किया जाता है, तो बैकशिफ्ट ऑपरेटर में बहुपद को लागू किया जाता है $$\varepsilon_t$$ का एक अनंत क्रम है—अर्थात्, के अंतरालित मानों की अनंत संख्या $$\varepsilon_t$$ समीकरण के दाईं ओर दिखाई देते हैं।

विशेषता बहुपद
एआर (पी) प्रक्रिया के स्वत: सहसंबंध समारोह के रूप में व्यक्त किया जा सकता है
 * $$\rho(\tau) = \sum_{k=1}^p a_k y_k^{-|\tau|} ,$$

कहाँ $$y_k$$ बहुपद की जड़ें हैं
 * $$\phi(B) = 1- \sum_{k=1}^p \varphi_k B^k $$

जहां बी बैकशिफ्ट ऑपरेटर है, जहां $$\phi(\cdot)$$ ऑटोरिग्रेशन को परिभाषित करने वाला कार्य है, और कहाँ $$\varphi_k$$ ऑटोरिग्रेशन में गुणांक हैं। सूत्र तभी मान्य होता है जब सभी मूलों की बहुलता 1 हो।

एआर (पी) प्रक्रिया का स्वत: सहसंबंध समारोह क्षयकारी घातीयों का योग है।
 * प्रत्येक वास्तविक जड़ स्वत: सहसंबंध समारोह में एक घटक का योगदान देता है जो तेजी से घटता है।
 * इसी तरह, जटिल संयुग्म जड़ों की प्रत्येक जोड़ी एक घातीय रूप से अवमंदित दोलन का योगदान करती है।

एआर (पी) प्रक्रियाओं के रेखांकन
सबसे सरल एआर प्रक्रिया एआर (0) है, जिसकी शर्तों के बीच कोई निर्भरता नहीं है। प्रक्रिया के आउटपुट में केवल त्रुटि/नवाचार/शोर शब्द योगदान देता है, इसलिए चित्र में, एआर (0) सफेद शोर से मेल खाता है।

सकारात्मक के साथ एआर (1) प्रक्रिया के लिए $$\varphi$$, प्रक्रिया में केवल पिछला शब्द और शोर शब्द आउटपुट में योगदान करते हैं। अगर $$\varphi$$ 0 के करीब है, तो प्रक्रिया अभी भी सफेद शोर की तरह दिखती है, लेकिन जैसा $$\varphi$$ दृष्टिकोण 1, आउटपुट को शोर के सापेक्ष पिछले शब्द से बड़ा योगदान मिलता है। इसका परिणाम लो पास फिल्टर के समान आउटपुट के चौरसाई या एकीकरण में होता है।

एआर (2) प्रक्रिया के लिए, पिछले दो शब्द और शोर शब्द आउटपुट में योगदान करते हैं। अगर दोनों $$\varphi_1$$ और $$\varphi_2$$ सकारात्मक हैं, तो आउटपुट कम पास फिल्टर जैसा होगा, शोर के उच्च आवृत्ति वाले हिस्से में कमी आई है। अगर $$\varphi_1$$ जबकि सकारात्मक है $$\varphi_2$$ नकारात्मक है, तो प्रक्रिया प्रक्रिया की शर्तों के बीच साइन इन में बदलाव का समर्थन करती है। आउटपुट दोलन करता है। इसकी तुलना एज डिटेक्शन या दिशा में बदलाव का पता लगाने से की जा सकती है।

उदाहरण: एक एआर (1) प्रक्रिया
एक एआर (1) प्रक्रिया द्वारा दिया जाता है:$$X_t = \varphi X_{t-1}+\varepsilon_t\,$$कहाँ $$\varepsilon_t$$ शून्य माध्य और निरंतर विचरण के साथ एक श्वेत शोर प्रक्रिया है $$\sigma_\varepsilon^2$$. (नोट: सबस्क्रिप्ट ऑन $$\varphi_1$$ गिरा दिया गया है।) प्रक्रिया स्थिर प्रक्रिया है $$|\varphi|<1$$ चूंकि यह एक स्थिर फिल्टर के आउटपुट के रूप में प्राप्त होता है जिसका इनपुट सफेद शोर होता है। (अगर $$\varphi=1$$ फिर का विचरण $$X_t$$ समय अंतराल टी पर निर्भर करता है, ताकि श्रृंखला का विचलन अनंत तक जाता है क्योंकि टी अनंत तक जाता है, और इसलिए कमजोर अर्थ स्थिर नहीं है।) मानते हैं $$|\varphi|<1$$, मतलब $$\operatorname{E} (X_t)$$ कमजोर भावना स्थिरता की परिभाषा से टी के सभी मूल्यों के लिए समान है। यदि माध्य द्वारा निरूपित किया जाता है $$\mu$$, यह इस प्रकार है$$\operatorname{E} (X_t)=\varphi\operatorname{E} (X_{t-1})+\operatorname{E}(\varepsilon_t), $$वह$$ \mu=\varphi\mu+0,$$और इसलिए


 * $$\mu=0.$$

भिन्नता है


 * $$\textrm{var}(X_t)=\operatorname{E}(X_t^2)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2},$$

कहाँ $$\sigma_\varepsilon$$ का मानक विचलन है $$\varepsilon_t$$. इसे नोट करके दिखाया जा सकता है
 * $$\textrm{var}(X_t) = \varphi^2\textrm{var}(X_{t-1}) + \sigma_\varepsilon^2,$$

और फिर यह देखते हुए कि ऊपर की मात्रा इस संबंध का एक स्थिर निश्चित बिंदु है।

स्वसहप्रसरण द्वारा दिया जाता है


 * $$B_n=\operatorname{E}(X_{t+n}X_t)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|n|}.$$

यह देखा जा सकता है कि स्वतः सहप्रसरण फलन के क्षय समय (जिसे समय स्थिरांक भी कहा जाता है) के साथ क्षय होता है $$\tau=1-\varphi$$. स्पेक्ट्रल घनत्व फ़ंक्शन ऑटोकोवेरियन फ़ंक्शन का फूरियर रूपांतरण है। असतत शब्दों में यह असतत-समय फूरियर रूपांतरण होगा:


 * $$\Phi(\omega)=

\frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n} =\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma_\varepsilon^2}{1+\varphi^2-2\varphi\cos(\omega)}\right). $$ यह अभिव्यक्ति की असतत प्रकृति के कारण आवधिक है $$X_j$$, जो भाजक में कोसाइन शब्द के रूप में प्रकट होता है। अगर हम मानते हैं कि नमूना लेने का समय ($$\Delta t=1$$) क्षय समय से बहुत छोटा है ($$\tau$$), तो हम एक सातत्य सन्निकटन का उपयोग कर सकते हैं $$B_n$$:


 * $$B(t)\approx \frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|t|}$$

जो वर्णक्रमीय घनत्व के लिए कॉची वितरण देता है:


 * $$\Phi(\omega)=

\frac{1}{\sqrt{2\pi}}\,\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}$$ कहाँ $$\gamma=1/\tau$$ क्षय समय से जुड़ी कोणीय आवृत्ति है $$\tau$$.

के लिए एक वैकल्पिक अभिव्यक्ति $$X_t$$ पहले स्थानापन्न करके प्राप्त किया जा सकता है $$\varphi X_{t-2}+\varepsilon_{t-1}$$ के लिए $$X_{t-1}$$ परिभाषित समीकरण में। इस प्रक्रिया को जारी रखने से N गुना पैदावार होती है


 * $$X_t=\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.$$

अनंत की ओर अग्रसर N के लिए, $$\varphi^N$$ शून्य तक पहुंच जाएगा और:


 * $$X_t=\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.$$

ऐसा देखा गया है $$X_t$$ सफेद शोर के साथ संलिप्त है $$\varphi^k$$ कर्नेल प्लस निरंतर माध्य। अगर सफेद शोर $$\varepsilon_t$$ एक गॉसियन प्रक्रिया है तो $$X_t$$ गॉसियन प्रक्रिया भी है। अन्य मामलों में, केंद्रीय सीमा प्रमेय इंगित करता है कि $$X_t$$ लगभग सामान्य रूप से वितरित किया जाएगा जब $$\varphi$$ एक के करीब है।

के लिए $$\varepsilon_t = 0$$, प्रक्रिया $$X_t = \varphi X_{t-1}$$ एक ज्यामितीय प्रगति (घातीय वृद्धि या क्षय) होगी। इस मामले में, समाधान विश्लेषणात्मक रूप से पाया जा सकता है: $$X_t = a \varphi^t$$ जिसके तहत $$a$$ एक अज्ञात स्थिरांक (प्रारंभिक स्थिति) है।

एआर (1) प्रक्रिया का स्पष्ट माध्य/अंतर रूप
एआर (1) मॉडल निरंतर ऑर्नस्टीन-उहलेनबेक प्रक्रिया का असतत समय सादृश्य है। इसलिए कभी-कभी एआर (1) मॉडल के गुणों को समतुल्य रूप में समझना उपयोगी होता है। इस रूप में, एआर (1) मॉडल, प्रक्रिया पैरामीटर के साथ $$\theta$$ द्वारा दिया गया है:


 * $$X_{t+1} = X_t + (1-\theta)(\mu - X_t) + \varepsilon_{t+1}$$, कहाँ $$|\theta| < 1 \,$$ और $$\mu$$ मॉडल माध्य है।

इसे फॉर्म में लगाकर $$ X_{t+1} = \phi X_t +\varepsilon_{t+1} $$, और उसके बाद के लिए श्रृंखला का विस्तार करना $$X_{t+n}$$, कोई दिखा सकता है कि:


 * $$ \operatorname{E}(X_{t+n} | X_t) = \mu\left[1-\theta^n\right] + X_t\theta^n$$, और
 * $$ \operatorname{Var} (X_{t+n} | X_t) = \sigma^2 \frac{ 1 - \theta^{2n} }{1 -\theta^2}$$.

अधिकतम अंतराल चुनना
एआर (पी) प्रक्रिया का आंशिक स्वसंबंध पी से बड़े अंतराल पर शून्य के बराबर होता है, इसलिए उपयुक्त अधिकतम अंतराल पी वह है जिसके बाद आंशिक स्वसंबंध सभी शून्य होते हैं।

एआर मापदंडों की गणना
गुणांकों का अनुमान लगाने के कई तरीके हैं, जैसे सामान्य न्यूनतम वर्ग प्रक्रिया या क्षणों की विधि (सांख्यिकी) (यूल-वॉकर समीकरणों के माध्यम से)।

एआर (पी) मॉडल समीकरण द्वारा दिया गया है


 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,$$

यह मापदंडों पर आधारित है $$\varphi_i$$ जहां मैं = 1, ..., पी। इन मापदंडों और प्रक्रिया के सहप्रसरण समारोह के बीच एक सीधा पत्राचार होता है, और इस पत्राचार को स्वसंबंध समारोह से मापदंडों को निर्धारित करने के लिए उलटा किया जा सकता है (जो स्वयं सहसंयोजकों से प्राप्त होता है)। यह यूल-वॉकर समीकरणों का उपयोग करके किया जाता है।

यूल–वॉकर समीकरण
यूल-वॉकर समीकरण, उडी यूल और गिल्बर्ट वाकर (भौतिक विज्ञानी)भौतिक विज्ञानी) के नाम पर, समीकरणों के निम्नलिखित सेट हैं।
 * $$\gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_{m,0},$$

कहाँ m = 0, …, p, देने वाला p + 1 समीकरण। यहाँ $$\gamma_m$$ X का स्वतः सहप्रसरण फलन हैt, $$\sigma_\varepsilon$$ इनपुट शोर प्रक्रिया का मानक विचलन है, और $$\delta_{m,0}$$ क्रोनकर डेल्टा फ़ंक्शन है।

क्योंकि किसी व्यक्तिगत समीकरण का अंतिम भाग केवल तभी शून्य होता है m = 0, समीकरणों के समुच्चय को समीकरणों को निरूपित करके हल किया जा सकता है m > 0 मैट्रिक्स रूप में, इस प्रकार समीकरण प्राप्त करना


 * $$\begin{bmatrix}

\gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \gamma_p \\ \end{bmatrix}

=

\begin{bmatrix} \gamma_0    & \gamma_{-1}  & \gamma_{-2}  & \cdots \\ \gamma_1    & \gamma_0     & \gamma_{-1}  & \cdots \\ \gamma_2    & \gamma_1     & \gamma_0     & \cdots \\ \vdots      & \vdots       & \vdots       & \ddots \\ \gamma_{p-1} & \gamma_{p-2} & \gamma_{p-3} & \cdots \\ \end{bmatrix}

\begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\ \vdots \\ \varphi_{p} \\ \end{bmatrix}

$$ जिसे सभी के लिए हल किया जा सकता है $$\{\varphi_m; m=1,2, \dots ,p\}.$$ m = 0 के लिए शेष समीकरण है


 * $$\gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 ,$$

जो, एक बार $$\{\varphi_m ; m=1,2, \dots ,p \}$$ जाना जाता है, के लिए हल किया जा सकता है $$\sigma_\varepsilon^2 .$$ एक वैकल्पिक सूत्रीकरण स्वसंबंध समारोह के संदर्भ में है। AR पैरामीटर पहले p+1 तत्वों द्वारा निर्धारित किए जाते हैं $$\rho(\tau)$$ स्वत: सहसंबंध समारोह की। फिर पुनरावर्ती परिकलन द्वारा पूर्ण स्वसहसंबंध फलन प्राप्त किया जा सकता है
 * $$\rho(\tau) = \sum_{k=1}^p \varphi_k \rho(k-\tau)$$

कुछ निम्न-क्रम AR(p) प्रक्रियाओं के उदाहरण
 * पी = 1
 * $$\gamma_1 = \varphi_1 \gamma_0$$
 * इस तरह $$\rho_1 = \gamma_1 / \gamma_0 = \varphi_1$$
 * पी = 2
 * एआर (2) प्रक्रिया के लिए यूल-वाकर समीकरण हैं
 * $$\gamma_1 = \varphi_1 \gamma_0 + \varphi_2 \gamma_{-1}$$
 * $$\gamma_2 = \varphi_1 \gamma_1 + \varphi_2 \gamma_0$$
 * उसे याद रखो $$\gamma_{-k} = \gamma_k$$
 * पहले समीकरण का उपयोग करने से प्राप्त होता है $$\rho_1 = \gamma_1 / \gamma_0 = \frac{\varphi_1}{1-\varphi_2}$$
 * पुनरावर्तन सूत्र का उपयोग करने से प्राप्त होता है $$\rho_2 = \gamma_2 / \gamma_0 = \frac{\varphi_1^2 - \varphi_2^2 + \varphi_2}{1 - \varphi_2}$$

एआर मापदंडों का अनुमान
उपरोक्त समीकरण (यूल-वॉकर समीकरण) अनुमानित मूल्यों के साथ सैद्धांतिक सहप्रसरण को बदलकर, एआर (पी) मॉडल के मापदंडों का आकलन करने के लिए कई मार्ग प्रदान करते हैं। इनमें से कुछ प्रकारों का वर्णन इस प्रकार किया जा सकता है:


 * स्वसहसंबंध या स्वसहसंबंध का अनुमान। यहां पारंपरिक अनुमानों का उपयोग करते हुए इनमें से प्रत्येक शब्द का अलग-अलग अनुमान लगाया गया है। ऐसा करने के विभिन्न तरीके हैं और इनमें से चुनाव अनुमान योजना के गुणों को प्रभावित करता है। उदाहरण के लिए, भिन्नता के नकारात्मक अनुमान कुछ विकल्पों द्वारा उत्पन्न किए जा सकते हैं।
 * कम से कम वर्ग प्रतिगमन समस्या के रूप में सूत्रीकरण जिसमें एक्स के मूल्यों की भविष्यवाणी के आधार पर एक सामान्य न्यूनतम वर्ग भविष्यवाणी समस्या का निर्माण किया गया हैt उसी श्रृंखला के पी पिछले मूल्यों पर। इसे आगे की भविष्यवाणी योजना के रूप में माना जा सकता है। इस समस्या के लिए सामान्य समीकरणों को यूल-वॉकर समीकरणों के मैट्रिक्स रूप के सन्निकटन के अनुरूप देखा जा सकता है, जिसमें एक ही अंतराल के ऑटोकोविरियंस की प्रत्येक उपस्थिति को थोड़ा अलग अनुमान से बदल दिया जाता है।
 * सामान्य न्यूनतम वर्ग भविष्यवाणी समस्या के विस्तारित रूप के रूप में सूत्रीकरण। यहां भविष्यवाणी समीकरणों के दो सेट एक अनुमान योजना और सामान्य समीकरणों के एक सेट में संयुक्त होते हैं। एक सेट फॉरवर्ड-प्रेडिक्शन इक्वेशन का सेट है और दूसरा एआर मॉडल के बैकवर्ड प्रतिनिधित्व से संबंधित बैकवर्ड प्रेडिक्शन इक्वेशन का एक संबंधित सेट है:
 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon^*_t \,.$$
 * यहाँ X के अनुमानित मान हैंt उसी श्रृंखला के पी भविष्य के मूल्यों पर आधारित होगा। एआर मापदंडों का अनुमान लगाने का यह तरीका जॉन पार्कर बर्ग के कारण है, और इसे बर्ग विधि कहा जाता है: बर्ग और बाद के लेखकों ने इन विशेष अनुमानों को अधिकतम एन्ट्रापी अनुमान कहा, लेकिन इसके पीछे तर्क अनुमानित एआर मापदंडों के किसी भी सेट के उपयोग पर लागू होता है। केवल आगे की भविष्यवाणी के समीकरणों का उपयोग करके अनुमान योजना की तुलना में, ऑटोकोवरिएंस के विभिन्न अनुमानों का उत्पादन किया जाता है, और अनुमानों में अलग-अलग स्थिरता गुण होते हैं। बर्ग अनुमान विशेष रूप से अधिकतम एन्ट्रापी वर्णक्रमीय अनुमान से जुड़े हैं।

आकलन के अन्य संभावित तरीकों में अधिकतम संभावना अनुमान शामिल है। अधिकतम संभावना के दो अलग-अलग संस्करण उपलब्ध हैं: एक में (मोटे तौर पर आगे की भविष्यवाणी कम से कम वर्ग योजना के बराबर) संभावना समारोह माना जाता है कि श्रृंखला में बाद के मूल्यों के सशर्त वितरण के अनुरूप श्रृंखला में प्रारंभिक पी मान दिए गए हैं; दूसरे में, संभावना समारोह माना जाता है कि मनाया श्रृंखला में सभी मूल्यों के बिना शर्त संयुक्त वितरण के अनुरूप है। यदि देखी गई श्रृंखला कम है, या प्रक्रिया गैर-स्थिरता के करीब है, तो इन दृष्टिकोणों के परिणामों में पर्याप्त अंतर हो सकता है।

स्पेक्ट्रम
शोर विचरण के साथ एआर (पी) प्रक्रिया का वर्णक्रमीय घनत्व # पावर वर्णक्रमीय घनत्व (PSD)। $$\mathrm{Var}(Z_t) = \sigma_Z^2$$ है : $$S(f) = \frac{\sigma_Z^2}{| 1-\sum_{k=1}^p \varphi_k e^{-i 2 \pi f k} |^2}.$$

एआर (0)
सफेद शोर के लिए (एआर (0))
 * $$S(f) = \sigma_Z^2.$$

एआर (1)
एआर के लिए (1)
 * $$S(f) = \frac{\sigma_Z^2}{| 1- \varphi_1 e^{-2 \pi i f} |^2}

= \frac{\sigma_Z^2}{ 1 + \varphi_1^2 - 2 \varphi_1 \cos 2 \pi f }$$
 * अगर $$\varphi_1 > 0$$ f = 0 पर एकल वर्णक्रमीय शिखर होता है, जिसे अक्सर लाल शोर कहा जाता है। जैसा $$\varphi_1 $$ 1 के करीब होने पर, कम आवृत्तियों पर मजबूत शक्ति होती है, यानी बड़े समय के अंतराल। यह तब एक लो-पास फिल्टर है, जब पूर्ण स्पेक्ट्रम प्रकाश पर लागू किया जाता है, लाल बत्ती को छोड़कर सब कुछ फ़िल्टर किया जाएगा।
 * अगर $$\varphi_1 < 0$$ f = 0 पर न्यूनतम होता है, जिसे अक्सर नीला शोर कहा जाता है। यह इसी तरह एक उच्च-पास फिल्टर के रूप में कार्य करता है, नीली रोशनी को छोड़कर सब कुछ फ़िल्टर हो जाएगा।

एआर (2)
AR(2) प्रक्रियाओं को उनकी जड़ों की विशेषताओं के आधार पर तीन समूहों में विभाजित किया जा सकता है:
 * $$z_1,z_2 = -\frac{1}{2\varphi_2}\left(\varphi_1 \pm \sqrt{\varphi_1^2 + 4\varphi_2}\right)$$


 * कब $$\varphi_1^2 + 4\varphi_2 < 0$$, इस प्रक्रिया में जटिल-संयुग्मी जड़ों की एक जोड़ी होती है, जो निम्न पर एक मध्य-आवृत्ति शिखर बनाती है:
 * $$f^* = \frac{1}{2\pi}\cos^{-1}\left(\frac{\varphi_1(\varphi_2-1)}{4\varphi_2}\right)$$

अन्यथा प्रक्रिया की वास्तविक जड़ें हैं, और: प्रक्रिया गैर-स्थिर होती है जब जड़ें यूनिट सर्कल के बाहर होती हैं। प्रक्रिया स्थिर होती है जब जड़ें यूनिट सर्कल के भीतर होती हैं, या समतुल्य जब गुणांक त्रिकोण में होते हैं $$-1 \le \varphi_2 \le 1 - |\varphi_1|$$.
 * कब $$\varphi_1 > 0$$ यह वर्णक्रमीय शिखर के साथ सफेद शोर पर कम-पास फिल्टर के रूप में कार्य करता है $$f=0$$
 * कब $$\varphi_1 < 0$$ यह वर्णक्रमीय शिखर के साथ सफेद शोर पर एक उच्च-पास फिल्टर के रूप में कार्य करता है $$f=1/2$$.

पूर्ण PSD फ़ंक्शन को वास्तविक रूप में व्यक्त किया जा सकता है:
 * $$S(f) = \frac{\sigma_Z^2}{1 + \varphi_1^2 + \varphi_2^2 - 2\varphi_1(1-\varphi_2)\cos(2\pi f) - 2\varphi_2\cos(4\pi f)}$$

सांख्यिकी पैकेजों में कार्यान्वयन

 * आर (प्रोग्रामिंग भाषा), आँकड़े पैकेज में एक एआर फ़ंक्शन शामिल है।
 * मैटलैब (प्रोग्रामिंग भाषा) का अर्थमिति टूलबॉक्स और सिस्टम आइडेंटिफिकेशन टूलबॉक्स ऑटोरेग्रेसिव मॉडल शामिल हैं
 * मैटलैब (प्रोग्रामिंग लैंग्वेज) और ऑक्टेव (प्रोग्रामिंग भाषा) : टीएसए टूलबॉक्स में यूनी-वैरिएट, बहुभिन्नरूपी आँकड़े और एडाप्टिव ऑटोरेग्रेसिव मॉडल के लिए कई आकलन कार्य होते हैं।
 * PyMC3: बायेसियन सांख्यिकी और संभाव्य प्रोग्रामिंग ढांचा पी लैग्स के साथ ऑटोरेग्रेसिव मोड का समर्थन करता है।
 * Bayesloop समय-भिन्न मापदंडों के साथ AR-1 प्रक्रिया के लिए पैरामीटर अनुमान और मॉडल चयन का समर्थन करता है।
 * Python (प्रोग्रामिंग भाषा): statsmodels में कार्यान्वयन।

आवेग प्रतिक्रिया
एक प्रणाली की आवेग प्रतिक्रिया k के एक समारोह के रूप में पहले सदमे की अवधि k अवधि के मूल्य में परिवर्तन के जवाब में एक विकसित चर में परिवर्तन है। चूंकि एआर मॉडल वेक्टर ऑटोरेग्रेसिव मॉडल का एक विशेष मामला है, वेक्टर ऑटोरेग्रेसिव # इंपल्स प्रतिक्रिया में आवेग प्रतिक्रिया की गणना।

एन-स्टेप-फॉरवर्ड फोरकास्टिंग
एक बार ऑटोरिग्रेशन के पैरामीटर


 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t \,$$

अनुमान लगाया गया है, ऑटोरिग्रेशन का उपयोग भविष्य में मनमानी संख्या की भविष्यवाणी करने के लिए किया जा सकता है। पहली अवधि को संदर्भित करने के लिए पहले टी का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; ज्ञात पूर्ववर्ती मान X को प्रतिस्थापित करेंt-i i=1, ..., p के लिए त्रुटि शब्द सेट करते समय ऑटोरेग्रेसिव समीकरण में $$\varepsilon_t$$ शून्य के बराबर (क्योंकि हम एक्स का अनुमान लगाते हैंt इसके अपेक्षित मान के बराबर करने के लिए, और अनदेखे त्रुटि शब्द का अपेक्षित मान शून्य है)। ऑटोरेग्रेसिव समीकरण का आउटपुट पहली अप्रमाणित अवधि के लिए पूर्वानुमान है। अगला, अगली अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; फिर से ऑटोरिग्रेसिव समीकरण का उपयोग पूर्वानुमान बनाने के लिए किया जाता है, एक अंतर के साथ: X एक अवधि से पहले का मूल्य जो अब पूर्वानुमान किया जा रहा है, ज्ञात नहीं है, इसलिए इसका अपेक्षित मूल्य - पिछले पूर्वानुमान चरण से उत्पन्न होने वाला अनुमानित मूल्य - इसके बजाय उपयोग किया जाता है. फिर भविष्य की अवधि के लिए एक ही प्रक्रिया का उपयोग किया जाता है, हर बार भविष्य कहनेवाला समीकरण के दाईं ओर एक और पूर्वानुमान मूल्य का उपयोग करते हुए, पी भविष्यवाणियों के बाद, सभी पी दाएं-पक्ष के मूल्यों को पिछले चरणों से अनुमानित मान दिए जाते हैं।

इस तरीके से प्राप्त भविष्यवाणियों के संबंध में अनिश्चितता के चार स्रोत हैं: (1) अनिश्चितता कि ऑटोरेग्रेसिव मॉडल सही मॉडल है या नहीं; (2) पूर्वानुमानित मूल्यों की सटीकता के बारे में अनिश्चितता जो ऑटोरेग्रेसिव समीकरण के दाईं ओर लैग्ड मानों के रूप में उपयोग की जाती है; (3) ऑटोरेग्रेसिव गुणांक के वास्तविक मूल्यों के बारे में अनिश्चितता; और (4) त्रुटि पद के मान के बारे में अनिश्चितता $$\varepsilon_t \,$$ भविष्यवाणी की जा रही अवधि के लिए। एन-स्टेप-फॉरवर्ड भविष्यवाणियों के लिए एक विश्वास अंतराल देने के लिए पिछले तीन में से प्रत्येक को परिमाणित और संयोजित किया जा सकता है; दाईं ओर के चरों के लिए अनुमानित मानों की बढ़ती संख्या के उपयोग के कारण विश्वास अंतराल व्यापक हो जाएगा क्योंकि n बढ़ता है।

यह भी देखें

 * मूविंग एवरेज मॉडल
 * रेखीय अंतर समीकरण
 * भविष्य बतानेवाला विश्लेषक
 * रैखिक भविष्य कहनेवाला कोडिंग
 * प्रतिध्वनि
 * लेविंसन रिकर्सन
 * ऑर्स्टीन-उहलेनबेक प्रक्रिया
 * अनंत आवेग प्रतिक्रिया

बाहरी संबंध

 * AutoRegression Analysis (AR) by Paul Bourke
 * by Mark Thoma