ऑटोरेग्रेसिव मॉडल

सांख्यिकी, अर्थमिति और संकेत संसाधन में स्वत:प्रतिगामी मॉडल (एआर) एक प्रकार की यादृच्छिक प्रक्रिया का प्रतिनिधित्व करता है जैसे, इसका उपयोग प्रकृति, अर्थशास्त्र, व्यवहार आदि में कुछ समय-भिन्न प्रक्रियाओं का वर्णन करने के लिए किया जाता है। स्वत:प्रतिगामी मॉडल निर्दिष्ट करता है कि आउटपुट चर अपने पिछले मानों और एक प्रसंभाव्य शब्द (एक अपूर्ण रूप से पूर्वानुमानित शब्द) पर रैखिक रूप से निर्भर करता है। इस प्रकार मॉडल एक प्रसंभाव्य अंतर समीकरण (या पुनरावृत्ति संबंध जिसे अंतर समीकरण के साथ भ्रमित नहीं किया जाना चाहिए) के रूप में है। मूविंग-एवरेज (एमए) मॉडल के साथ, यह समय श्रृंखला के अधिक सामान्य स्वत:प्रतिगामी-मूविंग-एवरेज (एआरएमए) औरस्वत:प्रतिगामी इंटीग्रेटेड मूविंग एवरेज (एआरआईएमए) मॉडल का एक विशेष मामला और प्रमुख घटक है, जिसमें अधिक जटिल प्रसंभाव्य संरचना है। यह सदिश स्वत:प्रतिगामी मॉडल (वीएआर) का एक विशेष मामला भी है, जिसमें एक से अधिक विकसित यादृच्छिक चर में एक से अधिक अंतःबंधन प्रसंभाव्य अंतर समीकरण की एक प्रणाली सम्मिलित है।

मूविंग-एवरेज (MA) मॉडल के विपरीत, स्वत:प्रतिगामी मॉडल हमेशा स्थिर नहीं होता है क्योंकि इसमें एक यूनिट रूट हो सकता है।

परिभाषा
अंकन $$AR(p)$$ ऑर्डर पी के एक स्वत:प्रतिगामी मॉडल को इंगित करता है। $$AR(p)$$ मॉडल के रूप में परिभाषित किया गया है


 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i} + \varepsilon_t$$

कहाँ $$\varphi_1, \ldots, \varphi_p$$ मॉडल के पैरामीटर हैं, और $$\varepsilon_t$$ सफेद शोर है। इसे बैकशिफ्ट संक्रियक B as का उपयोग करके समान रूप से लिखा जा सकता है


 * $$ X_t = \sum_{i=1}^p \varphi_i B^i X_{t} + \varepsilon_t $$

ताकि, योग पद को बाईं ओर ले जाने और बहुपद संकेतन का उपयोग करने पर, हमारे पास हो


 * $$\phi [B]X_t= \varepsilon_t$$

इस प्रकार एक स्वत:प्रतिगामी मॉडल को ऑल-पोल (जटिल विश्लेषण) अनंत आवेग प्रतिक्रिया फ़िल्टर के आउटपुट के रूप में देखा जा सकता है जिसका इनपुट सफेद शोर है।

मॉडल को कमज़ोर-अर्थ स्थिर बने रहने के लिए कुछ पैरामीटर बाधाएँ आवश्यक हैं। उदाहरण के लिए, एआर (1) मॉडल में $$|\varphi_1 | \geq 1$$ वाली प्रक्रियाएं स्थिर नहीं हैं। अधिक सामान्यतः $$AR(p)$$ मॉडल के लिए दुर्बल-भावना स्थिर होने के लिए, बहुपद की जड़ें $$\Phi(z):=\textstyle 1 - \sum_{i=1}^p \varphi_i z^{i}$$ यूनिट सर्कल के बाहर होना चाहिए, यानी प्रत्येक (जटिल) रूट $$z_i$$ संतुष्ट करना चाहिए $$|z_i |>1$$ (पेज 89,92 देखें ).

झटकों का अंतर्कालिक प्रभाव
एआर प्रक्रिया में, एक बार का झटका भविष्य में विकसित हो रहे चर के मानों को अनंत तक प्रभावित करता है। उदाहरण के लिए, AR(1) मॉडल $$ X_t = \varphi_1 X_{t-1} + \varepsilon_t$$ पर विचार करें। मान लीजिए समय t=1 पर $$\varepsilon_t$$ के लिए एक गैर-शून्य मान $$X_1$$ को $$\varepsilon_t$$ की मात्रा से प्रभावित करता है। फिर $$X_2$$ के लिए AR समीकरण द्वारा $$X_1$$ के संदर्भ में, यह $$X_2$$ को $$\varepsilon_1$$ की मात्रा से प्रभावित करता है। फिर $$X_2$$ के संदर्भ में $$X_3$$ के लिए AR समीकरण द्वारा, यह $$X_3$$ को $$\varphi_1 \varepsilon_1$$ की मात्रा से प्रभावित करता है। इस प्रक्रिया को जारी रखने से पता चलता है कि $$\varepsilon_1$$ का प्रभाव कभी समाप्त नहीं होता है, हालाँकि यदि प्रक्रिया स्थिर है तो सीमा में प्रभाव शून्य की ओर कम हो जाता है।

चूँकि प्रत्येक झटका अपने घटित होने के समय से लेकर भविष्य में अनंत तक X मानों को प्रभावित करता है, इसलिए कोई भी दिया गया मान Xt अतीत में अनंत रूप से घटित होने वाले झटकों से प्रभावित होता है। इसे स्वत: प्रतिगमन को दोबारा लिखकर भी देखा जा सकता है


 * $$\phi (B)X_t= \varepsilon_t \,$$

(जहाँ अचर पद को यह मानकर दबा दिया गया है कि चर को उसके माध्य से विचलन के रूप में मापा गया है) जैसे


 * $$X_t= \frac{1}{\phi (B)}\varepsilon_t \, .$$

जब दाईं ओर बहुपद विभाजन किया जाता है, तो $$\varepsilon_t$$ पर प्रयुक्त बैकशिफ्ट संक्रियक में बहुपद का एक अनंत क्रम होता है - अर्थात, समीकरण के दाईं ओर $$\varepsilon_t$$ के अनंत संख्या में विलंबित मान दिखाई देते हैं।

विशेषता बहुपद
$$AR(p)$$ प्रक्रिया के स्वत: सहसंबंध समारोह के रूप में व्यक्त किया जा सकता है
 * $$\rho(\tau) = \sum_{k=1}^p a_k y_k^{-|\tau|} ,$$

कहाँ $$y_k$$ बहुपद की जड़ें हैं
 * $$\phi(B) = 1- \sum_{k=1}^p \varphi_k B^k $$

जहां बी बैकशिफ्ट संक्रियक है, जहां $$\phi(\cdot)$$ स्वत: प्रतिगमन को परिभाषित करने वाला कार्य है, और कहाँ $$\varphi_k$$ स्वत: प्रतिगमन में गुणांक हैं। सूत्र तभी मान्य होता है जब सभी मूलों की बहुलता 1 हो।

$$AR(p)$$प्रक्रिया का स्वत: सहसंबंध समारोह क्षयकारी घातीयों का योग है।
 * प्रत्येक वास्तविक जड़ स्वत: सहसंबंध समारोह में एक घटक का योगदान देता है जो तेजी से घटता है।
 * इसी तरह, जटिल संयुग्म जड़ों की प्रत्येक जोड़ी एक घातीय रूप से अवमंदित दोलन का योगदान करती है।

$$AR(p)$$ प्रक्रियाओं के रेखांकन
सबसे सरल AR प्रक्रिया AR(0) है, जिसमें पदों के बीच कोई निर्भरता नहीं है। केवल त्रुटि/नवाचार/शोर शब्द प्रक्रिया के आउटपुट में योगदान देता है, इसलिए चित्र में, AR(0) सफेद शोर से मेल खाता है।

धनात्मक $$\varphi$$ वाली AR(1) प्रक्रिया के लिए, प्रक्रिया में केवल पिछला पद और शोर पद आउटपुट में योगदान करते हैं। यदि $$\varphi$$ 0 के करीब है, तो प्रक्रिया अभी भी सफेद शोर की तरह दिखती है, लेकिन जैसे ही $$\varphi$$ 1 के करीब पहुंचता है, आउटपुट को शोर के सापेक्ष पिछले शब्द से बड़ा योगदान मिलता है। इसके परिणामस्वरूप कम पास फिल्टर के समान आउटपुट का "स्मूथिंग" या एकीकरण होता है।

एआर(2) प्रक्रिया के लिए, पिछले दो पद और शोर पद आउटपुट में योगदान करते हैं। यदि $$\varphi_1$$ और $$\varphi_2$$ दोनों धनात्मक हैं, तो आउटपुट एक कम पास फिल्टर जैसा होगा, जिससे शोर का उच्च आवृत्ति वाला हिस्सा कम हो जाएगा। यदि $$\varphi_1$$ धनात्मक है जबकि $$\varphi_2$$ ऋणात्मक है, तो प्रक्रिया प्रक्रिया की शर्तों के बीच संकेत में बदलाव का पक्ष लेती है। आउटपुट दोलन करता है। इसकी तुलना किनारे का पता लगाने या दिशा में परिवर्तन का पता लगाने से की जा सकती है।

उदाहरण: एक एआर (1) प्रक्रिया
एक एआर (1) प्रक्रिया द्वारा दिया जाता है:$$X_t = \varphi X_{t-1}+\varepsilon_t\,$$जहां $$\varepsilon_t$$ शून्य माध्य और स्थिर विचरण के साथ एक सफेद शोर प्रक्रिया है $$\sigma_\varepsilon^2$$ (नोट: $$\varphi_1$$ पर सबस्क्रिप्ट हटा दिया गया है।) प्रक्रिया दुर्बल-अर्थ स्थिर है यदि $$|\varphi|<1$$ क्योंकि यह एक स्थिर फिल्टर के आउटपुट के रूप में प्राप्त किया जाता है जिसका इनपुट सफेद शोर है। (यदि $$\varphi=1$$ है तो $$X_t$$ का प्रसरण समय अंतराल t पर निर्भर करता है, जिससे कि जैसे-जैसे t अनंत तक जाता है, श्रृंखला का प्रसरण अनंत की ओर विचलन करता है, और इसलिए दुर्बल अर्थ स्थिर नहीं है।) यह मानते हुए $$|\varphi|<1$$, माध्य $$\operatorname{E} (X_t)$$ दुर्बल इंद्रिय स्थिरता की परिभाषा के अनुसार t के सभी मानों के लिए समान है। यदि माध्य को $$\mu$$ द्वारा निरूपित किया जाता है तो इसका अनुसरण होता है$$\operatorname{E} (X_t)=\varphi\operatorname{E} (X_{t-1})+\operatorname{E}(\varepsilon_t), $$वह$$ \mu=\varphi\mu+0,$$और इसलिए
 * $$\mu=0.$$

भिन्नता है


 * $$\textrm{var}(X_t)=\operatorname{E}(X_t^2)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2},$$

जहां $$\sigma_\varepsilon$$ का मानक विचलन $$\varepsilon_t$$ है। इसे नोट करके दर्शाया जा सकता है
 * $$\textrm{var}(X_t) = \varphi^2\textrm{var}(X_{t-1}) + \sigma_\varepsilon^2,$$

और फिर यह देखते हुए कि ऊपर की मात्रा इस संबंध का एक स्थिर निश्चित बिंदु है।

स्वसहप्रसरण द्वारा दिया जाता है


 * $$B_n=\operatorname{E}(X_{t+n}X_t)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|n|}.$$

यह देखा जा सकता है कि स्वसहप्रसरण फलन $$\tau=1-\varphi$$ के क्षय समय (जिसे समय स्थिरांक भी कहा जाता है) के साथ क्षय हो जाता है।

वर्णक्रमीय घनत्व फलन स्वसहप्रसरण फलन का फूरियर रूपांतरण है। अलग-अलग शब्दों में यह अलग-अलग समय का फूरियर रूपांतरण होगा:


 * $$\Phi(\omega)=

\frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n} =\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma_\varepsilon^2}{1+\varphi^2-2\varphi\cos(\omega)}\right). $$ यह अभिव्यक्ति $$X_j$$ की असतत प्रकृति के कारण आवधिक है, जो हर में कोसाइन पद के रूप में प्रकट होती है। यदि हम मानते हैं कि नमूना समय $$\Delta t=1$$ क्षय समय $$\tau$$ से बहुत छोटा है, तो हम $$B_n$$ के लिए एक सातत्य सन्निकटन का उपयोग कर सकते हैं:


 * $$B(t)\approx \frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|t|}$$

जो वर्णक्रमीय घनत्व के लिए कॉची वितरण देता है:


 * $$\Phi(\omega)=

\frac{1}{\sqrt{2\pi}}\,\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}$$ जहां $$\gamma=1/\tau$$ क्षय समय $$\tau$$ से जुड़ी कोणीय आवृत्ति है।

$$X_t$$ के लिए एक वैकल्पिक अभिव्यक्ति पहले प्रतिस्थापन द्वारा प्राप्त की जा सकती है परिभाषित समीकरण में $$\varphi X_{t-2}+\varepsilon_{t-1}$$ के लिए $$X_{t-1}$$ इस प्रक्रिया को जारी रखने से N गुना लाभ मिलता है


 * $$X_t=\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.$$

अनंत की ओर अग्रसर N के लिए, $$\varphi^N$$ शून्य तक पहुंच जाएगा और:


 * $$X_t=\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.$$

यह देखा गया है कि $$X_t$$ कर्नेल $$\varphi^k$$ और स्थिर माध्य के साथ जुड़ा हुआ सफेद शोर है। यदि श्वेत शोर $$\varepsilon_t$$ एक गाऊसी प्रक्रिया है तो $$X_t$$ भी एक गाऊसी प्रक्रिया है। अन्य मामलों में, केंद्रीय सीमा प्रमेय इंगित करता है कि $$X_t$$ लगभग सामान्य रूप से वितरित किया जाएगा जब $$\varphi$$ एक के करीब होगा।

$$\varepsilon_t = 0$$ के लिए, प्रक्रिया $$X_t = \varphi X_{t-1}$$ एक ज्यामितीय प्रगति (घातीय वृद्धि या क्षय) होगी। इस मामले में, समाधान विश्लेषणात्मक रूप से पाया जा सकता है $$X_t = a \varphi^t$$ जिससे $$a$$ एक अज्ञात स्थिरांक (प्रारंभिक स्थिति) है।

एआर (1) प्रक्रिया का स्पष्ट माध्य/अंतर रूप
एआर (1) मॉडल निरंतर ऑर्नस्टीन-उहलेनबेक प्रक्रिया का असतत समय सादृश्य है। इसलिए कभी-कभी एआर (1) मॉडल के गुणों को समतुल्य रूप में समझना उपयोगी होता है। इस रूप में, एआर (1) मॉडल, प्रक्रिया पैरामीटर के साथ $$\theta$$ द्वारा दिया गया है:


 * $$X_{t+1} = X_t + (1-\theta)(\mu - X_t) + \varepsilon_{t+1}$$, कहाँ $$|\theta| < 1 \,$$ और $$\mu$$ मॉडल माध्य है।

इसे फॉर्म में लगाकर $$ X_{t+1} = \phi X_t +\varepsilon_{t+1} $$, और उसके बाद के लिए श्रृंखला का विस्तार करना $$X_{t+n}$$, कोई दिखा सकता है कि:


 * $$ \operatorname{E}(X_{t+n} | X_t) = \mu\left[1-\theta^n\right] + X_t\theta^n$$, और
 * $$ \operatorname{Var} (X_{t+n} | X_t) = \sigma^2 \frac{ 1 - \theta^{2n} }{1 -\theta^2}$$.

अधिकतम अंतराल चुनना
$$AR(p)$$ प्रक्रिया का आंशिक स्वत: सहसंबंध पी से बड़े अंतराल पर शून्य के बराबर होता है, इसलिए उचित अधिकतम अंतराल पी वह होता है जिसके बाद आंशिक स्वत: सहसंबंध सभी शून्य होते हैं।

एआर मापदंडों की गणना
गुणांकों का अनुमान लगाने के कई तरीके हैं, जैसे सामान्य न्यूनतम वर्ग प्रक्रिया या क्षणों की विधि (यूलवॉकर समीकरणों के माध्यम से) $$AR(p)$$ मॉडल समीकरण द्वारा दिया गया है:


 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,$$

यह पैरामीटर्स $$\varphi_i$$ पर आधारित है जहां i = 1, ..., p. इन मापदंडों और प्रक्रिया के सहप्रसरण फलन के बीच एक सीधा पत्राचार है, और इस पत्राचार को ऑटोसहसंबंध फलन (जो स्वयं सहप्रसरण से प्राप्त होता है) से मापदंडों को निर्धारित करने के लिए उलटा किया जा सकता है। यह यूल-वॉकर समीकरणों का उपयोग करके किया जाता है।

यूल–वॉकर समीकरण
यूल-वॉकर समीकरण, जिसका नाम उडनी यूल और गिल्बर्ट वाकर (भौतिक विज्ञानी) के नाम पर रखा गया है समीकरणों के निम्नलिखित समुच्चय हैं।
 * $$\gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_{m,0},$$

जहां m = 0, …, p उपज p + 1 समीकरण। यहां $$\gamma_m$$ $$X_t$$ का स्वतः सहप्रसरण फलन है $$\sigma_\varepsilon$$ इनपुट शोर प्रक्रिया का मानक विचलन है और $$\delta_{m,0}$$ क्रोनकर डेल्टा फलन है।

चूँकि किसी व्यक्तिगत समीकरण का अंतिम भाग केवल तभी गैर-शून्य होता है जब m = 0, समीकरणों के समुच्चय को मैट्रिक्स रूप में m > 0 के समीकरणों का प्रतिनिधित्व करके हल किया जा सकता है, इस प्रकार समीकरण प्राप्त होता है:


 * $$\begin{bmatrix}

\gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \gamma_p \\ \end{bmatrix}

=

\begin{bmatrix} \gamma_0    & \gamma_{-1}  & \gamma_{-2}  & \cdots \\ \gamma_1    & \gamma_0     & \gamma_{-1}  & \cdots \\ \gamma_2    & \gamma_1     & \gamma_0     & \cdots \\ \vdots      & \vdots       & \vdots       & \ddots \\ \gamma_{p-1} & \gamma_{p-2} & \gamma_{p-3} & \cdots \\ \end{bmatrix}

\begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\ \vdots \\ \varphi_{p} \\ \end{bmatrix}

$$ जिसे सभी के लिए हल किया जा सकता है $$\{\varphi_m; m=1,2, \dots ,p\}.$$ m = 0 के लिए शेष समीकरण है


 * $$\gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 ,$$

जो, एक बार $$\{\varphi_m ; m=1,2, \dots ,p \}$$ जाना जाता है, के लिए हल किया जा सकता है $$\sigma_\varepsilon^2 .$$ एक वैकल्पिक सूत्रीकरण स्वसंबंध समारोह के संदर्भ में है। AR पैरामीटर पहले p+1 तत्वों द्वारा निर्धारित किए जाते हैं $$\rho(\tau)$$ स्वत: सहसंबंध समारोह की। फिर पुनरावर्ती परिकलन द्वारा पूर्ण स्वसहसंबंध फलन प्राप्त किया जा सकता है:
 * $$\rho(\tau) = \sum_{k=1}^p \varphi_k \rho(k-\tau)$$

कुछ निम्न-क्रम AR(p) प्रक्रियाओं के उदाहरण
 * पी = 1
 * $$\gamma_1 = \varphi_1 \gamma_0$$
 * इस तरह $$\rho_1 = \gamma_1 / \gamma_0 = \varphi_1$$
 * पी = 2
 * एआर (2) प्रक्रिया के लिए यूल-वाकर समीकरण हैं
 * $$\gamma_1 = \varphi_1 \gamma_0 + \varphi_2 \gamma_{-1}$$
 * $$\gamma_2 = \varphi_1 \gamma_1 + \varphi_2 \gamma_0$$
 * उसे याद रखो $$\gamma_{-k} = \gamma_k$$
 * पहले समीकरण का उपयोग करने से प्राप्त होता है $$\rho_1 = \gamma_1 / \gamma_0 = \frac{\varphi_1}{1-\varphi_2}$$
 * पुनरावर्तन सूत्र का उपयोग करने से प्राप्त होता है $$\rho_2 = \gamma_2 / \gamma_0 = \frac{\varphi_1^2 - \varphi_2^2 + \varphi_2}{1 - \varphi_2}$$

एआर मापदंडों का अनुमान
उपरोक्त समीकरण (यूल-वाकर समीकरण) अनुमानित मानों के साथ सैद्धांतिक सहप्रसरण को प्रतिस्थापित करके, $$AR(p)$$ मॉडल के मापदंडों का अनुमान लगाने के लिए कई मार्ग प्रदान करते हैं। इनमें से कुछ प्रकारों का वर्णन इस प्रकार किया जा सकता है:


 * स्वतःसहप्रसरणों या स्वसहसंबंधों का अनुमान। यहां पारंपरिक अनुमानों का उपयोग करते हुए इनमें से प्रत्येक शब्द का अलग-अलग अनुमान लगाया गया है। ऐसा करने के विभिन्न तरीके हैं और इनके बीच चयन अनुमान योजना के गुणों को प्रभावित करता है। उदाहरण के लिए, कुछ विकल्पों द्वारा विचरण का ऋणात्मक अनुमान लगाया जा सकता है।
 * न्यूनतम वर्ग प्रतिगमन समस्या के रूप में सूत्रीकरण जिसमें एक सामान्य न्यूनतम वर्ग पूर्वानुमान समस्या का निर्माण किया जाता है, जो उसी श्रृंखला के पी पिछले मानों पर एक्सटी के मानों की पूर्वानुमान को आधार बनाता है। इसे एक भविष्य-पूर्वानुमान योजना के रूप में सोचा जा सकता है। इस समस्या के लिए सामान्य समीकरणों को यूल-वाकर समीकरणों के मैट्रिक्स रूप के एक अनुमान के अनुरूप देखा जा सकता है जिसमें एक ही अंतराल के एक ऑटोकोवरियन्स की प्रत्येक उपस्थिति को थोड़ा अलग अनुमान से बदल दिया जाता है।
 * सामान्य न्यूनतम वर्ग पूर्वानुमान समस्या के विस्तारित रूप के रूप में निरूपण। यहां पूर्वानुमान समीकरणों के दो समुच्चयों को एक एकल अनुमान योजना और सामान्य समीकरणों के एक समुच्चय में संयोजित किया गया है। एक समुच्चय आगे-पूर्वानुमान समीकरणों का समुच्चय है और दूसरा एआर मॉडल के पिछड़े प्रतिनिधित्व से संबंधित पिछड़े पूर्वानुमान समीकरणों का एक संगत समुच्चय है:
 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon^*_t \,.$$
 * यहां एक्सटी के अनुमानित मान उसी श्रृंखला के पी भविष्य के मानों पर आधारित होंगे। एआर पैरामीटर का अनुमान लगाने का यह तरीका जॉन पार्कर बर्ग के कारण है, और इसे बर्ग विधि कहा जाता है: बर्ग और बाद के लेखकों ने इन विशेष अनुमानों को "अधिकतम एन्ट्रापी अनुमान" कहा, लेकिन इसके पीछे का तर्क अनुमानित एआर मापदंडों के किसी भी समुच्चय के उपयोग पर प्रयुक्त होता है। केवल आगे की पूर्वानुमान समीकरणों का उपयोग करके अनुमान योजना की तुलना में, ऑटोकोवरियन्स के विभिन्न अनुमान उत्पन्न होते हैं, और अनुमानों में अलग-अलग स्थिरता गुण होते हैं। बर्ग अनुमान विशेष रूप से अधिकतम एन्ट्रापी वर्णक्रमीय अनुमान से जुड़े हैं।

अनुमान के अन्य संभावित तरीकों में अधिकतम संभावना अनुमान सम्मिलित है। अधिकतम संभावना के दो अलग-अलग प्रकार उपलब्ध हैं: एक में (मोटे तौर पर आगे की पूर्वानुमान न्यूनतम वर्ग योजना के बराबर) संभावना फलन पर विचार किया जाता है कि श्रृंखला में प्रारंभिक पी मान दिए गए श्रृंखला में बाद के मानों के सशर्त वितरण के अनुरूप है; दूसरे में, संभावना फलन पर विचार किया गया है जो प्रेक्षित श्रृंखला में सभी मानों के बिना शर्त संयुक्त वितरण के अनुरूप है। यदि प्रेक्षित श्रृंखला छोटी है, या यदि प्रक्रिया गैर-स्थिरता के करीब है, तो इन दृष्टिकोणों के परिणामों में पर्याप्त अंतर हो सकता है।

स्पेक्ट्रम
शोर विचरण के साथ AR(p) प्रक्रिया का पावर स्पेक्ट्रल घनत्व $$\mathrm{Var}(Z_t) = \sigma_Z^2$$ है। :

$$S(f) = \frac{\sigma_Z^2}{| 1-\sum_{k=1}^p \varphi_k e^{-i 2 \pi f k} |^2}.$$

एआर (0)
सफेद शोर के लिए (एआर (0))
 * $$S(f) = \sigma_Z^2.$$

एआर (1)
एआर के लिए (1)
 * $$S(f) = \frac{\sigma_Z^2}{| 1- \varphi_1 e^{-2 \pi i f} |^2}

= \frac{\sigma_Z^2}{ 1 + \varphi_1^2 - 2 \varphi_1 \cos 2 \pi f }$$
 * यदि $$\varphi_1 > 0$$ पर f = 0 पर एकल वर्णक्रमीय शिखर है, तो इसे अक्सर लाल शोर के रूप में जाना जाता है। जैसे-जैसे$$\varphi_1 $$ 1 के करीब आता है, कम आवृत्तियों पर मजबूत शक्ति होती है, यानी बड़ा समय अंतराल। यह तब एक कम-पास फिल्टर है, जब पूर्ण स्पेक्ट्रम प्रकाश पर प्रयुक्त किया जाता है, तो लाल रोशनी को छोड़कर सब कुछ फ़िल्टर किया जाएगा।
 * यदि $$\varphi_1 < 0$$ f = 0 पर न्यूनतम है, तो इसे अक्सर नीला शोर कहा जाता है। यह इसी तरह एक हाई-पास फ़िल्टर के रूप में कार्य करता है, नीली रोशनी को छोड़कर सब कुछ फ़िल्टर किया जाएगा।

एआर (2)
AR(2) प्रक्रियाओं को उनकी जड़ों की विशेषताओं के आधार पर तीन समूहों में विभाजित किया जा सकता है:
 * $$z_1,z_2 = -\frac{1}{2\varphi_2}\left(\varphi_1 \pm \sqrt{\varphi_1^2 + 4\varphi_2}\right)$$


 * कब $$\varphi_1^2 + 4\varphi_2 < 0$$, इस प्रक्रिया में जटिल-संयुग्मी जड़ों की एक जोड़ी होती है, जो निम्न पर एक मध्य-आवृत्ति शिखर बनाती है:
 * $$f^* = \frac{1}{2\pi}\cos^{-1}\left(\frac{\varphi_1(\varphi_2-1)}{4\varphi_2}\right)$$

अन्यथा प्रक्रिया की वास्तविक जड़ें हैं, और: प्रक्रिया गैर-स्थिर होती है जब जड़ें यूनिट सर्कल के बाहर होती हैं।
 * कब $$\varphi_1 > 0$$ यह वर्णक्रमीय शिखर के साथ सफेद शोर पर कम-पास फिल्टर के रूप में कार्य करता है $$f=0$$
 * कब $$\varphi_1 < 0$$ यह वर्णक्रमीय शिखर के साथ सफेद शोर पर एक उच्च-पास फिल्टर के रूप में कार्य करता है $$f=1/2$$.

प्रक्रिया स्थिर होती है जब जड़ें यूनिट सर्कल के भीतर होती हैं, या समतुल्य जब गुणांक त्रिकोण में होते हैं $$-1 \le \varphi_2 \le 1 - |\varphi_1|$$.

पूर्ण PSD फलन को वास्तविक रूप में व्यक्त किया जा सकता है:
 * $$S(f) = \frac{\sigma_Z^2}{1 + \varphi_1^2 + \varphi_2^2 - 2\varphi_1(1-\varphi_2)\cos(2\pi f) - 2\varphi_2\cos(4\pi f)}$$

सांख्यिकी पैकेजों में कार्यान्वयन

 * आर (प्रोग्रामिंग भाषा), आँकड़े पैकेज में एक एआर फलन सम्मिलित है।
 * मैटलैब (प्रोग्रामिंग भाषा) का अर्थमिति टूलबॉक्स और सिस्टम आइडेंटिफिकेशन टूलबॉक्स स्वत:प्रतिगामी मॉडल सम्मिलित हैं
 * मैटलैब (प्रोग्रामिंग लैंग्वेज) और ऑक्टेव (प्रोग्रामिंग भाषा) : टीएसए टूलबॉक्स में यूनी-वैरिएट, बहुभिन्नरूपी आँकड़े और एडाप्टिव स्वत:प्रतिगामी मॉडल के लिए कई आकलन कार्य होते हैं।
 * PyMC3: बायेसियन सांख्यिकी और संभाव्य प्रोग्रामिंग ढांचा पी लैग्स के साथ स्वत:प्रतिगामी मोड का समर्थन करता है।
 * Bayesloop समय-भिन्न मापदंडों के साथ AR-1 प्रक्रिया के लिए पैरामीटर अनुमान और मॉडल चयन का समर्थन करता है।
 * Python (प्रोग्रामिंग भाषा): statsmodels में कार्यान्वयन।

आवेग प्रतिक्रिया
एक प्रणाली की आवेग प्रतिक्रिया, k के एक फलन के रूप में, एक शॉक टर्म k अवधि के पहले के मान में परिवर्तन के जवाब में एक विकसित चर में परिवर्तन है। चूंकि एआर मॉडल सदिश स्वत:प्रतिगामी मॉडल का एक विशेष मामला है, इसलिए सदिश स्वत:प्रतिगामी#आवेग प्रतिक्रिया में आवेग प्रतिक्रिया की गणना यहां प्रयुक्त होती है।

एन-स्टेप-फॉरवर्ड फोरकास्टिंग
एक बार स्वत: प्रतिगमन के पैरामीटर


 * $$ X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t \,$$

अनुमान लगाया गया है, स्वत: प्रतिगमन का उपयोग भविष्य में मनमानी संख्या की पूर्वानुमान करने के लिए किया जा सकता है। पहले उस अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; त्रुटि शब्द $$\varepsilon_t$$ को शून्य के बराबर समुच्चय करते समय स्वत:प्रतिगामी समीकरण में i=1, ..., p के लिए ज्ञात पूर्ववर्ती मान Xt-i को प्रतिस्थापित करें (क्योंकि हम अनुमान लगाते हैं कि Xt इसके अपेक्षित मान और अपेक्षित मान के बराबर होगा) अवलोकित त्रुटि पद शून्य है)। स्वत:प्रतिगामी समीकरण का आउटपुट पहली न देखी गई अवधि के लिए पूर्वानुमान है। इसके बाद, अगली अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; पूर्वानुमान बनाने के लिए फिर से स्वत:प्रतिगामी समीकरण का उपयोग किया जाता है, एक अंतर के साथ: जिस अवधि का अब पूर्वानुमान लगाया जा रहा है उससे एक अवधि पहले एक्स का मान ज्ञात नहीं है, इसलिए इसके अपेक्षित मान - पिछले पूर्वानुमान चरण से उत्पन्न अनुमानित मान - का उपयोग इसके अतिरिक्त किया जाता है. फिर भविष्य की अवधि के लिए उसी प्रक्रिया का उपयोग किया जाता है, हर बार पूर्वानुमानित समीकरण के दाईं ओर एक और पूर्वानुमान मान का उपयोग किया जाता है, जब तक कि पी पूर्वानुमानों के बाद, सभी पी दाईं ओर के मान पिछले चरणों से अनुमानित मान नहीं होते हैं।

इस तरीके से प्राप्त पूर्वानुमानों के संबंध में अनिश्चितता के चार स्रोत हैं: (1) अनिश्चितता कि क्या स्वत:प्रतिगामी मॉडल सही मॉडल है; (2) पूर्वानुमानित मानों की सटीकता के बारे में अनिश्चितता जो स्वत:प्रतिगामी समीकरण के दाईं ओर विलंबित मानों के रूप में उपयोग की जाती है; (3) स्वत:प्रतिगामी गुणांक के वास्तविक मानों के बारे में अनिश्चितता और (4) अनुमानित अवधि के लिए त्रुटि शब्द $$\varepsilon_t \,$$ के मान के बारे में अनिश्चितता। एन-स्टेप-फॉरवर्ड पूर्वानुमानों के लिए आत्मविश्वास अंतराल देने के लिए अंतिम तीन में से प्रत्येक को मात्राबद्ध और संयोजित किया जा सकता है; दाईं ओर के चर के लिए अनुमानित मानों की बढ़ती संख्या के उपयोग के कारण n बढ़ने पर विश्वास अंतराल व्यापक हो जाएगा।

यह भी देखें

 * मूविंग एवरेज मॉडल
 * रेखीय अंतर समीकरण
 * भविष्य बतानेवाला विश्लेषक
 * रैखिक भविष्य कहनेवाला कोडिंग
 * प्रतिध्वनि
 * लेविंसन रिकर्सन
 * ऑर्स्टीन-उहलेनबेक प्रक्रिया
 * अनंत आवेग प्रतिक्रिया

बाहरी संबंध

 * AutoRegression Analysis (AR) by Paul Bourke
 * by Mark Thoma