क्षणों की सामान्यीकृत विधि

अर्थमिति और सांख्यिकी में, क्षणों की सामान्यीकृत विधि (जीएमएम) सांख्यिकीय मॉडल में सांख्यिकीय पैरामीटर का अनुमान लगाने के लिए एक सामान्य विधि है। आमतौर पर इसे अर्धपैरामीट्रिक मॉडल के संदर्भ में लागू किया जाता है, जहां रुचि का पैरामीटर परिमित-आयामी होता है, जबकि डेटा के वितरण फ़ंक्शन का पूर्ण आकार ज्ञात नहीं हो सकता है, और इसलिए अधिकतम संभावना अनुमान लागू नहीं होता है।

विधि के लिए आवश्यक है कि मॉडल के लिए एक निश्चित संख्या में क्षण स्थितियां निर्दिष्ट की जाएं। ये क्षण स्थितियाँ मॉडल पैरामीटर और डेटा के कार्य हैं, जैसे कि पैरामीटर के वास्तविक मान पर उनका अपेक्षित मान शून्य है। जीएमएम विधि तब क्षण स्थितियों के नमूना औसत के एक निश्चित मानक (गणित) को कम करती है, और इसलिए इसे न्यूनतम-दूरी अनुमान के एक विशेष मामले के रूप में सोचा जा सकता है। जीएमएम अनुमानकों को सभी अनुमानकों की श्रेणी में सुसंगत अनुमानक, स्पर्शोन्मुख वितरण और सबसे कुशल अनुमानक के रूप में जाना जाता है जो क्षण स्थितियों में निहित जानकारी के अलावा किसी भी अतिरिक्त जानकारी का उपयोग नहीं करते हैं। जीएमएम की वकालत लार्स पीटर हैनसेन ने 1982 में क्षणों (सांख्यिकी) की विधि के सामान्यीकरण के रूप में की थी, 1894 में कार्ल पियर्सन द्वारा पेश किया गया। हालाँकि, ये अनुमानक गणितीय रूप से ऑर्थोगोनैलिटी स्थितियों (सरगन, 1958, 1959) या निष्पक्ष आकलन समीकरणों (ह्यूबर, 1967; वांग एट अल।, 1997) पर आधारित अनुमानों के बराबर हैं।

विवरण
मान लीजिए कि उपलब्ध डेटा में टी अवलोकन शामिल हैं {Yt }t = 1,...,T, जहां प्रत्येक अवलोकन Ytएक एन-आयामी बहुभिन्नरूपी यादृच्छिक चर है। हम मानते हैं कि डेटा एक निश्चित सांख्यिकीय मॉडल से आता है, जिसे एक अज्ञात पैरामीटर तक परिभाषित किया गया है θ ∈ Θ. अनुमान समस्या का लक्ष्य इस पैरामीटर का "सही" मान खोजना है, θ0, या कम से कम एक यथोचित करीबी अनुमान।

GMM की एक सामान्य धारणा यह है कि डेटा Ytएक स्थिर प्रक्रिया एर्गोडिक प्रक्रिया स्टोकेस्टिक प्रक्रिया द्वारा उत्पन्न किया जा सकता है। (स्वतंत्र और समान रूप से वितरित यादृच्छिक चर (आईआईडी) चर वाई का मामलाtइस स्थिति का एक विशेष मामला है।)

जीएमएम लागू करने के लिए, हमें क्षण शर्तों की आवश्यकता है, अर्थात, हमें एक वेक्टर-मूल्यवान फ़ंक्शन g(Y,θ) को जानना होगा जैसे कि

m(\theta_0) \equiv \operatorname{E}[\,g(Y_t,\theta_0)\,]=0, $$ जहां E अपेक्षित मूल्य दर्शाता है, और Ytएक सामान्य अवलोकन है. इसके अलावा, फ़ंक्शन m(θ) शून्य से भिन्न होना चाहिए θ ≠ θ0, अन्यथा पैरामीटर θ बिंदु-पहचान (पैरामीटर) नहीं होगा।

जीएमएम के पीछे मूल विचार सैद्धांतिक अपेक्षित मूल्य ई[⋅] को उसके अनुभवजन्य एनालॉग-नमूना औसत से बदलना है:

\hat{m}(\theta) \equiv \frac{1}{T}\sum_{t=1}^T g(Y_t,\theta) $$ और फिर θ के संबंध में इस अभिव्यक्ति के मानदंड को कम करने के लिए। θ का न्यूनतम मान θ के लिए हमारा अनुमान है0.

बड़ी संख्या के नियम से, टी के बड़े मूल्यों के लिए, और इस प्रकार हम इसकी अपेक्षा करते हैं. क्षणों की सामान्यीकृत विधि एक संख्या की तलाश करती है जो बनायेगा  जितना संभव हो सके शून्य के करीब। गणितीय रूप से, यह एक निश्चित मानक को न्यूनतम करने के बराबर है  (m का मान, जिसे ||m|| के रूप में दर्शाया गया है, m और शून्य के बीच की दूरी को मापता है)। परिणामी अनुमानक के गुण मानक फ़ंक्शन की विशेष पसंद पर निर्भर होंगे, और इसलिए जीएमएम का सिद्धांत मानदंडों के एक पूरे परिवार पर विचार करता है, जिसे इस प्रकार परिभाषित किया गया है

\| \hat{m}(\theta) \|^2_{W} = \hat{m}(\theta)^{\mathsf{T}}\,W\hat{m}(\theta), $$ जहां W एक सकारात्मक-निश्चित मैट्रिक्स है | सकारात्मक-निश्चित भार मैट्रिक्स, और $$m^{\mathsf{T}}$$ स्थानान्तरण को दर्शाता है। व्यवहार में, वेटिंग मैट्रिक्स डब्ल्यू की गणना उपलब्ध डेटा सेट के आधार पर की जाती है, जिसे इस प्रकार दर्शाया जाएगा. इस प्रकार, GMM अनुमानक को इस प्रकार लिखा जा सकता है

\hat\theta = \operatorname{arg}\min_{\theta\in\Theta} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg) $$ उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, स्पर्शोन्मुख सामान्यता और भार मैट्रिक्स के सही विकल्प के साथ है कुशल अनुमानक भी.

संगति
सुसंगत अनुमानक एक अनुमानक की एक सांख्यिकीय संपत्ति है जिसमें कहा गया है कि, पर्याप्त संख्या में अवलोकन होने पर, अनुमानक पैरामीटर के वास्तविक मूल्य की संभावना में अभिसरण करेगा:
 * $$\hat\theta \xrightarrow{p} \theta_0\ \text{as}\ T\to\infty.$$

GMM अनुमानक के सुसंगत होने के लिए पर्याप्त स्थितियाँ इस प्रकार हैं: यहां दूसरी स्थिति (तथाकथित वैश्विक पहचान स्थिति) को सत्यापित करना अक्सर विशेष रूप से कठिन होता है। वहाँ सरल आवश्यक लेकिन पर्याप्त स्थितियाँ मौजूद नहीं हैं, जिनका उपयोग गैर-पहचान समस्या का पता लगाने के लिए किया जा सकता है:
 * 1) $$\hat{W}_T \xrightarrow{p} W,$$ जहां W एक सकारात्मक निश्चित मैट्रिक्स#नकारात्मक-निश्चित है।2C अर्धनिश्चित और अनिश्चित मैट्रिक्स|सकारात्मक अर्ध-निश्चित मैट्रिक्स,
 * 2) $$\,W\operatorname{E}[\,g(Y_t,\theta)\,]=0$$केवल $$\,\theta=\theta_0,$$
 * 3) संभावित मापदंडों का स्थान (गणित)। $$\Theta \subset \mathbb{R}^{k}$$  सघन स्थान  है,
 * 4) $$\,g(Y,\theta)$$प्रायिकता एक के साथ प्रत्येक θ पर निरंतर है,
 * 5) $$\operatorname{E}[\,\textstyle\sup_{\theta\in\Theta} \lVert g(Y,\theta)\rVert\,]<\infty.$$
 * आदेश शर्त. मोमेंट फ़ंक्शन m(θ) का आयाम कम से कम पैरामीटर वेक्टर θ के आयाम जितना बड़ा होना चाहिए।
 * स्थानीय पहचान. यदि g(Y,θ) के पड़ोस में निरंतर अवकलनीय है $$\theta_0$$, फिर मैट्रिक्स $$W\operatorname{E}[\nabla_\theta g(Y_t,\theta_0)]$$ पूर्ण रैंक (रैखिक बीजगणित) होना चाहिए।

व्यावहारिक रूप से लागू अर्थशास्त्री अक्सर यह मान लेते हैं कि वैश्विक पहचान मान्य है, वास्तव में इसे साबित किए बिना।

स्पर्शोन्मुख सामान्यता
एसिम्प्टोटिक सामान्यता एक उपयोगी गुण है, क्योंकि यह हमें अनुमानक के लिए विश्वास अंतराल बनाने और विभिन्न परीक्षण करने की अनुमति देता है। इससे पहले कि हम जीएमएम अनुमानक के स्पर्शोन्मुख वितरण के बारे में एक बयान दे सकें, हमें दो सहायक मैट्रिक्स को परिभाषित करने की आवश्यकता है:
 * $$G = \operatorname{E}[\,\nabla_{\!\theta}\,g(Y_t,\theta_0)\,], \qquad

\Omega = \operatorname{E}[\,g(Y_t,\theta_0)g(Y_t,\theta_0)^{\mathsf{T}}\,]$$ फिर नीचे सूचीबद्ध शर्तों 1-6 के तहत, जीएमएम अनुमानक वितरण में अभिसरण के साथ असम्बद्ध रूप से सामान्य होगा:

$$\sqrt{T}\big(\hat\theta - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}\big[0, (G^{\mathsf{T}}WG)^{-1}G^{\mathsf{T}}W\Omega W^{\mathsf{T}}G(G^{\mathsf{T}}W^{\mathsf{T}}G)^{-1}\big].$$ स्थितियाँ:
 * 1) $$\hat\theta$$ सुसंगत है (पिछला अनुभाग देखें),
 * 2) संभावित मापदंडों का सेट $$\Theta \subset \mathbb{R}^{k}$$ कॉम्पैक्ट स्पेस है,
 * 3) $$\,g(Y,\theta)$$ कुछ पड़ोस N में लगातार भिन्न होता है $$\theta_0$$ संभावना एक के साथ,
 * 4) $$\operatorname{E}[\,\lVert g(Y_t,\theta) \rVert^2\,]<\infty,$$
 * 5) $$\operatorname{E}[\,\textstyle\sup_{\theta\in N}\lVert \nabla_\theta g(Y_t,\theta) \rVert\,]<\infty,$$
 * 6) गणित का सवाल $$G'WG$$ निरर्थक है.

सापेक्ष दक्षता
अब तक हमने मैट्रिक्स डब्ल्यू की पसंद के बारे में कुछ नहीं कहा है, सिवाय इसके कि यह सकारात्मक अर्ध-निश्चित होना चाहिए। वास्तव में ऐसा कोई भी मैट्रिक्स एक सुसंगत और एसिम्प्टोटिक रूप से सामान्य जीएमएम अनुमानक का उत्पादन करेगा, एकमात्र अंतर उस अनुमानक के एसिम्प्टोटिक विचरण में होगा। इसे लेते हुए दिखाया जा सकता है
 * $$ W \propto\ \Omega^{-1} $$

क्षण अनुमानकों की सभी (सामान्यीकृत) विधि की श्रेणी में सबसे कुशल अनुमानक का परिणाम होगा। केवल अनंत संख्या में ऑर्थोगोनल स्थितियों से सबसे छोटा विचरण, क्रैमर-राव बाउंड प्राप्त होता है।

इस मामले में जीएमएम अनुमानक के स्पर्शोन्मुख वितरण का सूत्र सरल हो जाता है
 * $$\sqrt{T}\big(\hat\theta - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}\big[0, (G^{\mathsf{T}}\,\Omega^{-1}G)^{-1}\big]$$

यह प्रमाण कि वेटिंग मैट्रिक्स का ऐसा विकल्प वास्तव में स्थानीय रूप से इष्टतम है, अन्य अनुमानकों की दक्षता स्थापित करते समय अक्सर मामूली संशोधनों के साथ अपनाया जाता है। सामान्य नियम के रूप में, एक वेटिंग मैट्रिक्स इष्टतमता के करीब इंच बढ़ जाता है जब यह क्रैमर-राव सीमा के करीब एक अभिव्यक्ति में बदल जाता है।

कार्यान्वयन
उल्लिखित विधि को लागू करने में एक कठिनाई यह है कि हम इसे नहीं ले सकते क्योंकि, मैट्रिक्स Ω की परिभाषा के अनुसार, हमें θ का मान जानने की आवश्यकता है0 इस मैट्रिक्स की गणना करने के लिए, और θ0 यह बिल्कुल वही मात्रा है जिसे हम नहीं जानते हैं और पहले अनुमान लगाने की कोशिश कर रहे हैं। वाई के मामले मेंt आईआईडी होने के कारण हम डब्ल्यू का अनुमान लगा सकते हैं
 * $$\hat{W}_T(\hat\theta) = \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)g(Y_t,\hat\theta)^{\mathsf{T}}\bigg)^{-1}.$$

इस समस्या से निपटने के लिए कई दृष्टिकोण मौजूद हैं, जिनमें से पहला सबसे लोकप्रिय है:

न्यूनतमकरण प्रक्रिया के कार्यान्वयन में एक और महत्वपूर्ण मुद्दा यह है कि फ़ंक्शन को (संभवतः उच्च-आयामी) पैरामीटर स्पेस Θ के माध्यम से खोजना होता है और θ का मान ढूंढना होता है जो उद्देश्य फ़ंक्शन को न्यूनतम करता है। ऐसी प्रक्रिया के लिए कोई सामान्य अनुशंसा मौजूद नहीं है, यह अपने स्वयं के क्षेत्र, संख्यात्मक अनुकूलन का विषय है।

सर्गन-हैनसेन जे परीक्षण
जब क्षण स्थितियों की संख्या पैरामीटर वेक्टर θ के आयाम से अधिक होती है, तो मॉडल को अति-पहचानित कहा जाता है। सरगन (1958) ने वाद्य चर अनुमानकों के आधार पर अति-पहचान प्रतिबंधों के लिए परीक्षणों का प्रस्ताव रखा, जिन्हें स्वतंत्रता की डिग्री के साथ ची-स्क्वायर चर के रूप में बड़े नमूनों में वितरित किया जाता है जो अति-पहचान प्रतिबंधों की संख्या पर निर्भर करते हैं। इसके बाद, हैनसेन (1982) ने इस परीक्षण को जीएमएम अनुमानकों के गणितीय समकक्ष फॉर्मूलेशन पर लागू किया। हालाँकि, ध्यान दें कि ऐसे आँकड़े अनुभवजन्य अनुप्रयोगों में नकारात्मक हो सकते हैं जहाँ मॉडल गलत निर्दिष्ट हैं, और संभावना अनुपात परीक्षण अंतर्दृष्टि प्राप्त कर सकते हैं क्योंकि मॉडल का अनुमान शून्य और वैकल्पिक दोनों परिकल्पनाओं (भार्गव और सरगन, 1983) के तहत लगाया गया है।

संकल्पनात्मक रूप से हम जाँच सकते हैं कि क्या $$\hat{m}(\hat\theta)$$ यह सुझाव देने के लिए शून्य के पर्याप्त करीब है कि मॉडल डेटा को अच्छी तरह से फिट बैठता है। जीएमएम विधि ने समीकरण को हल करने की समस्या का स्थान ले लिया है $$\hat{m}(\theta)=0$$, जो चुनता है $$\theta$$ न्यूनतमकरण गणना द्वारा, प्रतिबंधों का सटीक मिलान करना। न्यूनतमकरण हमेशा नहीं होने पर भी किया जा सकता है $$\theta_0$$ ऐसा मौजूद है $$m(\theta_0)=0$$. जे-टेस्ट यही करता है। जे-परीक्षण को प्रतिबंधों की अधिक पहचान के लिए परीक्षण भी कहा जाता है।

औपचारिक रूप से हम दो सांख्यिकीय परिकल्पना परीक्षण पर विचार करते हैं:
 * $$H_0:\ m(\theta_0)=0$$(शून्य परिकल्पना कि मॉडल "वैध" है), और
 * $$H_1:\ m(\theta)\neq 0,\ \forall \theta\in\Theta$$(वैकल्पिक परिकल्पना कि मॉडल "अमान्य" है; डेटा प्रतिबंधों को पूरा करने के करीब नहीं आता है)

परिकल्पना के अंतर्गत $$H_0$$, निम्नलिखित तथाकथित जे-आँकड़ा स्पर्शोन्मुख रूप से ची-वर्ग वितरण है | ची-वर्ग स्वतंत्रता की k-l डिग्री के साथ वितरित किया जाता है। J को परिभाषित करें:
 * $$J \equiv T \cdot \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)\bigg)^{\mathsf{T}} \hat{W}_T \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)\bigg)\ \xrightarrow{d}\ \chi^2_{k-\ell}$$ अंतर्गत $$H_0,$$

कहाँ $$\hat\theta$$ पैरामीटर का GMM अनुमानक है $$\theta_0$$, k क्षण स्थितियों की संख्या (वेक्टर g का आयाम) है, और l अनुमानित मापदंडों की संख्या (वेक्टर θ का आयाम) है। आव्यूह $$\hat{W}_T$$ की संभाव्यता में अभिसरण होना चाहिए $$\Omega^{-1}$$, कुशल भार मैट्रिक्स (ध्यान दें कि पहले हमें केवल यह आवश्यक था कि W के समानुपाती हो $$\Omega^{-1}$$ अनुमानक के कुशल होने के लिए; हालाँकि, J-परीक्षण करने के लिए W के बिल्कुल बराबर होना चाहिए $$\Omega^{-1}$$, केवल आनुपातिक नहीं)।

वैकल्पिक परिकल्पना के अंतर्गत $$H_1$$, जे-आँकड़ा स्पर्शोन्मुख रूप से असीमित है:
 * $$J\ \xrightarrow{p}\ \infty$$अंतर्गत $$H_1$$

परीक्षण करने के लिए हम डेटा से J के मान की गणना करते हैं। यह एक अऋणात्मक संख्या है. हम इसकी तुलना (उदाहरण के लिए) 0.95 मात्रात्मक  से करते हैं $$\chi^2_{k-\ell}$$ वितरण:
 * $$H_0$$ यदि 95% विश्वास स्तर पर खारिज कर दिया जाता है $$ J > q_{0.95}^{\chi^2_{k-\ell}} $$
 * $$H_0$$ यदि 95% विश्वास स्तर पर अस्वीकार नहीं किया जा सकता है $$ J < q_{0.95}^{\chi^2_{k-\ell}} $$

दायरा
जीएमएम अनुकूलन के संदर्भ में कई अन्य लोकप्रिय अनुमान तकनीकों को अपनाया जा सकता है:

कार्यान्वयन

 * विकीबुक:आर प्रोग्रामिंग/मेथड ऑफ मोमेंट्स|आर प्रोग्रामिंग विकिबुक, मेथड ऑफ मोमेंट्स
 * आर
 * स्टेटा
 * EViews
 * SAS
 * ग्रेटल

यह भी देखें

 * अधिकतम संभावना की विधि
 * सामान्यीकृत अनुभवजन्य संभावना
 * अरेलानो-बॉन्ड अनुमानक
 * अनुमानित बायेसियन गणना

अग्रिम पठन

 * Huber, P. (1967). The behavior of maximum likelihood estimates under nonstandard conditions. Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability 1, 221-233.


 * Newey W., McFadden D. (1994). Large sample estimation and hypothesis testing, in Handbook of Econometrics, Ch.36. Elsevier Science.




 * Sargan, J.D. (1958). The estimation of economic relationships using instrumental variables. Econometrica, 26, 393-415.


 * Sargan, J.D. (1959). The estimation of relationships with autocorrelated residuals by the use on instrumental variables. Journal of the Royal Statistical Society B, 21, 91-105.


 * Wang, C.Y., Wang, S., and Carroll, R. (1997). Estimation in choice-based sampling with measurement error and bootstrap analysis. Journal of Econometrics, 77, 65-86.


 * Bhargava, A., and Sargan, J.D. (1983). Estimating dynamic random effects from panel data covering short time periods. Econometrica, 51, 6, 1635-1659.


 * Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.
 * Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.
 * Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.
 * Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.
 * Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.


 * Short Introduction to the Generalized Method of Moments