क्षणों की सामान्यीकृत विधि

From Vigyanwiki

अर्थमिति और सांख्यिकी में, क्षणों की सामान्यीकृत विधि (जीएमएम) सांख्यिकीय प्रारूपों में मानदंडों का अनुमान लगाने के लिए एक सामान्य विधि है। आमतौर पर इसे अर्धपैरामीट्रिक प्रारूप के संदर्भ में लागू किया जाता है, जहां पैरामीटर मुख्यतः परिमित-आयामी होता है, जबकि डेटा के वितरण फलन का पूर्ण आकार ज्ञात नहीं हो सकता है, और इसलिए अधिकतम प्रायिकता अनुमान लागू नहीं होता है।

इस विधि में यह आवश्यक है कि प्रारूप के लिए निर्दिष्ट संख्या के "क्षण स्थितियों" को निर्दिष्ट किया जाए। ये क्षण स्थिति प्रारूप, पैरामीटर और डेटा के फलन होते हैं, जिनका अपेक्षित मान पैरामीटर के वास्तविक मान पर शून्य होता है। जीएमएम विधि तब क्षण स्थितियों के प्रारूप औसत के किसी परिमित मान को कम करती है, और इसलिए इसे न्यूनतम-दूरी अनुमान के एक विशेष परिप्रेक्ष्य के रूप में सोचा जा सकता है।[1] जीएमएम अनुमानकों को सभी अनुमानकों की श्रेणी में सुसंगत अनुमानक, स्पर्शोन्मुख वितरण और सबसे कुशल अनुमानक के रूप में जाना जाता है जो क्षण स्थितियों में निहित जानकारी के अतिरिक्त किसी भी अन्य जानकारी का उपयोग नहीं करते हैं। जीएमएम को 1982 में लार्स पीटर हैंसन द्वारा प्रस्तावित किया गया था, जो क्षण विधि का विस्तार है,[2] जिसे 1894 में कार्ल पियरसन ने प्रस्तुत किया था। यद्यपि, ये अनुमापक गणनाओं के साथ "लंबकोणीयता अवस्था" (सारगान, 1958, 1959) या "अमुख्य अनुमापक समीकरण" (ह्यूबर, 1967; वांग आदि, 1997) पर आधारित उन्नत अनुमापकों के लिए गणितीय रूप से समान होते हैं।

विवरण

मान लीजिए कि उपलब्ध डेटा में टी अवलोकन शामिल हैं {Yt }t = 1,...,T, जहां प्रत्येक अवलोकन Ytएक एन-आयामी बहुभिन्नरूपी यादृच्छिक चर है। हम मानते हैं कि डेटा एक निश्चित सांख्यिकीय मॉडल से आता है, जिसे एक अज्ञात पैरामीटर तक परिभाषित किया गया है θ ∈ Θ. अनुमान समस्या का लक्ष्य इस पैरामीटर का "सही" मान खोजना है, θ0, या कम से कम एक यथोचित करीबी अनुमान।

GMM की एक सामान्य धारणा यह है कि डेटा Ytएक स्थिर प्रक्रिया एर्गोडिक प्रक्रिया स्टोकेस्टिक प्रक्रिया द्वारा उत्पन्न किया जा सकता है। (स्वतंत्र और समान रूप से वितरित यादृच्छिक चर (आईआईडी) चर वाई का मामलाtइस स्थिति का एक विशेष मामला है।)

जीएमएम लागू करने के लिए, हमें क्षण शर्तों की आवश्यकता है, अर्थात, हमें एक वेक्टर-मूल्यवान फ़ंक्शन g(Y,θ) को जानना होगा जैसे कि

जहां E अपेक्षित मूल्य दर्शाता है, और Ytएक सामान्य अवलोकन है. इसके अलावा, फ़ंक्शन m(θ) शून्य से भिन्न होना चाहिए θθ0, अन्यथा पैरामीटर θ बिंदु-पहचान (पैरामीटर) नहीं होगा।

जीएमएम के पीछे मूल विचार सैद्धांतिक अपेक्षित मूल्य ई[⋅] को उसके अनुभवजन्य एनालॉग-नमूना औसत से बदलना है:

और फिर θ के संबंध में इस अभिव्यक्ति के मानदंड को कम करने के लिए। θ का न्यूनतम मान θ के लिए हमारा अनुमान है0.

बड़ी संख्या के नियम से, टी के बड़े मूल्यों के लिए, और इस प्रकार हम इसकी अपेक्षा करते हैं . क्षणों की सामान्यीकृत विधि एक संख्या की तलाश करती है जो बनायेगा जितना संभव हो सके शून्य के करीब। गणितीय रूप से, यह एक निश्चित मानक को न्यूनतम करने के बराबर है (m का मान, जिसे ||m|| के रूप में दर्शाया गया है, m और शून्य के बीच की दूरी को मापता है)। परिणामी अनुमानक के गुण मानक फ़ंक्शन की विशेष पसंद पर निर्भर होंगे, और इसलिए जीएमएम का सिद्धांत मानदंडों के एक पूरे परिवार पर विचार करता है, जिसे इस प्रकार परिभाषित किया गया है

जहां W एक सकारात्मक-निश्चित मैट्रिक्स है | सकारात्मक-निश्चित भार मैट्रिक्स, और स्थानान्तरण को दर्शाता है। व्यवहार में, वेटिंग मैट्रिक्स डब्ल्यू की गणना उपलब्ध डेटा सेट के आधार पर की जाती है, जिसे इस प्रकार दर्शाया जाएगा . इस प्रकार, GMM अनुमानक को इस प्रकार लिखा जा सकता है

उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, स्पर्शोन्मुख सामान्यता और भार मैट्रिक्स के सही विकल्प के साथ है कुशल अनुमानक भी.

गुण

संगति

सुसंगत अनुमानक एक अनुमानक की एक सांख्यिकीय संपत्ति है जिसमें कहा गया है कि, पर्याप्त संख्या में अवलोकन होने पर, अनुमानक पैरामीटर के वास्तविक मूल्य की प्रायिकता में अभिसरण करेगा:

GMM अनुमानक के सुसंगत होने के लिए पर्याप्त स्थितियाँ इस प्रकार हैं:

  1. जहां W एक सकारात्मक निश्चित मैट्रिक्स#नकारात्मक-निश्चित है।2C अर्धनिश्चित और अनिश्चित मैट्रिक्स|सकारात्मक अर्ध-निश्चित मैट्रिक्स,
  2. केवल
  3. संभावित मापदंडों का स्थान (गणित)। सघन स्थान है,
  4. प्रायिकता एक के साथ प्रत्येक θ पर निरंतर है,

यहां दूसरी स्थिति (तथाकथित वैश्विक पहचान स्थिति) को सत्यापित करना अक्सर विशेष रूप से कठिन होता है। वहाँ सरल आवश्यक लेकिन पर्याप्त स्थितियाँ मौजूद नहीं हैं, जिनका उपयोग गैर-पहचान समस्या का पता लगाने के लिए किया जा सकता है:

  • आदेश शर्त. मोमेंट फ़ंक्शन m(θ) का आयाम कम से कम पैरामीटर वेक्टर θ के आयाम जितना बड़ा होना चाहिए।
  • स्थानीय पहचान. यदि g(Y,θ) के पड़ोस में निरंतर अवकलनीय है , फिर मैट्रिक्स पूर्ण रैंक (रैखिक बीजगणित) होना चाहिए।

व्यावहारिक रूप से लागू अर्थशास्त्री अक्सर यह मान लेते हैं कि वैश्विक पहचान मान्य है, वास्तव में इसे साबित किए बिना।[3]: 2127 

स्पर्शोन्मुख सामान्यता

एसिम्प्टोटिक सामान्यता एक उपयोगी गुण है, क्योंकि यह हमें अनुमानक के लिए विश्वास अंतराल बनाने और विभिन्न परीक्षण करने की अनुमति देता है। इससे पहले कि हम जीएमएम अनुमानक के स्पर्शोन्मुख वितरण के बारे में एक बयान दे सकें, हमें दो सहायक मैट्रिक्स को परिभाषित करने की आवश्यकता है:

फिर नीचे सूचीबद्ध शर्तों 1-6 के तहत, जीएमएम अनुमानक वितरण में अभिसरण के साथ असम्बद्ध रूप से सामान्य होगा:

स्थितियाँ:

  1. सुसंगत है (पिछला अनुभाग देखें),
  2. संभावित मापदंडों का सेट कॉम्पैक्ट स्पेस है,
  3. कुछ पड़ोस N में लगातार भिन्न होता है प्रायिकता एक के साथ,
  4. गणित का सवाल निरर्थक है.

सापेक्ष दक्षता

अब तक हमने मैट्रिक्स डब्ल्यू की पसंद के बारे में कुछ नहीं कहा है, सिवाय इसके कि यह सकारात्मक अर्ध-निश्चित होना चाहिए। वास्तव में ऐसा कोई भी मैट्रिक्स एक सुसंगत और एसिम्प्टोटिक रूप से सामान्य जीएमएम अनुमानक का उत्पादन करेगा, एकमात्र अंतर उस अनुमानक के एसिम्प्टोटिक विचरण में होगा। इसे लेते हुए दिखाया जा सकता है

क्षण अनुमानकों की सभी (सामान्यीकृत) विधि की श्रेणी में सबसे कुशल अनुमानक का परिणाम होगा। केवल अनंत संख्या में ऑर्थोगोनल स्थितियों से सबसे छोटा विचरण, क्रैमर-राव बाउंड प्राप्त होता है।

इस मामले में जीएमएम अनुमानक के स्पर्शोन्मुख वितरण का सूत्र सरल हो जाता है

यह प्रमाण कि वेटिंग मैट्रिक्स का ऐसा विकल्प वास्तव में स्थानीय रूप से इष्टतम है, अन्य अनुमानकों की दक्षता स्थापित करते समय अक्सर मामूली संशोधनों के साथ अपनाया जाता है। सामान्य नियम के रूप में, एक वेटिंग मैट्रिक्स इष्टतमता के करीब इंच बढ़ जाता है जब यह क्रैमर-राव सीमा के करीब एक अभिव्यक्ति में बदल जाता है।

Proof. We will consider the difference between asymptotic variance with arbitrary W and asymptotic variance with . If we can factor this difference into a symmetric product of the form CC' for some matrix C, then it will guarantee that this difference is nonnegative-definite, and thus will be optimal by definition.
where we introduced matrices A and B in order to slightly simplify notation; I is an identity matrix. We can see that matrix B here is symmetric and idempotent: . This means I−B is symmetric and idempotent as well: . Thus we can continue to factor the previous expression as


कार्यान्वयन

उल्लिखित विधि को लागू करने में एक कठिनाई यह है कि हम इसे नहीं ले सकते W = Ω−1 क्योंकि, मैट्रिक्स Ω की परिभाषा के अनुसार, हमें θ का मान जानने की आवश्यकता है0 इस मैट्रिक्स की गणना करने के लिए, और θ0 यह बिल्कुल वही मात्रा है जिसे हम नहीं जानते हैं और पहले अनुमान लगाने की कोशिश कर रहे हैं। वाई के मामले मेंt आईआईडी होने के कारण हम डब्ल्यू का अनुमान लगा सकते हैं

इस समस्या से निपटने के लिए कई दृष्टिकोण मौजूद हैं, जिनमें से पहला सबसे लोकप्रिय है:

  • Two-step feasible GMM:
    • Step 1: Take W = I (the identity matrix) or some other positive-definite matrix, and compute preliminary GMM estimate . This estimator is consistent for θ0, although not efficient.
    • Step 2: converges in probability to Ω−1 and therefore if we compute with this weighting matrix, the estimator will be asymptotically efficient.
  • Iterated GMM. Essentially the same procedure as 2-step GMM, except that the matrix  is recalculated several times. That is, the estimate obtained in step 2 is used to calculate the weighting matrix for step 3, and so on until some convergence criterion is met.
    Asymptotically no improvement can be achieved through such iterations, although certain Monte-Carlo experiments suggest that finite-sample properties of this estimator are slightly better.[citation needed]
  • Continuously updating GMM (CUGMM, or CUE). Estimates simultaneously with estimating the weighting matrix W:
    In Monte-Carlo experiments this method demonstrated a better performance than the traditional two-step GMM: the estimator has smaller median bias (although fatter tails), and the J-test for overidentifying restrictions in many cases was more reliable.[4]

न्यूनतमकरण प्रक्रिया के कार्यान्वयन में एक और महत्वपूर्ण मुद्दा यह है कि फ़ंक्शन को (संभवतः उच्च-आयामी) पैरामीटर स्पेस Θ के माध्यम से खोजना होता है और θ का मान ढूंढना होता है जो उद्देश्य फ़ंक्शन को न्यूनतम करता है। ऐसी प्रक्रिया के लिए कोई सामान्य अनुशंसा मौजूद नहीं है, यह अपने स्वयं के क्षेत्र, संख्यात्मक अनुकूलन का विषय है।

सर्गन-हैनसेन जे परीक्षण

जब क्षण स्थितियों की संख्या पैरामीटर वेक्टर θ के आयाम से अधिक होती है, तो मॉडल को अति-पहचानित कहा जाता है। सरगन (1958) ने वाद्य चर अनुमानकों के आधार पर अति-पहचान प्रतिबंधों के लिए परीक्षणों का प्रस्ताव रखा, जिन्हें स्वतंत्रता की डिग्री के साथ ची-स्क्वायर चर के रूप में बड़े नमूनों में वितरित किया जाता है जो अति-पहचान प्रतिबंधों की संख्या पर निर्भर करते हैं। इसके बाद, हैनसेन (1982) ने इस परीक्षण को जीएमएम अनुमानकों के गणितीय समकक्ष फॉर्मूलेशन पर लागू किया। हालाँकि, ध्यान दें कि ऐसे आँकड़े अनुभवजन्य अनुप्रयोगों में नकारात्मक हो सकते हैं जहाँ मॉडल गलत निर्दिष्ट हैं, और प्रायिकता अनुपात परीक्षण अंतर्दृष्टि प्राप्त कर सकते हैं क्योंकि मॉडल का अनुमान शून्य और वैकल्पिक दोनों परिकल्पनाओं (भार्गव और सरगन, 1983) के तहत लगाया गया है।

संकल्पनात्मक रूप से हम जाँच सकते हैं कि क्या यह सुझाव देने के लिए शून्य के पर्याप्त करीब है कि मॉडल डेटा को अच्छी तरह से फिट बैठता है। जीएमएम विधि ने समीकरण को हल करने की समस्या का स्थान ले लिया है , जो चुनता है न्यूनतमकरण गणना द्वारा, प्रतिबंधों का सटीक मिलान करना। न्यूनतमकरण हमेशा नहीं होने पर भी किया जा सकता है ऐसा मौजूद है . जे-टेस्ट यही करता है। जे-परीक्षण को प्रतिबंधों की अधिक पहचान के लिए परीक्षण भी कहा जाता है।

औपचारिक रूप से हम दो सांख्यिकीय परिकल्पना परीक्षण पर विचार करते हैं:

  • (शून्य परिकल्पना कि मॉडल "वैध" है), और
  • (वैकल्पिक परिकल्पना कि मॉडल "अमान्य" है; डेटा प्रतिबंधों को पूरा करने के करीब नहीं आता है)

परिकल्पना के अंतर्गत , निम्नलिखित तथाकथित जे-आँकड़ा स्पर्शोन्मुख रूप से ची-वर्ग वितरण है | ची-वर्ग स्वतंत्रता की k-l डिग्री के साथ वितरित किया जाता है। J को परिभाषित करें:

अंतर्गत

कहाँ पैरामीटर का GMM अनुमानक है , k क्षण स्थितियों की संख्या (वेक्टर g का आयाम) है, और l अनुमानित मापदंडों की संख्या (वेक्टर θ का आयाम) है। आव्यूह की संभाव्यता में अभिसरण होना चाहिए , कुशल भार मैट्रिक्स (ध्यान दें कि पहले हमें केवल यह आवश्यक था कि W के समानुपाती हो अनुमानक के कुशल होने के लिए; हालाँकि, J-परीक्षण करने के लिए W के बिल्कुल बराबर होना चाहिए , केवल आनुपातिक नहीं)।

वैकल्पिक परिकल्पना के अंतर्गत , जे-आँकड़ा स्पर्शोन्मुख रूप से असीमित है:

अंतर्गत

परीक्षण करने के लिए हम डेटा से J के मान की गणना करते हैं। यह एक अऋणात्मक संख्या है. हम इसकी तुलना (उदाहरण के लिए) 0.95 मात्रात्मक से करते हैं वितरण:

  • यदि 95% विश्वास स्तर पर खारिज कर दिया जाता है
  • यदि 95% विश्वास स्तर पर अस्वीकार नहीं किया जा सकता है


दायरा

जीएमएम अनुकूलन के संदर्भ में कई अन्य लोकप्रिय अनुमान तकनीकों को अपनाया जा सकता है:

  • Ordinary least squares (OLS) is equivalent to GMM with moment conditions:
  • Weighted least squares (WLS)
  • Instrumental variables regression (IV)
  • Non-linear least squares (NLLS):
  • Maximum likelihood estimation (MLE):

कार्यान्वयन

  • विकीबुक:आर प्रोग्रामिंग/मेथड ऑफ मोमेंट्स|आर प्रोग्रामिंग विकिबुक, मेथड ऑफ मोमेंट्स
  • आर
  • स्टेटा
  • EViews
  • SAS
  • ग्रेटल

यह भी देखें

संदर्भ

  1. Hayashi, Fumio (2000). अर्थमिति. Princeton University Press. p. 206. ISBN 0-691-01018-8.
  2. Hansen, Lars Peter (1982). "Large Sample Properties of Generalized Method of Moments Estimators". Econometrica. 50 (4): 1029–1054. doi:10.2307/1912775. JSTOR 1912775.
  3. Newey, W.; McFadden, D. (1994). "Large sample estimation and hypothesis testing". अर्थमिति की पुस्तिका. Vol. 4. Elsevier Science. pp. 2111–2245. CiteSeerX 10.1.1.724.4480. doi:10.1016/S1573-4412(05)80005-4. ISBN 9780444887665.
  4. Hansen, Lars Peter; Heaton, John; Yaron, Amir (1996). "Finite-sample properties of some alternative GMM estimators" (PDF). Journal of Business & Economic Statistics. 14 (3): 262–280. doi:10.1080/07350015.1996.10524656. hdl:1721.1/47970. JSTOR 1392442.


अग्रिम पठन

  • Huber, P. (1967). The behavior of maximum likelihood estimates under nonstandard conditions. Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability 1, 221-233.
  • Newey W., McFadden D. (1994). Large sample estimation and hypothesis testing, in Handbook of Econometrics, Ch.36. Elsevier Science.
  • Sargan, J.D. (1958). The estimation of economic relationships using instrumental variables. Econometrica, 26, 393-415.
  • Sargan, J.D. (1959). The estimation of relationships with autocorrelated residuals by the use on instrumental variables. Journal of the Royal Statistical Society B, 21, 91-105.
  • Wang, C.Y., Wang, S., and Carroll, R. (1997). Estimation in choice-based sampling with measurement error and bootstrap analysis. Journal of Econometrics, 77, 65-86.
  • Bhargava, A., and Sargan, J.D. (1983). Estimating dynamic random effects from panel data covering short time periods. Econometrica, 51, 6, 1635-1659.
  • Hayashi, Fumio (2000). Econometrics. Princeton: Princeton University Press. ISBN 0-691-01018-8.
  • Hansen, Lars Peter (2002). "Method of Moments". In Smelser, N. J.; Bates, P. B. (eds.). International Encyclopedia of the Social and Behavior Sciences. Oxford: Pergamon.
  • Hall, Alastair R. (2005). Generalized Method of Moments. Advanced Texts in Econometrics. Oxford University Press. ISBN 0-19-877520-2.
  • Faciane, Kirby Adam Jr. (2006). Statistics for Empirical and Quantitative Finance. Statistics for Empirical and Quantitative Finance. H.C. Baird. ISBN 0-9788208-9-4.
  • Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.