अभिज्ञेयता (आईडेन्टिफिएबिलिटी)

आंकड़ों में, पहचान ऐसी गुण है जिसे सांख्यिकीय मॉडल को संभव होने के लिए स्पष्ट सांख्यिकीय अनुमान के लिए संतुष्ट करना होगा। मॉडल की पहचान तब की जा सकती है जब अनंत संख्या में अवलोकन प्राप्त करने के बाद इस मॉडल के अंतर्निहित मापदंडों के वास्तविक मूल्यों को सीखना सैद्धांतिक रूप से संभव हो। गणितीय रूप से, यह कहने के सामान है कि मापदंडों के विभिन्न मूल्यों को अवलोकन योग्य वेरिएबल के विभिन्न संभाव्यता वितरण उत्पन्न करना चाहिए। सामान्यतः मॉडल को केवल कुछ तकनीकी प्रतिबंधों के तहत ही पहचाना जा सकता है, ऐसी स्थिति में इन आवश्यकताओं के समूह को पहचान की स्थिति कहा जाता है।

इस प्रकार के मॉडल जो पहचानने योग्य होने में विफल रहता है उसे गैर-पहचान योग्य या अज्ञात कहा जाता है: दो या दो से अधिक सांख्यिकीय पैरामीटर अवलोकन संबंधी तुल्यता हैं। कुछ स्थितियों में, तथापि मॉडल गैर-पहचान योग्य हो, फिर भी मॉडल मापदंडों के निश्चित उपसमूह के वास्तविक मूल्यों को सीखना संभव है। इस स्थिति में हम कहते हैं कि मॉडल आंशिक रूप से पहचाने जाने योग्य है। अन्य स्थितियों में पैरामीटर स्पेस के निश्चित सीमित क्षेत्र तक वास्तविक पैरामीटर का स्थान सीखना संभव हो सकता है, जिस स्थिति में मॉडल को पहचानने योग्य समूह किया जाता है।

मॉडल गुणों की कड़ाई से सैद्धांतिक खोज के अलावा, पहचान योग्यता विश्लेषण का उपयोग करके प्रयोगात्मक डेटा समूह के साथ मॉडल का परीक्षण करते समय पहचान क्षमता को व्यापक दायरे में संदर्भित किया जा सकता है।

परिभाषा
माना $$ \mathcal{P}=\{P_\theta:\theta\in\Theta\} $$ पैरामीटर स्पेस के साथ सांख्यिकीय मॉडल $$\Theta$$ बनें. हम ऐसा कहते हैं $$\mathcal{P}$$ यदि मानचित्रण हो तो पहचान योग्य है $$\theta\mapsto P_\theta$$ आक्षेप है|:

P_{\theta_1}=P_{\theta_2} \quad\Rightarrow\quad \theta_1=\theta_2 \quad\ \text{for all } \theta_1,\theta_2\in\Theta. $$ इस परिभाषा का अर्थ है कि θ के अलग-अलग मान अलग-अलग संभाव्यता वितरण के अनुरूप होने चाहिए: यदि θ1≠θ2, तो Pθ1≠Pθ2. यदि वितरण को संभाव्यता घनत्व फलन (पीडीएफ) के संदर्भ में परिभाषित किया गया है, तो दो पीडीएफ को केवल तभी अलग माना जाना चाहिए, जब वे गैर-शून्य माप के समुच्चय पर भिन्न हों (उदाहरण के लिए दो फलन ƒ1(x) = 10 ≤ x < 1 and ƒ2(x) = 10 ≤ x ≤ 1 केवल एक बिंदु x = 1 पर भिन्न होता है - माप शून्य का एक समुच्चय - और इस प्रकार इसे अलग पीडीएफ के रूप में नहीं माना जा सकता है)।।

मानचित्र की व्युत्क्रमणीयता के अर्थ में मॉडल की पहचान $$\theta\mapsto P_\theta$$ यदि मॉडल को अनिश्चित काल तक देखा जा सकता है तो यह मॉडल के वास्तविक पैरामीटर को सीखने में सक्षम होने के सामान है। वास्तव में, यदि {Xt} ⊆ S मॉडल से अवलोकनों का क्रम है, फिर बड़ी संख्या के शसक्त नियम द्वारा,

\frac 1 T \sum_{t=1}^T \mathbf{1}_{\{X_t\in A\}} \ \xrightarrow{\text{a.s.}}\ \Pr[X_t\in A], $$ प्रत्येक मापने योग्य समूह A ⊆ S के लिए (यहां '1'{...} सूचक कार्य है)। इस प्रकार, अनंत संख्या में प्रेक्षणों के साथ हम वास्तविक संभाव्यता वितरण P0 ज्ञात करने में सक्षम होंगे मॉडल में, और चूंकि उपरोक्त पहचान की स्थिति के लिए मानचित्र की आवश्यकता है $$\theta\mapsto P_\theta$$ विपरीत हो, हम उस पैरामीटर का सही मान भी ढूंढने में सक्षम होंगे जो दिए गए वितरण P0 उत्पन्न करता है.

उदाहरण 1
माना $$\mathcal{P}$$ सामान्य वितरण स्थान-पैमाने पर वर्ग बनें:

\mathcal{P} = \Big\{\ f_\theta(x) = \tfrac{1}{\sqrt{2\pi}\sigma} e^{ -\frac{1}{2\sigma^2}(x-\mu)^2 }\ \Big|\ \theta=(\mu,\sigma): \mu\in\mathbb{R}, \,\sigma\!>0 \ \Big\}. $$ जब

\begin{align} & f_{\theta_1}=f_{\theta_2} \\[6pt] \Longleftrightarrow {} & \frac 1 {\sqrt{2\pi}\sigma_1} \exp\left( -\frac 1 {2\sigma_1^2} (x-\mu_1)^2 \right) = \frac 1 {\sqrt{2\pi}\sigma_2} \exp\left( -\frac 1 {2\sigma_2^2}(x-\mu_2)^2 \right) \\[6pt] \Longleftrightarrow {} & \frac 1 {\sigma_1^2}(x-\mu_1)^2 + \ln \sigma_1 = \frac 1 {\sigma_2^2}(x-\mu_2)^2 + \ln \sigma_2 \\[6pt] \Longleftrightarrow {} & x^2 \left(\frac 1 {\sigma_1^2}-\frac 1 {\sigma_2^2}\right) - 2x\left(\frac{\mu_1}{\sigma_1^2}-\frac{\mu_2}{\sigma_2^2} \right) + \left(\frac{\mu_1^2}{\sigma_1^2}-\frac{\mu_2^2}{\sigma_2^2}+\ln\sigma_1-\ln\sigma_2\right) = 0 \end{align} $$ यह अभिव्यक्ति लगभग सभी x के लिए शून्य के सामान है, जब इसके सभी गुणांक शून्य के सामान हों, जो केवल तभी संभव है जब |σ1| = |σ2| और μ1 = μ2. चूँकि स्केल पैरामीटर में σ शून्य से अधिक होने तक सीमित है, हम यह निष्कर्ष निकालते हैं कि मॉडल पहचानने योग्य है:

ƒθ1 = ƒθ2 ⇔ θ1 = θ2.

उदाहरण 2
माना $$\mathcal{P}$$ मानक रैखिक प्रतिगमन मॉडल बनें:

y = \beta'x + \varepsilon, \quad \mathrm{E}[\,\varepsilon\mid x\,]=0 $$ (जहाँ ′ अव्युह स्थानांतरित को दर्शाता है)। तब पैरामीटर β पहचाने जाने योग्य है यदि और केवल यदि अव्युह $$ \mathrm{E}[xx'] $$ विपरीत है. इस प्रकार, यह मॉडल में पहचान की स्थिति है।

उदाहरण 3
कल्पना करना $$\mathcal{P}$$ वेरिएबल में शास्त्रीय त्रुटि रैखिक मॉडल है:
 * $$\begin{cases}

y = \beta x^* + \varepsilon, \\ x = x^* + \eta, \end{cases}                                                                                                                                                                                               $$ जहां (ε,η,x*) शून्य अपेक्षित मान और अज्ञात भिन्नताओं के साथ संयुक्त रूप से सामान्य स्वतंत्र यादृच्छिक वेरिएबल हैं, और केवल वेरिएबल (x,y) देखे जाते हैं। तब यह मॉडल पहचान योग्य नहीं है, केवल उत्पाद βσ²∗ है (जहां σ²∗ का प्रसरण है अव्यक्त प्रतिगामी x*). यह भी निर्धारित पहचान मॉडल का उदाहरण है: यद्यपि β का स्पष्ट मान नहीं सीखा जा सकता है, हम गारंटी दे सकते हैं कि यह अंतराल (β) में कहीं स्थित होना चाहिए (βyx, 1÷βxy), जहां βyx, और βxy पर y के सामान्य न्यूनतम वर्ग प्रतिगमन में गुणांक है y पर x के OLS प्रतिगमन में गुणांक है।

यदि हम सामान्यता की धारणा को त्याग देते हैं और चाहते हैं कि x* सामान्य रूप से वितरित 'नहीं' हो, केवल स्वतंत्रता की स्थिति ε ⊥ η ⊥ x* को बनाए रखते हुए, तो मॉडल पहचानने योग्य हो जाता है।

यह भी देखें

 * सिस्टम पहचान
 * संरचनात्मक पहचान
 * अवलोकनशीलता
 * समकालिक समीकरण मॉडल

अर्थमिति


श्रेणी:अनुमान सिद्धांत