कुल विचरण का नियम

संभाव्यता सिद्धांत में, कुल विचरण का नियम या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है, बताता है कि यादि $$X$$ और $$Y$$ एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण $$Y$$ परिमित है, तो

$$ \operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]). $$ संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. विचरण का अंश अस्पष्टीकृत, व्याख्यात्मक भिन्नता)। जिवानांकिकी  में, विशेष रूप से विश्वसनीयता सिद्धांत, पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मूल्य कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है। ये दो घटक ईव के नियम शब्द के स्रोत भी हैं, प्रारंभिक EV VE से विचरण की अपेक्षा और अपेक्षा के विचरण के लिए।

सूत्रीकरण
के लिए एक सामान्य विचरण अपघटन सूत्र है $$c \geq 2$$ घटक (नीचे देखें)। उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ: $$\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),$$ जो कुल नियम भिन्नता के कानून से निम्नानुसार है: $$\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).$$ ध्यान दें कि नियम अपेक्षित मान $$\operatorname{E}(Y \mid X)$$ अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है $$X.$$ ध्यान दें कि नियम अपेक्षित मान $$Y$$ देखते हुए $$X = x$$ का एक कार्य है $$x$$ (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं $$\operatorname{E}(Y \mid X = x) = g(x)$$ फिर यादृच्छिक चर $$\operatorname{E}(Y \mid X)$$ बस है $$g(X).$$ इसी तरह की टिप्पणियां नियम भिन्नता पर लागू होती हैं।

एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि $$A_1, \ldots, A_n$$ संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं $$\begin{align} \operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt] & {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j). \end{align}$$ इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।

प्रमाण
कुल अपेक्षा के कानून का उपयोग करके कुल भिन्नता का कानून साबित किया जा सकता है। पहला, $$\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2$$ विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है $$\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].$$ अब हम के नियम दूसरे क्षण को फिर से लिखते हैं $$Y$$ इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें: $$\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.$$ चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है: $$= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).$$ अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को नियम अपेक्षा के विचरण के रूप में पहचानते हैं $$\operatorname{E}[Y \mid X]$$: $$= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].$$

गतिशील प्रणालियों पर लागू सामान्य विचरण अपघटन
निम्न सूत्र दिखाता है कि सामान्य को कैसे लागू किया जाए, सैद्धांतिक विचरण अपघटन सूत्र को मापें स्टोकेस्टिक डायनेमिक सिस्टम के लिए। होने देना $$Y(t)$$ समय पर सिस्टम चर का मान हो $$t.$$ मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक फ़िल्टरिंग) है $$H_{1t},H_{2t},\ldots,H_{c-1,t}$$, सिस्टम चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप प्रत्येक। संग्रहों को अलग करने की आवश्यकता नहीं है। का विचरण $$Y(t)$$ हमेशा के लिए विघटित किया जा सकता है $$t,$$ में $$c \geq 2$$ घटक निम्नानुसार हैं: $$\begin{align} \operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt] & {} + \sum_{j=2}^{c-1}\operatorname{E}(\operatorname{Var}[\operatorname{E}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{jt}] \mid H_{1t},H_{2t},\ldots,H_{j-1,t}]) \\[4pt] & {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]). \end{align}$$ अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में कंडीशनिंग के क्रम पर निर्भर करता है।

सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता
जिन मामलों में $$(Y, X)$$ ऐसे हैं कि नियम अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां $$\operatorname{E}(Y \mid X) = a X + b,$$ यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है $$a={\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)}$$ और $$b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)$$ और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक केवल सहसंबंध का वर्ग है $$Y$$ और $$X;$$ यानी ऐसे मामलों में $${\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.$$ इस स्थिति का एक उदाहरण है जब $$(X, Y)$$ द्विचर सामान्य (गाऊसी) वितरण है।

अधिक सामान्यतः, जब नियम अपेक्षा $$\operatorname{E}(Y \mid X)$$ का एक अरैखिक फलन है $$X$$ $$\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,$$ जिसका अनुमान लगाया जा सकता है $$R$$ के एक गैर रेखीय प्रतिगमन से चुकता $$Y$$ पर $$X,$$ के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना $$(X, Y).$$ कब $$\operatorname{E}(Y \mid X)$$ एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है $$X$$), या $$Y$$ अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है: $$\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).$$

उच्च क्षण
तीसरे केंद्रीय क्षण के लिए समान कानून $$\mu_3$$ कहते हैं $$\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).$$ उच्च संचयकों के लिए, एक सामान्यीकरण मौजूद है। कुल संचयन का नियम देखें।

यह भी देखें

 * - एक सामान्यीकरण

संदर्भ

 * (Problem 34.10(b))
 * (Problem 34.10(b))