दूरी सहसंबंध: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(18 intermediate revisions by 3 users not shown)
Line 1: Line 1:
सांख्यिकी और प्रायिकता सिद्धांत में, '''दूरी सहसंबंध या दूरी सहसंयोजक''', यादृच्छिक के दो युग्मित यादृच्छिक वैक्टर के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वेक्टर स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वेक्टर के बीच रैखिक और गैर-रेखीय संबंध दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है,जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।
सांख्यिकी और प्रायिकता सिद्धांत में, '''दूरी सहसंबंध या दूरी सहसंयोजक''', यादृच्छिक के दो युग्मित यादृच्छिक सदिश के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है यदि और केवल यदि यादृच्छिक सदिश स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक सदिश के बीच रैखिक और गैर-रेखीय संबंधों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है, जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।


दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का [[सांख्यिकीय परिकल्पना परीक्षण|सांख्यिकीय परीक्षण]] करने के लिए किया जा सकता है। सबसे पहले दो यादृच्छिक वैक्टरों के बीच दूरी सहसंबंध ([[यूक्लिडियन वेक्टर|यूक्लिडियन]] दूरी मैट्रिक्स के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई फेरबदल के दूरी सहसंबंधों से करता है।[[Image:Distance Correlation Examples.svg|thumb|upright=1.8|right|प्रत्येक सेट के लिए x और y के दूरी सहसंबंध गुणांक के साथ (x, y) बिंदुओं के कई सेट। सहसंबंध पर ग्राफ की तुलना करें]]
दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का [[सांख्यिकीय परिकल्पना परीक्षण|सांख्यिकीय परीक्षण]] करने के लिए किया जा सकता है। पहले दो यादृच्छिक सदिश के बीच दूरी सहसंबंध ([[यूक्लिडियन वेक्टर|यूक्लिडियन]] दूरी आव्यूह के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई क्रमपरिवर्तनों के दूरी सहसंबंधों से करता है।[[Image:Distance Correlation Examples.svg|thumb|upright=1.8|right|प्रत्येक सेट के लिए x और y के दूरी सहसंबंध गुणांक के साथ (x, y) बिंदुओं के कई सेट। सहसंबंध पर ग्राफ की तुलना करें]]


== पृष्ठभूमि ==
== पृष्ठभूमि ==


निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, <ref>{{harvs|nb|last=Pearson|year=1895a|year2=1895b}}</ref> दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था. पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।{{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}} यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।{{sfn|Székely|Rizzo|2009a}} ये उपाय ऊर्जा दूरी के उदाहरण हैं.
निर्भरता का संरचनात्मक माप, [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|पियर्सन]] [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|सहसंबंध गुणांक]], <ref>{{harvs|nb|last=Pearson|year=1895a|year2=1895b}}</ref> दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है। दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था। पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है। सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है। दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।{{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}} यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।{{sfn|Székely|Rizzo|2009a}} ये माप ऊर्जा दूरी के उदाहरण हैं।


निर्भरता का संरचनात्मक माप, [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|पियर्सन]] [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|सहसंबंध गुणांक]], मुख्य रूप से दो चर के बीच एक रैखिक संबंध के प्रति संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा प्रस्तुत किया गया था. पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था। यह साबित हो गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है। ये माप ऊर्जा दूरियों के उदाहरण हैं।
दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: '''दूरी विचरण''', '''दूरी मानक''' '''विचलन''', और '''दूरी सहसंयोजक'''ये मात्राएं पियर्सन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।
 
दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: '''दूरी विचरण''', '''दूरी मानक''' '''विचलन''', और '''दूरी सहसंयोजक'''. ये मात्रा पियरसन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।


== परिभाषाएँ ==
== परिभाषाएँ ==
Line 15: Line 13:
=== दूरी सहप्रसरण ===
=== दूरी सहप्रसरण ===


आइए हम नमूना दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (''X<sub>k</sub>'', ''Y<sub>k</sub>''), ''k'' = 1, 2, ..., ''n'' वास्तविक मूल्यवान या वेक्टर मूल्यवान यादृच्छिक चर की एक युग्म से एक [[सांख्यिकीय नमूना]] (''X'', ''Y'') हो। सबसे पहले, ''n'' दूरी की मैट्रिसेस द्वारा ''n'' की गणना करें (''a<sub>j</sub>''<sub>, ''k''</sub>) और (''b<sub>j</sub>''<sub>, ''k''</sub>) जिसमें सभी युग्मन दूरी हैं।
आइए हम दृष्टांत दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (''X<sub>k</sub>'', ''Y<sub>k</sub>''), ''k'' = 1, 2, ..., ''n'' वास्तविक मूल्यवान या सदिश मूल्यवान यादृच्छिक चर की एक युग्म से [[सांख्यिकीय नमूना|सांख्यिकीय दृष्टांत]] (''X'', ''Y'') हो। सबसे पहले, ''n'' दूरी की आव्यूह द्वारा ''n'' की गणना करें (''a<sub>j</sub>''<sub>, ''k''</sub>) और (''b<sub>j</sub>''<sub>, ''k''</sub>) जिसमें सभी युग्मन दूरी हैं।


:<math>
:<math>
Line 23: Line 21:
\end{align}
\end{align}
</math>
</math>
जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है. फिर सभी दोगुनी केंद्रित दूरी लें
जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है। फिर सभी दोगुनी केंद्रित दूरी लें


:<math>
:<math>
Line 29: Line 27:
B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot},
B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot},
</math>
</math>
जहां <math>\textstyle \overline{a}_{j\cdot}</math> j-वें पंक्ति का माध्य है, <math>\textstyle \overline{a}_{\cdot k}</math> k-वें स्तंभ का माध्य है, और <math>\textstyle \overline{a}_{\cdot\cdot}</math> {{math|''X''}} नमूने की दूरी मैट्रिक्स का भव्य माध्य है। {{math|''b''}} मानों के लिए अंकन समान है। (केंद्रित दूरियों (''A<sub>j</sub>''<sub>, ''k''</sub>) और (''B<sub>j</sub>''<sub>,''k''</sub>) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित नमूना दूरी सहप्रसरण (एक अदिश राशि) केवल उत्पादों ''A<sub>j</sub>''<sub>, ''k''</sub> ''B<sub>j</sub>''<sub>, ''k''</sub>: का अंकगणितीय औसत है:
जहां <math>\textstyle \overline{a}_{j\cdot}</math> j-वें पंक्ति का माध्य है, <math>\textstyle \overline{a}_{\cdot k}</math> k-वें स्तंभ का माध्य है, और <math>\textstyle \overline{a}_{\cdot\cdot}</math> {{math|''X''}} नमूने की दूरी आव्यूह का भव्य माध्य है। {{math|''b''}} मानों के लिए अंकन समान है। (केंद्रित दूरियों (''A<sub>j</sub>''<sub>, ''k''</sub>) और (''B<sub>j</sub>''<sub>,''k''</sub>) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित दृष्टांत दूरी सहप्रसरण (एक अदिश राशि) केवल गुणनों ''A<sub>j</sub>''<sub>, ''k''</sub> ''B<sub>j</sub>''<sub>, ''k''</sub>: का अंकगणितीय औसत है:


:<math>
:<math>
\operatorname{dCov}^2_n(X,Y) := \frac 1 {n^2} \sum_{j = 1}^n \sum_{k = 1}^n A_{j, k} \, B_{j, k}.
\operatorname{dCov}^2_n(X,Y) := \frac 1 {n^2} \sum_{j = 1}^n \sum_{k = 1}^n A_{j, k} \, B_{j, k}.
</math>
</math>
सांख्यिकीय ''T<sub>n</sub>'' = ''n'' dCov<sup>2</sup><sub>''n''</sub>(''X'', ''Y'') यादृच्छिकआयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है. कार्यान्वयन के लिए R के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें<sup>{{sfn|Rizzo|Székely|2021}}
सांख्यिकीय ''T<sub>n</sub>'' = ''n'' dCov<sup>2</sup><sub>''n''</sub>(''X'', ''Y'') यादृच्छिक आयामों में यादृच्छिक सदिश की स्वतंत्रता का सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R के लिए ऊर्जा पैकेज में dcov.test फलन देखें।<sup>{{sfn|Rizzo|Székely|2021}}
 
सांख्यिकी टी<sub>''n''</sub> = एन डीकोव<sup>2</उप><sub>''n''</sub>(एक्स, वाई) मनमाना आयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें।


दूरी सहप्रसरण के जनसंख्या मूल्य को उसी रेखा के साथ परिभाषित किया जा सकता है। चलो 'एक्स' एक यादृच्छिक चर है जो संभाव्यता वितरण के साथ 'पी'-आयामी यूक्लिडियन अंतरिक्ष में मान लेता है {{math|&mu;}} और Y को एक यादृच्छिक चर होने दें जो संभाव्यता वितरण के साथ q-आयामी यूक्लिडियन स्थान में मान लेता है {{math|&nu;}}, और मान लीजिए कि X और Y की परिमित अपेक्षाएँ हैं। लिखना
'''दूरी सहप्रसरण''' के जनसंख्या मान को उसी पद्धति पर परिभाषित किया जा सकता है। मान X यादृच्छिक चर है जो संभाव्यता वितरण μ के साथ p-आयामी यूक्लिडियन स्थान में मान लेता है और Y को एक यादृच्छिक चर होने देता है जो एक q-आयामी यूक्लिडियन स्थान में मान लेता है संभाव्यता वितरण ν के साथ, और मान लीजिए कि X और Y की सीमित अपेक्षाएँ हैं। लिखें


:<math>a_\mu(x):= \operatorname{E}[\|X-x\|], \quad D(\mu) := \operatorname{E}[a_\mu(X)], \quad d_\mu(x, x') := \|x-x'\|-a_\mu(x)-a_\mu(x')+D(\mu).
:<math>a_\mu(x):= \operatorname{E}[\|X-x\|], \quad D(\mu) := \operatorname{E}[a_\mu(X)], \quad d_\mu(x, x') := \|x-x'\|-a_\mu(x)-a_\mu(x')+D(\mu).
Line 45: Line 41:


:<math>\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].</math>
:<math>\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].</math>
कोई दिखा सकता है कि यह निम्नलिखित परिभाषा के बराबर है:
कोई दर्शा सकता है कि यह निम्नलिखित परिभाषा के समतुल्य है:


:<math>
:<math>
Line 56: Line 52:
\end{align}
\end{align}
</math>
</math>
जहां '''' अपेक्षित मान दर्शाता है, और <math>\textstyle (X, Y),</math> <math>\textstyle (X', Y'),</math> और <math>\textstyle (X'',Y'')</math> स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर <math>\textstyle (X', Y')</math> और <math>\textstyle (X'',Y'')</math> निरूपित
जहां '''''E''''' अपेक्षित मान दर्शाता है, और <math>\textstyle (X, Y),</math> <math>\textstyle (X', Y'),</math> और <math>\textstyle (X'',Y'')</math> स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर <math>\textstyle (X', Y')</math> और <math>\textstyle (X'',Y'')</math> निरूपित
चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां <math>X</math> और <math>Y</math> और इसी तरह iid हैं।{{sfn|Székely|Rizzo|2014|p=11}} दूरी [[सहप्रसरण]] को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है,
चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां <math>X</math> और <math>Y</math> और इसी तरह iid हैं।{{sfn|Székely|Rizzo|2014|p=11}} दूरी [[सहप्रसरण]] को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:
सीओवी, इस प्रकार है:


:<math>\operatorname{dCov}^2(X,Y) = \operatorname{cov}(\|X-X'\|,\|Y-Y'\|) - 2\operatorname{cov}(\|X-X'\|,\|Y-Y''\|).
:<math>\operatorname{dCov}^2(X,Y) = \operatorname{cov}(\|X-X'\|,\|Y-Y'\|) - 2\operatorname{cov}(\|X-X'\|,\|Y-Y''\|).
</math>
</math>
यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, {{nowrap|cov({{norm|''X'' − ''X' ''}}, {{norm|''Y'' − ''Y' '' }}}}). यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।
यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, {{nowrap|cov({{norm|''X'' − ''X' ''}}, {{norm|''Y'' − ''Y' '' }}}})यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।


वैकल्पिक रूप से, दूरी सहप्रसरण को भारित मानदण्ड (गणित)#Euclidean_norm|L के रूप में परिभाषित किया जा सकता है<sup>2</sup> यादृच्छिक चर के संयुक्त विशेषता फ़ंक्शन (संभाव्यता सिद्धांत) और उनके सीमांत विशेषता कार्यों के उत्पाद के बीच की दूरी का मानदंड:<ref name=SR2009a>{{harvnb|Székely|Rizzo|2009a|p=1249}}, Theorem 7, (3.7).</ref>
वैकल्पिक रूप से, दूरी के सहसंयोजक को यादृच्छिक चर के संयुक्त विशेषता फलन और उनके सीमांत विशेषता कार्यों के गुणन के बीच की दूरी के निर्धारित L<sup>2</sup> मानक के रूप में परिभाषित किया जा सकता है:<ref name=SR2009a>{{harvnb|Székely|Rizzo|2009a|p=1249}}, Theorem 7, (3.7).</ref>  
: <math>
: <math>
\operatorname{dCov}^2(X,Y)= \frac 1 {c_p c_q} \int_{\mathbb{R}^{p+q}} \frac{\left|\varphi_{X,Y}(s, t) - \varphi_X(s)\varphi_Y(t) \right|^2}{|s|_p^{1+p} |t|_q^{1+q}} \,dt\,ds
\operatorname{dCov}^2(X,Y)= \frac 1 {c_p c_q} \int_{\mathbb{R}^{p+q}} \frac{\left|\varphi_{X,Y}(s, t) - \varphi_X(s)\varphi_Y(t) \right|^2}{|s|_p^{1+p} |t|_q^{1+q}} \,dt\,ds
</math>
</math>
कहाँ <math>\varphi_{X,Y}(s,t)</math>, <math>\varphi_{X}(s)</math>, और <math>\varphi_{Y}(t)</math> के विशेषता कार्य (संभावना सिद्धांत) हैं {{nowrap|(''X'', ''Y''),}} एक्स, और वाई, क्रमशः, पी, क्यू एक्स और वाई के यूक्लिडियन आयाम को दर्शाता है, और इस प्रकार एस और टी, और सी<sub>''p''</sub>, सी<sub>''q''</sub> स्थिरांक हैं। वजन समारोह <math>({c_p c_q}{|s|_p^{1+p} |t|_q^{1+q}})^{-1}</math> स्केल इक्विवेरिएंट और रोटेशन इनवेरिएंट माप का उत्पादन करने के लिए चुना जाता है जो निर्भर चर के लिए शून्य पर नहीं जाता है।<ref name=SR2009a/>{{sfn|Székely|Rizzo|2012}} अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर e<sup>isX</sup> और <sup>itY</sup> s और t द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक {{nowrap|''ϕ''<sub>''X'', ''Y''</sub>(''s'', ''t'') − ''ϕ''<sub>''X''</sub>(''s'') ''ϕ''<sub>''Y''</sub>(''t'')}} विशेषता फ़ंक्शन के अंश में दूरी सहप्रसरण की परिभाषा केवल e का क्लासिकल सहप्रसरण है<sup>isX</sup> और <sup>आईटीवाई</sup>. विशिष्ट कार्य परिभाषा स्पष्ट रूप से दिखाती है
जहां <math>\varphi_{X,Y}(s,t)</math>और <math>\varphi_{Y}(t)</math> क्रमशः {{nowrap|(''X'', ''Y''),}} ''X'' और ''Y'' के विशिष्ट फलन हैं, ''p, q, X'' और ''Y'' के यूक्लिडियन आयाम को दर्शाते हैं, और इस प्रकार ''s'' और ''t'',और ''c<sub>p</sub>'', ''c<sub>q</sub>'' स्थिरांक हैं। भार फलन <math>({c_p c_q}{|s|_p^{1+p} |t|_q^{1+q}})^{-1}</math> समतुल्य और घूर्णन अपरिवर्तनीय मापों को ऐसे पैमाने पर गुणा करने के लिए चुना गया है जो आश्रित चर के लिए शून्य की ओर नहीं जाता है।<ref name=SR2009a/>{{sfn|Székely|Rizzo|2012}} अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर ''e<sup>isX</sup>'' और ''e<sup>itY</sup>'' द्वारा दी गई विभिन्न अवधियों के साथ ''X'' और ''Y'' का चक्रीय निरूपण है, और व्यंजक {{nowrap|''ϕ''<sub>''X'', ''Y''</sub>(''s'', ''t'') − ''ϕ''<sub>''X''</sub>(''s'') ''ϕ''<sub>''Y''</sub>(''t'')}} विशेषता फलन के अंश में दूरी सहप्रसरण की परिभाषा केवल ''e<sup>isX</sup>'' और ''e<sup>itY</sup>'' वर्गीय सहसंयोजक है। विशेषता फलन परिभाषा स्पष्ट रूप से दिखाती है कि dCov<sup>2</sup>(''X'', ''Y'') = 0 यदि और केवल ''X'' और ''Y'' स्वतंत्र हैं।
डीकोव<sup>2</sup>(X, Y) = 0 यदि और केवल यदि X और Y स्वतंत्र हैं।


=== दूरी विचरण और दूरी मानक विचलन ===
=== दूरी विचरण और दूरी मानक विस्थापन ===


दूरी विचरण दूरी सहप्रसरण का एक विशेष मामला है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मान का वर्गमूल है
दूरी ''विचरण दूरी'' के सहसंयोजक का विशेष स्तिथि है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मूल्य वर्गमूल है


:<math>
:<math>
\operatorname{dVar}^2(X) := \operatorname{E}[\|X-X'\|^2] + \operatorname{E}^2[\|X-X'\|] - 2\operatorname{E}[\|X-X'\|\,\|X-X''\|],
\operatorname{dVar}^2(X) := \operatorname{E}[\|X-X'\|^2] + \operatorname{E}^2[\|X-X'\|] - 2\operatorname{E}[\|X-X'\|\,\|X-X''\|],
</math>
</math>
कहाँ <math>X</math>, <math>X'</math>, और <math>X''</math> [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] हैं, <math>\operatorname{E}</math> [[अपेक्षित मूल्य]] को दर्शाता है, और <math>f^2(\cdot)=(f(\cdot))^2</math> समारोह के लिए <math>f(\cdot)</math>, जैसे, <math>\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2</math>.
जहाँ <math>X</math>, <math>X'</math>, और <math>X''</math> [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] हैं, <math>\operatorname{E}</math> [[अपेक्षित मूल्य]] को दर्शाता है, और <math>f^2(\cdot)=(f(\cdot))^2</math> फलन के लिए <math>f(\cdot)</math>, जैसे, <math>\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2</math>


नमूना दूरी प्रसरण का वर्गमूल है
दृष्टांत दूरी प्रसरण का वर्गमूल है


:<math>
:<math>
\operatorname{dVar}^2_n(X) := \operatorname{dCov}^2_n(X,X) = \tfrac{1}{n^2}\sum_{k,\ell}A_{k,\ell}^2,
\operatorname{dVar}^2_n(X) := \operatorname{dCov}^2_n(X,X) = \tfrac{1}{n^2}\sum_{k,\ell}A_{k,\ell}^2,
</math>
</math>
जो 1912 में पेश किए गए [[कॉनराड गिन्नी]] के मीन निरपेक्ष अंतर का एक रिश्तेदार है (लेकिन गिन्नी ने केंद्रित दूरियों के साथ काम नहीं किया)।{{sfn|Gini|1912}}
जो 1912 में प्रारम्भ किए गए [[कॉनराड गिन्नी|कोराडो गिन्नी]] के औसत अंतर का संबंध है (लेकिन गिन्नी केंद्रित दूरी) के साथ काम नहीं करती थी।{{sfn|Gini|1912}}


दूरी मानक विचलन दूरी विचरण का वर्गमूल है।
दूरी मानक विचलन दूरी विचरण का वर्गमूल है।
Line 91: Line 85:
=== दूरी सहसंबंध ===
=== दूरी सहसंबंध ===


दूरी सहसंबंध {{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}दो यादृच्छिक चरों का } उनके दूरी सहप्रसरण को उनके दूरी मानक विचलन के गुणनफल से विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध का वर्गमूल है
दो यादृच्छिक चर के ''दूरी सहसंबंध''{{sfn|Székely|Rizzo|Bakirov|2007}} उनकी दूरी मानक विचलन के गुणन द्वारा उनकी ''दूरी के सहसंयोजक'' को विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध वर्गमूल है:


:<math>
:<math>
\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}},
\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}},
</math>
</math>
और नमूना दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए नमूना दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।
और दृष्टांत दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए दृष्टांत दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।


नमूना दूरी सहसंबंध की आसान गणना के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcor फ़ंक्शन देखें।{{sfn|Rizzo|Székely|2021}}
दृष्टांत दूरी सहसंबंध की आसान गणना के लिए ''R'' के लिए ऊर्जा पैकेज में डीसीओआर फलन देखें।{{sfn|Rizzo|Székely|2021}}  


== गुण ==
== गुण ==
Line 106: Line 100:
|<math>0\leq\operatorname{dCor}_n(X,Y)\leq1</math> and <math>0\leq\operatorname{dCor}(X,Y)\leq1</math>;
|<math>0\leq\operatorname{dCor}_n(X,Y)\leq1</math> and <math>0\leq\operatorname{dCor}(X,Y)\leq1</math>;


this is in contrast to Pearson's correlation, which can be negative.
यह पियर्सन के सहसंबंध के विपरीत है, जो ऋणात्मक हो सकता है।
 
|<math>\operatorname{dCor}(X,Y) = 0</math> if and only if {{mvar|X}} and {{mvar|Y}} are independent.


|<math>\operatorname{dCor}_n(X,Y) = 1</math> implies that dimensions of the linear subspaces spanned by {{mvar|X}} and {{mvar|Y}} samples respectively are almost surely equal and if we assume that these subspaces are equal, then in this subspace <math>Y = A + b\,\mathbf{C}X</math> for some vector {{mvar|A}}, scalar {{mvar|b}}, and [[orthonormal matrix]] <math>\mathbf{C}</math>.
|<math>\operatorname{dCor}(X,Y) = 0</math> यदि और केवल यदि {{mvar|X}} और {{mvar|Y}} स्वतंत्र हैं।
|<math>\operatorname{dCor}_n(X,Y) = 1</math> तात्पर्य है कि रैखिक उप-स्थानों के आयामों द्वारा प्रायोजित {{mvar|X}} और {{mvar|Y}} नमूने क्रमशः लगभग निश्चित रूप से समान हैं और यदि हम मानते हैं कि ये उप-स्थान समान हैं, तो इस उप-स्थान में <math>Y = A + b\,\mathbf{C}X</math> f या कुछ सदिश {{mvar|A}}, अदिश {{mvar|b}}, और [[ऑर्थोनॉर्मल मैट्रिक्स]] <math>\mathbf{C}</math>
}}
}}


=== दूरी सहप्रसरण ===
=== दूरी सहप्रसरण ===
{{Ordered list |list_style_type=lower-roman
{{Ordered list |list_style_type=lower-roman
|<math>\operatorname{dCov}(X,Y)\geq0</math> and <math>\operatorname{dCov}_n(X,Y)\geq0</math>;
|<math>\operatorname{dCov}(X,Y)\geq0</math> और <math>\operatorname{dCov}_n(X,Y)\geq0</math>;


|<math>\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) = |b_1\,b_2|\operatorname{dCov}^2(X,Y)</math>
|<math>\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) = |b_1\,b_2|\operatorname{dCov}^2(X,Y)</math>
for all constant vectors <math>a_1, a_2</math>, scalars <math>b_1, b_2</math>, and orthonormal matrices <math>\mathbf{C}_1, \mathbf{C}_2</math>.
सभी स्थिर सदिशों के लिए <math>a_1, a_2</math>, अदिश <math>b_1, b_2</math>, और ऑर्थोनॉर्मल मैट्रिक्स<math>\mathbf{C}_1, \mathbf{C}_2</math>.


|If the random vectors <math>(X_1, Y_1)</math> and <math>(X_2, Y_2)</math> are independent then
|यदि यादृच्छिक सदिश <math>(X_1, Y_1)</math> and <math>(X_2, Y_2)</math> फिर स्वतंत्र हैं
:<math>
:<math>
\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2).
\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2).
</math>
</math>
Equality holds if and only if <math>X_1</math> and <math>Y_1</math> are both constants, or <math>X_2</math> and <math>Y_2</math> are both constants, or <math>X_1, X_2, Y_1, Y_2</math> are mutually independent.
समानता यदि और केवल यदि ही मान्य है <math>X_1</math> and <math>Y_1</math> दोनों स्थिरांक हैं, या <math>X_2</math> और <math>Y_2</math> दोनों स्थिरांक हैं, या <math>X_1, X_2, Y_1, Y_2</math> पारस्परिक रूप से स्वतंत्र हैं।
 
|<math>\operatorname{dCov}(X,Y) = 0</math> यदि और केवल यदि {{mvar|X}} और {{mvar|Y}} स्वतन्त्र हैं।
|<math>\operatorname{dCov}(X,Y) = 0</math> if and only if {{mvar|X}} and {{mvar|Y}} are independent.
}}
}}
यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।
यह अंतिम गुण केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।


आँकड़ा <math>\operatorname{dCov}^2_n(X,Y)</math> का पक्षपाती अनुमानक है <math>\operatorname{dCov}^2(X,Y)</math>. X और Y की स्वतंत्रता के तहत {{sfn|Székely|Rizzo|2009b}}
सांख्यिकी <math>\operatorname{dCov}^2_n(X,Y)</math> का पक्षपाती अनुमानक है <math>\operatorname{dCov}^2(X,Y)</math> X और Y की स्वतंत्रता के अंतर्गत है। {{sfn|Székely|Rizzo|2009b}}


:<math>
:<math>
Line 142: Line 134:
=== दूरी विचरण ===
=== दूरी विचरण ===
{{Ordered list |list_style_type=lower-roman
{{Ordered list |list_style_type=lower-roman
|<math>\operatorname{dVar}(X) = 0</math> if and only if <math>X = \operatorname{E}[X]</math> almost surely.
|<math>\operatorname{dVar}(X) = 0</math> यदि और केवल यदि <math>X = \operatorname{E}[X]</math> लगभग निश्चित रूप से।


|<math>\operatorname{dVar}_n(X) = 0</math> if and only if every sample observation is identical.
|<math>\operatorname{dVar}_n(X) = 0</math> यदि और केवल यदि प्रत्येक दृष्टांत अवलोकन समान है।


|<math>\operatorname{dVar}(A + b\,\mathbf{C}\,X) = |b|\operatorname{dVar}(X)</math> for all constant vectors {{mvar|A}}, scalars {{mvar|b}}, and orthonormal matrices <math>\mathbf{C}</math>.
|<math>\operatorname{dVar}(A + b\,\mathbf{C}\,X) = |b|\operatorname{dVar}(X)</math> सभी स्थिर सदिशों के लिए {{mvar|A}}, scalars {{mvar|b}}, और ऑर्थोनॉर्मल मैट्रिक्स <math>\mathbf{C}</math>.


|If {{mvar|X}} and {{mvar|Y}} are independent then <math>\operatorname{dVar}(X + Y) \leq\operatorname{dVar}(X) + \operatorname{dVar}(Y)</math>.
|If {{mvar|X}} और {{mvar|Y}} फिर स्वतंत्र हैं <math>\operatorname{dVar}(X + Y) \leq\operatorname{dVar}(X) + \operatorname{dVar}(Y)</math>.
}}
}}
समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक {{mvar|X}} या {{mvar|Y}} स्थिरांक है।
समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक {{mvar|X}} या {{mvar|Y}} स्थिरांक है।
Line 154: Line 146:
== सामान्यीकरण ==
== सामान्यीकरण ==


यूक्लिडियन दूरी की शक्तियों को शामिल करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है। परिभाषित करना
यूक्लिडियन दूरी की घात को सम्मिलित करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है।  
:<math>
:<math>
\begin{align}
\begin{align}
Line 161: Line 153:
\end{align}
\end{align}
</math>
</math>
फिर प्रत्येक के लिए <math>0<\alpha<2</math>, <math>X</math> और <math>Y</math> स्वतंत्र हैं अगर और केवल अगर <math>\operatorname{dCov}^2(X, Y; \alpha) = 0</math>. यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है <math>\alpha=2</math>; इस मामले में bivariate के लिए <math>(X, Y)</math>, <math>\operatorname{dCor}(X, Y; \alpha=2)</math> पियर्सन सहसंबंध का एक नियतात्मक कार्य है।{{sfn|Székely|Rizzo|Bakirov|2007}} अगर <math>a_{k,\ell}</math> और <math>b_{k,\ell}</math> हैं <math>\alpha</math> संबंधित दूरियों की शक्तियां, <math>0<\alpha\leq2</math>, तब <math>\alpha</math> नमूना दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है
फिर प्रत्येक के लिए <math>0<\alpha<2</math>, <math>X</math> और <math>Y</math> स्वतंत्र हैं अगर और केवल अगर <math>\operatorname{dCov}^2(X, Y; \alpha) = 0</math>यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन प्रतिपादक के लिए नहीं है <math>\alpha=2</math>; इस स्तिथि में द्विचर के लिए <math>(X, Y)</math>, <math>\operatorname{dCor}(X, Y; \alpha=2)</math> पियर्सन सहसंबंध का एक नियतात्मक कार्य है।{{sfn|Székely|Rizzo|Bakirov|2007}} अगर <math>a_{k,\ell}</math> और <math>b_{k,\ell}</math> हैं <math>\alpha</math> संबंधित दूरियों की घात, <math>0<\alpha\leq2</math>, तब <math>\alpha</math> दृष्टांत दूरी सहप्रसरण को ऋणात्मक संख्या के रूप में परिभाषित किया जा सकता है।
:<math>
:<math>
\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}.
\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}.
</math>
</math>
कोई विस्तार कर सकता है <math>\operatorname{dCov}</math> [[ मीट्रिक स्थान ]] के लिए | मेट्रिक-स्पेस-वैल्यू [[यादृच्छिक चर]] <math>X</math> और <math>Y</math>: अगर <math>X</math> कानून है <math>\mu</math> मीट्रिक के साथ एक मीट्रिक स्थान में <math>d</math>, फिर परिभाषित करें <math>a_\mu(x):= \operatorname{E}[d(X, x)]</math>, <math>D(\mu) := \operatorname{E}[a_\mu(X)]</math>, और (प्रदान किया गया <math>a_\mu</math> परिमित है, अर्थात्, <math>X</math> पहला क्षण परिमित है), <math>d_\mu(x, x') := d(x, x')-a_\mu(x)-a_\mu(x')+D(\mu)</math>. तो अगर <math>Y</math> कानून है <math>\nu</math> (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मीट्रिक स्थान में), परिभाषित करें
कोई विस्तार कर सकता है <math>\operatorname{dCov}</math> [[ मीट्रिक स्थान |मापीय स्थान]] के लिए | मापीय-स्पेस-वैल्यू [[यादृच्छिक चर]] <math>X</math> और <math>Y</math>: अगर <math>X</math> कानून है <math>\mu</math> मापीय के साथ एक मापीय स्थान में <math>d</math>, फिर परिभाषित करें <math>a_\mu(x):= \operatorname{E}[d(X, x)]</math>, <math>D(\mu) := \operatorname{E}[a_\mu(X)]</math>, और (प्रदान किया गया <math>a_\mu</math> परिमित है, अर्थात्, <math>X</math> पहला क्षण परिमित है), <math>d_\mu(x, x') := d(x, x')-a_\mu(x)-a_\mu(x')+D(\mu)</math>. तो अगर <math>Y</math> कानून है <math>\nu</math> (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मापीय स्थान में), परिभाषित करें
:<math>
:<math>
\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].
\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].
</math>
</math>
यह ऐसे सभी के लिए गैर-नकारात्मक