दूरी सहसंबंध

सांख्यिकी और प्रायिकता सिद्धांत में, दूरी सहसंबंध या दूरी सहसंयोजक, यादृच्छिक के दो युग्मित यादृच्छिक वैक्टर के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वेक्टर स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वेक्टर के बीच रैखिक और गैर-रेखीय संबंध दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है,जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।

दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का सांख्यिकीय परीक्षण करने के लिए किया जा सकता है। सबसे पहले दो यादृच्छिक वैक्टरों के बीच दूरी सहसंबंध (यूक्लिडियन दूरी मैट्रिक्स के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई फेरबदल के दूरी सहसंबंधों से करता है।

पृष्ठभूमि
निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था. पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था। यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है। ये उपाय ऊर्जा दूरी के उदाहरण हैं.

निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, मुख्य रूप से दो चर के बीच एक रैखिक संबंध के प्रति संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा प्रस्तुत किया गया था. पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था। यह साबित हो गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है। ये माप ऊर्जा दूरियों के उदाहरण हैं।

दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: दूरी विचरण, दूरी मानक विचलन, और दूरी सहसंयोजक. ये मात्रा पियरसन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।

दूरी सहप्रसरण
आइए हम नमूना दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (Xk, Yk), k = 1, 2, ..., n वास्तविक मूल्यवान या वेक्टर मूल्यवान यादृच्छिक चर की एक युग्म से एक सांख्यिकीय नमूना (X, Y) हो। सबसे पहले, n दूरी की मैट्रिसेस द्वारा n की गणना करें (aj, k) और (bj, k) जिसमें सभी युग्मन दूरी हैं।



\begin{align} a_{j, k} &= \|X_j-X_k\|, \qquad j, k =1,2,\ldots,n, \\ b_{j, k} &= \|Y_j-Y_k\|, \qquad j, k=1,2,\ldots,n, \end{align} $$ जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है. फिर सभी दोगुनी केंद्रित दूरी लें



A_{j, k} := a_{j, k}-\overline{a}_{j\cdot}-\overline{a}_{\cdot k} + \overline{a}_{\cdot\cdot}, \qquad B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot}, $$ जहां $$\textstyle \overline{a}_{j\cdot}$$ j-वें पंक्ति का माध्य है, $$\textstyle \overline{a}_{\cdot k}$$ k-वें स्तंभ का माध्य है, और $$\textstyle \overline{a}_{\cdot\cdot}$$ $X$ नमूने की दूरी मैट्रिक्स का भव्य माध्य है। $b$ मानों के लिए अंकन समान है। (केंद्रित दूरियों (Aj, k) और (Bj,k) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित नमूना दूरी सहप्रसरण (एक अदिश राशि) केवल उत्पादों Aj, k Bj, k: का अंकगणितीय औसत है:



\operatorname{dCov}^2_n(X,Y) := \frac 1 {n^2} \sum_{j = 1}^n \sum_{k = 1}^n A_{j, k} \, B_{j, k}. $$ सांख्यिकीय Tn = n dCov2n(X, Y) यादृच्छिकआयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है. कार्यान्वयन के लिए R के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें।

दूरी सहप्रसरण के जनसंख्या मान को उसी तर्ज पर परिभाषित किया जा सकता है। मान X एक यादृच्छिक चर है जो संभाव्यता वितरण μ के साथ एक पी-आयामी यूक्लिडियन स्थान में मान लेता है और Y को एक यादृच्छिक चर होने देता है जो एक q-आयामी यूक्लिडियन स्थान में मान लेता है संभाव्यता वितरण ν के साथ, और मान लीजिए कि X और Y की सीमित अपेक्षाएँ हैं। लिखें


 * $$a_\mu(x):= \operatorname{E}[\|X-x\|], \quad D(\mu) := \operatorname{E}[a_\mu(X)], \quad d_\mu(x, x') := \|x-x'\|-a_\mu(x)-a_\mu(x')+D(\mu).

$$ अंत में, X और Y के वर्ग दूरी सहप्रसरण के जनसंख्या मान को इस प्रकार परिभाषित करें


 * $$\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].$$

कोई दिखा सकता है कि यह निम्नलिखित परिभाषा के बराबर है:



\begin{align} \operatorname{dCov}^2(X,Y) := {} & \operatorname{E}[\|X-X'\|\,\|Y-Y'\|] + \operatorname{E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|] \\ &\qquad {} - \operatorname{E}[\|X-X'\|\,\|Y-Y\|] - \operatorname{E}[\|X-X\|\,\|Y-Y'\|] \\ = {} & \operatorname{E}[\|X-X'\|\,\|Y-Y'\|] + \operatorname{E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|] \\ &\qquad {} - 2\operatorname{E}[\|X-X'\|\,\|Y-Y''\|], \end{align} $$ जहां E अपेक्षित मान दर्शाता है, और $$\textstyle (X, Y),$$ $$\textstyle (X', Y'),$$ और $$\textstyle (X,Y)$$ स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर $$\textstyle (X', Y')$$ और $$\textstyle (X,Y)$$ निरूपित चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां $$X$$ और $$Y$$ और इसी तरह iid हैं। दूरी सहप्रसरण को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:


 * $$\operatorname{dCov}^2(X,Y) = \operatorname{cov}(\|X-X'\|,\|Y-Y'\|) - 2\operatorname{cov}(\|X-X'\|,\|Y-Y''\|).

$$ यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, cov($\|X − X' \|$, $\|Y − Y'  \|$)। यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।

वैकल्पिक रूप से, दूरी सहप्रसरण को यादृच्छिक चर के संयुक्त विशेषता फ़ंक्शन और उनके सीमांत विशिष्ट कार्यों के उत्पाद के बीच दूरी के भारित l2 मानक के रूप में परिभाषित किया जा सकता है:

\operatorname{dCov}^2(X,Y)= \frac 1 {c_p c_q} \int_{\mathbb{R}^{p+q}} \frac{\left|\varphi_{X,Y}(s, t) - \varphi_X(s)\varphi_Y(t) \right|^2}{|s|_p^{1+p} |t|_q^{1+q}} \,dt\,ds $$ जहां $$\varphi_{X,Y}(s,t)$$और $$\varphi_{Y}(t)$$ क्रमशः (X, Y), X और Y के विशिष्ट फंक्शन हैं, p, q, X और Y के यूक्लिडियन आयाम को दर्शाते हैं, और इस प्रकार s और t,और cp, cq स्थिरांक हैं।। वजन समारोह $$({c_p c_q}{|s|_p^{1+p} |t|_q^{1+q}})^{-1}$$ स्केल इक्विवेरिएंट और रोटेशन इनवेरिएंट माप का उत्पादन करने के लिए चुना जाता है जो निर्भर चर के लिए शून्य पर नहीं जाता है। अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर eisX और ईitY s और t द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक ϕX, Y(s, t) − ϕX(s) ϕY(t) विशेषता फ़ंक्शन के अंश में दूरी सहप्रसरण की परिभाषा केवल e का क्लासिकल सहप्रसरण हैisX और ईआईटीवाई. विशिष्ट कार्य परिभाषा स्पष्ट रूप से दिखाती है डीकोव2(X, Y) = 0 यदि और केवल यदि X और Y स्वतंत्र हैं।

दूरी विचरण और दूरी मानक विचलन
दूरी विचरण दूरी सहप्रसरण का एक विशेष मामला है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मान का वर्गमूल है



\operatorname{dVar}^2(X) := \operatorname{E}[\|X-X'\|^2] + \operatorname{E}^2[\|X-X'\|] - 2\operatorname{E}[\|X-X'\|\,\|X-X''\|], $$ जहाँ $$X$$, $$X'$$, और $$X''$$ स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं, $$\operatorname{E}$$ अपेक्षित मूल्य को दर्शाता है, और $$f^2(\cdot)=(f(\cdot))^2$$ समारोह के लिए $$f(\cdot)$$, जैसे, $$\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2$$.

नमूना दूरी प्रसरण का वर्गमूल है



\operatorname{dVar}^2_n(X) := \operatorname{dCov}^2_n(X,X) = \tfrac{1}{n^2}\sum_{k,\ell}A_{k,\ell}^2, $$ जो 1912 में पेश किए गए कॉनराड गिन्नी के मीन निरपेक्ष अंतर का एक रिश्तेदार है (लेकिन गिन्नी ने केंद्रित दूरियों के साथ काम नहीं किया)।

दूरी मानक विचलन दूरी विचरण का वर्गमूल है।

दूरी सहसंबंध
दूरी सहसंबंध {{sfn|Székely|Rizzo|2009a}दो यादृच्छिक चरों का } उनके दूरी सहप्रसरण को उनके दूरी मानक विचलन के गुणनफल से विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध का वर्गमूल है



\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}}, $$ और नमूना दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए नमूना दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।

नमूना दूरी सहसंबंध की आसान गणना के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcor फ़ंक्शन देखें।

दूरी सहसंबंध
1. $0\leq\operatorname{dCor}_n(X,Y)\leq1$ and $0\leq\operatorname{dCor}(X,Y)\leq1$;

this is in contrast to Pearson's correlation, which can be negative.

2. $\operatorname{dCor}(X,Y) = 0$ if and only if $X$ and $Y$ are independent.

3. $\operatorname{dCor}_n(X,Y) = 1$ implies that dimensions of the linear subspaces spanned by $X$ and $Y$ samples respectively are almost surely equal and if we assume that these subspaces are equal, then in this subspace $Y = A + b\,\mathbf{C}X$ for some vector $A$, scalar $b$, and orthonormal matrix $\mathbf{C}$.

दूरी सहप्रसरण
1. $\operatorname{dCov}(X,Y)\geq0$ and $\operatorname{dCov}_n(X,Y)\geq0$;

2. $\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) =

3. b_1\,b_2

4. \operatorname{dCov}^2(X,Y)$ for all constant vectors $a_1, a_2$, scalars $b_1, b_2$, and orthonormal matrices $\mathbf{C}_1, \mathbf{C}_2$.

5. If the random vectors $(X_1, Y_1)$ and $(X_2, Y_2)$ are independent then

\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2). $ Equality holds if and only if $X_1$ and $Y_1$ are both constants, or $X_2$ and $Y_2$ are both constants, or $X_1, X_2, Y_1, Y_2$ are mutually independent.

6. $\operatorname{dCov}(X,Y) = 0$ if and only if $X$ and $Y$ are independent. यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।

आँकड़ा $$\operatorname{dCov}^2_n(X,Y)$$ का पक्षपाती अनुमानक है $$\operatorname{dCov}^2(X,Y)$$. X और Y की स्वतंत्रता के तहत



\begin{align} \operatorname{E}[\operatorname{dCov}^2_n(X,Y)] & = \frac{n-1}{n^2} \left\{(n-2) \operatorname{dCov}^2(X,Y)+ \operatorname{E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|] \right\} \\[6pt] & = \frac{n-1}{n^2}\operatorname {E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|]. \end{align} $$ का एक निष्पक्ष अनुमानक $$\operatorname{dCov}^2(X,Y)$$ शेकेली और रिज़ो द्वारा दिया गया है।

दूरी विचरण
1. $\operatorname{dVar}(X) = 0$ if and only if $X = \operatorname{E}[X]$ almost surely.

2. $\operatorname{dVar}_n(X) = 0$ if and only if every sample observation is identical.

3. $\operatorname{dVar}(A + b\,\mathbf{C}\,X) =

4. b

5. \operatorname{dVar}(X)$ for all constant vectors $A$, scalars $b$, and orthonormal matrices $\mathbf{C}$.

6. If $X$ and $Y$ are independent then $\operatorname{dVar}(X + Y) \leq\operatorname{dVar}(X) + \operatorname{dVar}(Y)$. समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक $X$ या $Y$ स्थिरांक है।

सामान्यीकरण
यूक्लिडियन दूरी की शक्तियों को शामिल करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है। परिभाषित करना

\begin{align} \operatorname{dCov}^2(X, Y; \alpha) := {} & \operatorname{E}[\|X-X'\|^\alpha\,\|Y-Y'\|^\alpha] + \operatorname{E}[\|X-X'\|^\alpha]\,\operatorname{E}[\|Y-Y'\|^\alpha]\\ &\qquad {} - 2\operatorname{E}[\|X-X'\|^\alpha\,\|Y-Y''\|^\alpha]. \end{align} $$ फिर प्रत्येक के लिए $$0<\alpha<2$$, $$X$$ और $$Y$$ स्वतंत्र हैं अगर और केवल अगर $$\operatorname{dCov}^2(X, Y; \alpha) = 0$$. यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है $$\alpha=2$$; इस मामले में bivariate के लिए $$(X, Y)$$, $$\operatorname{dCor}(X, Y; \alpha=2)$$ पियर्सन सहसंबंध का एक नियतात्मक कार्य है। अगर $$a_{k,\ell}$$ और $$b_{k,\ell}$$ हैं $$\alpha$$ संबंधित दूरियों की शक्तियां, $$0<\alpha\leq2$$, तब $$\alpha$$ नमूना दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है

\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}. $$ कोई विस्तार कर सकता है $$\operatorname{dCov}$$ मीट्रिक स्थान  के लिए | मेट्रिक-स्पेस-वैल्यू यादृच्छिक चर $$X$$ और $$Y$$: अगर $$X$$ कानून है $$\mu$$ मीट्रिक के साथ एक मीट्रिक स्थान में $$d$$, फिर परिभाषित करें $$a_\mu(x):= \operatorname{E}[d(X, x)]$$, $$D(\mu) := \operatorname{E}[a_\mu(X)]$$, और (प्रदान किया गया $$a_\mu$$ परिमित है, अर्थात्, $$X$$ पहला क्षण परिमित है), $$d_\mu(x, x') := d(x, x')-a_\mu(x)-a_\mu(x')+D(\mu)$$. तो अगर $$Y$$ कानून है $$\nu$$ (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मीट्रिक स्थान में), परिभाषित करें

\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big]. $$ यह ऐसे सभी के लिए गैर-नकारात्मक है $$X, Y$$ iff दोनों मीट्रिक रिक्त स्थान नकारात्मक प्रकार के होते हैं। यहां, एक मीट्रिक स्थान $$(M, d)$$ यदि नकारात्मक प्रकार है $$(M, d^{1/2})$$ हिल्बर्ट अंतरिक्ष के एक सबसेट के लिए आइसोमेट्री है। अगर दोनों मेट्रिक स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो $$\operatorname{dCov}^2(X, Y)= 0$$ आईएफएफ $$X, Y$$ स्वतंत्र हैं।

दूरी सहप्रसरण की वैकल्पिक परिभाषा
मूल दूरी सहसंबंध#दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है $$\operatorname{dCov}^2(X,Y)$$, चुकता गुणांक के बजाय। $$\operatorname{dCov}(X,Y)$$ संपत्ति है कि यह संयुक्त वितरण के बीच ऊर्जा की दूरी है $$\operatorname X, Y $$ और इसके मार्जिन का उत्पाद। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता को उसी इकाइयों में मापा जाता है $$\operatorname X $$ दूरियां।

वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है: $$ \operatorname{dCov}^2(X,Y).$$ इस मामले में, की दूरी मानक विचलन $$X$$ के समान इकाइयों में मापा जाता है $$X$$ दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक मौजूद है।

इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग के रूप में भी परिभाषित किया गया है $$\operatorname{dCor}^2(X,Y)$$, वर्गमूल के बजाय।

वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण
ब्राउनियन कोवैरियंस स्टोचैस्टिक प्रक्रियाओं के लिए कॉन्वर्सिस की धारणा के सामान्यीकरण से प्रेरित है। यादृच्छिक चर X और Y के सहप्रसरण के वर्ग को निम्न रूप में लिखा जा सकता है:

\operatorname{cov}(X,Y)^2 = \operatorname{E}\left[ \big(X - \operatorname{E}(X)\big) \big(X^\mathrm{'} - \operatorname{E}(X^\mathrm{'})\big) \big(Y - \operatorname{E}(Y)\big) \big(Y^\mathrm{'} - \operatorname{E}(Y^\mathrm{'})\big) \right] $$ जहां ई अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि यू (एस), वी (टी) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक एस और टी के लिए परिभाषित हैं तो एक्स के यू-केंद्रित संस्करण को परिभाषित करें

X_U := U(X) - \operatorname{E}_X\left[ U(X) \mid \left \{ U(t) \right \} \right] $$ जब भी घटाया गया सशर्त अपेक्षित मूल्य मौजूद होता है और Y द्वारा निरूपित होता हैV Y का V-केंद्रित संस्करण। (यू, वी) सहप्रसरण (एक्स, वाई) को गैर-नकारात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है

\operatorname{cov}_{U,V}^2(X,Y) := \operatorname{E}\left[X_U X_U^\mathrm{'} Y_V Y_V^\mathrm{'}\right] $$ जब भी दाहिना हाथ गैर-नकारात्मक और परिमित होता है। सबसे महत्वपूर्ण उदाहरण है जब यू और वी दो तरफा स्वतंत्र एक प्रकार कि गति / वीनर प्रक्रिया शून्य और सहप्रसरण की अपेक्षा के साथ होते हैं $|s|$ + $|t|$ − $|s − t|$ = 2 min(s,t) (नॉननेगेटिव एस के लिए, केवल टी)। (यह मानक वीनर प्रक्रिया से दोगुना सहप्रसरण है; यहां कारक 2 संगणना को सरल करता है।) इस मामले में (U,V) सहप्रसरण को 'ब्राउनियन सहप्रसरण' कहा जाता है और इसे इसके द्वारा निरूपित किया जाता है।

\operatorname{cov}_W(X,Y). $$ एक आश्चर्यजनक संयोग है: ब्राउनियन सहप्रसरण दूरी सहप्रसरण के समान है:

\operatorname{cov}_{\mathrm{W}}(X, Y) = \operatorname{dCov}(X, Y), $$ और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।

दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान समारोह आईडी से प्रतिस्थापित करते हैं तो Covid(एक्स, वाई) शास्त्रीय पियर्सन सहप्रसरण का केवल निरपेक्ष मान है,

\operatorname{cov}_{\mathrm{id}}(X,Y) = \left\vert\operatorname{cov}(X,Y)\right\vert. $$

संबंधित मेट्रिक्स
कर्नेल-आधारित सहसंबंधी मेट्रिक्स (जैसे हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या HSIC) सहित अन्य सहसंबंधी मेट्रिक्स भी रैखिक और गैर-रैखिक इंटरैक्शन का पता लगा सकते हैं। दूरी सहसंबंध और कर्नेल-आधारित मेट्रिक्स दोनों का उपयोग मजबूत सांख्यिकीय शक्ति प्राप्त करने के लिए विहित सहसंबंध विश्लेषण और स्वतंत्र घटक विश्लेषण जैसे तरीकों में किया जा सकता है।

यह भी देखें

 * आरवी गुणांक
 * संबंधित तीसरे क्रम के आंकड़े के लिए, तिरछापन#दूरी तिरछापन देखें।

बाहरी संबंध

 * E-statistics (energy statistics)