दूरी सहसंबंध

सांख्यिकी और संभाव्यता सिद्धांत में, दूरी सहसंबंध या दूरी सहप्रसरण स्वतंत्रता (संभाव्यता सिद्धांत) का एक उपाय है, जो मनमाने ढंग से दो युग्मित यादृच्छिक सदिशों के बीच है, जरूरी नहीं कि बराबर, यूक्लिडियन सदिश। जनसंख्या दूरी सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वैक्टर स्वतंत्रता (संभाव्यता सिद्धांत) हैं। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वैक्टर के बीच रैखिक और अरैखिक संघ दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है, जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का पता लगा सकता है।

एक क्रमचय परीक्षण के साथ निर्भरता की एक सांख्यिकीय परिकल्पना परीक्षण करने के लिए दूरी सहसंबंध का उपयोग किया जा सकता है। एक पहले दो यादृच्छिक सदिशों के बीच दूरी सहसंबंध (यूक्लिडियन वेक्टर मैट्रिसेस के पुन: केंद्रीकरण को शामिल करते हुए) की गणना करता है, और फिर इस मान की तुलना डेटा के कई शफलों के दूरी सहसंबंधों से करता है।



पृष्ठभूमि
निर्भरता का शास्त्रीय माप, पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक, मुख्य रूप से दो चरों के बीच एक रैखिक संबंध के प्रति संवेदनशील है। पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए गैबोर जे. शेक्ली द्वारा 2005 में कई व्याख्यानों में दूरी सहसंबंध की शुरुआत की गई थी, अर्थात् आश्रित चर के लिए यह आसानी से शून्य हो सकता है। सहसंबंध = 0 (असंबद्धता) का अर्थ स्वतंत्रता नहीं है जबकि दूरी सहसंबंध = 0 का अर्थ स्वतंत्रता है। दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था। यह साबित हो गया था कि दूरी सहप्रसरण ब्राउनियन सहप्रसरण के समान है। ये माप ऊर्जा दूरियों के उदाहरण हैं।

दूरी सहसंबंध कई अन्य मात्राओं से प्राप्त होता है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: दूरी भिन्नता, दूरी मानक विचलन, और दूरी सहप्रसरण। ये मात्राएँ पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक के विनिर्देश में संबंधित नामों के साथ सामान्य क्षण (गणित) की समान भूमिकाएँ लेती हैं।

दूरी सहप्रसरण
आइए हम नमूना दूरी सहप्रसरण की परिभाषा से शुरू करें। चलो (एक्सk, औरk), k = 1, 2, ..., n वास्तविक मान वाले या सदिश मान वाले यादृच्छिक चर (X, Y) की जोड़ी से एक सांख्यिकीय नमूना हो। सबसे पहले, n बटा n दूरी मैट्रिक्स की गणना करें (aj, k) और बीj, k) जिसमें सभी जोड़ीदार यूक्लिडियन दूरी शामिल है



\begin{align} a_{j, k} &= \|X_j-X_k\|, \qquad j, k =1,2,\ldots,n, \\ b_{j, k} &= \|Y_j-Y_k\|, \qquad j, k=1,2,\ldots,n, \end{align} $$ जहां ||⋅ |. फिर सभी दोगुनी केंद्रित दूरियां लें



A_{j, k} := a_{j, k}-\overline{a}_{j\cdot}-\overline{a}_{\cdot k} + \overline{a}_{\cdot\cdot}, \qquad B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot}, $$ कहाँ $$\textstyle \overline{a}_{j\cdot}$$ है $j$-वीं पंक्ति मतलब, $$\textstyle \overline{a}_{\cdot k}$$ है $k$-वाँ स्तंभ माध्य, और $$\textstyle \overline{a}_{\cdot\cdot}$$ की दूरी मैट्रिक्स का भव्य माध्य है $X$ नमूना। अंकन के लिए समान है $b$ मान। (केन्द्रित दूरियों के आव्यूहों में (एj, k) और बीj,k) सभी पंक्तियों और सभी स्तंभों का योग शून्य है।) वर्गित नमूना दूरी सहप्रसरण (एक अदिश) केवल उत्पाद A का अंकगणितीय औसत है।j, k Bj, k:



\operatorname{dCov}^2_n(X,Y) := \frac 1 {n^2} \sum_{j = 1}^n \sum_{k = 1}^n A_{j, k} \, B_{j, k}. $$ सांख्यिकी टीn = एन डीकोव 2n(एक्स, वाई) मनमाना आयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें।

दूरी सहप्रसरण के जनसंख्या मूल्य को उसी रेखा के साथ परिभाषित किया जा सकता है। चलो 'एक्स' एक यादृच्छिक चर है जो संभाव्यता वितरण के साथ 'पी'-आयामी यूक्लिडियन अंतरिक्ष में मान लेता है $&mu;$ और Y को एक यादृच्छिक चर होने दें जो संभाव्यता वितरण के साथ q-आयामी यूक्लिडियन स्थान में मान लेता है $&nu;$, और मान लीजिए कि X और Y की परिमित अपेक्षाएँ हैं। लिखना


 * $$a_\mu(x):= \operatorname{E}[\|X-x\|], \quad D(\mu) := \operatorname{E}[a_\mu(X)], \quad d_\mu(x, x') := \|x-x'\|-a_\mu(x)-a_\mu(x')+D(\mu).

$$ अंत में, X और Y के वर्ग दूरी सहप्रसरण के जनसंख्या मान को इस प्रकार परिभाषित करें


 * $$\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].$$

कोई दिखा सकता है कि यह निम्नलिखित परिभाषा के बराबर है:



\begin{align} \operatorname{dCov}^2(X,Y) := {} & \operatorname{E}[\|X-X'\|\,\|Y-Y'\|] + \operatorname{E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|] \\ &\qquad {} - \operatorname{E}[\|X-X'\|\,\|Y-Y\|] - \operatorname{E}[\|X-X\|\,\|Y-Y'\|] \\ = {} & \operatorname{E}[\|X-X'\|\,\|Y-Y'\|] + \operatorname{E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|] \\ &\qquad {} - 2\operatorname{E}[\|X-X'\|\,\|Y-Y''\|], \end{align} $$ जहां ई अपेक्षित मान दर्शाता है, और $$\textstyle (X, Y),$$ $$\textstyle (X', Y'),$$ और $$\textstyle (X,Y)$$ स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर $$\textstyle (X', Y')$$ और $$\textstyle (X,Y)$$ निरूपित चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां $$X$$ और $$Y$$ और इसी तरह iid हैं। दूरी सहप्रसरण को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:


 * $$\operatorname{dCov}^2(X,Y) = \operatorname{cov}(\|X-X'\|,\|Y-Y'\|) - 2\operatorname{cov}(\|X-X'\|,\|Y-Y''\|).

$$ यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, cov($\|X − X' \|$, $\|Y − Y'  \|$). यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।

वैकल्पिक रूप से, दूरी सहप्रसरण को भारित मानदण्ड (गणित)#Euclidean_norm|L के रूप में परिभाषित किया जा सकता है2 यादृच्छिक चर के संयुक्त विशेषता फ़ंक्शन (संभाव्यता सिद्धांत) और उनके सीमांत विशेषता कार्यों के उत्पाद के बीच की दूरी का मानदंड:

\operatorname{dCov}^2(X,Y)= \frac 1 {c_p c_q} \int_{\mathbb{R}^{p+q}} \frac{\left|\varphi_{X,Y}(s, t) - \varphi_X(s)\varphi_Y(t) \right|^2}{|s|_p^{1+p} |t|_q^{1+q}} \,dt\,ds $$ कहाँ $$\varphi_{X,Y}(s,t)$$, $$\varphi_{X}(s)$$, और $$\varphi_{Y}(t)$$ के विशेषता कार्य (संभावना सिद्धांत) हैं (X, Y), एक्स, और वाई, क्रमशः, पी, क्यू एक्स और वाई के यूक्लिडियन आयाम को दर्शाता है, और इस प्रकार एस और टी, और सीp, सीq स्थिरांक हैं। वजन समारोह $$({c_p c_q}{|s|_p^{1+p} |t|_q^{1+q}})^{-1}$$ स्केल इक्विवेरिएंट और रोटेशन इनवेरिएंट माप का उत्पादन करने के लिए चुना जाता है जो निर्भर चर के लिए शून्य पर नहीं जाता है। अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर eisX और ईitY s और t द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक ϕX, Y(s, t) − ϕX(s) ϕY(t) विशेषता फ़ंक्शन के अंश में दूरी सहप्रसरण की परिभाषा केवल e का क्लासिकल सहप्रसरण हैisX और ईआईटीवाई. विशिष्ट कार्य परिभाषा स्पष्ट रूप से दिखाती है डीकोव2(X, Y) = 0 यदि और केवल यदि X और Y स्वतंत्र हैं।

दूरी विचरण और दूरी मानक विचलन
दूरी विचरण दूरी सहप्रसरण का एक विशेष मामला है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मान का वर्गमूल है



\operatorname{dVar}^2(X) := \operatorname{E}[\|X-X'\|^2] + \operatorname{E}^2[\|X-X'\|] - 2\operatorname{E}[\|X-X'\|\,\|X-X''\|], $$ कहाँ $$X$$, $$X'$$, और $$X''$$ स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं, $$\operatorname{E}$$ अपेक्षित मूल्य को दर्शाता है, और $$f^2(\cdot)=(f(\cdot))^2$$ समारोह के लिए $$f(\cdot)$$, जैसे, $$\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2$$.

नमूना दूरी प्रसरण का वर्गमूल है



\operatorname{dVar}^2_n(X) := \operatorname{dCov}^2_n(X,X) = \tfrac{1}{n^2}\sum_{k,\ell}A_{k,\ell}^2, $$ जो 1912 में पेश किए गए कॉनराड गिन्नी के मीन निरपेक्ष अंतर का एक रिश्तेदार है (लेकिन गिन्नी ने केंद्रित दूरियों के साथ काम नहीं किया)।

दूरी मानक विचलन दूरी विचरण का वर्गमूल है।

दूरी सहसंबंध
दूरी सहसंबंध {{sfn|Székely|Rizzo|2009a}दो यादृच्छिक चरों का } उनके दूरी सहप्रसरण को उनके दूरी मानक विचलन के गुणनफल से विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध का वर्गमूल है



\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}}, $$ और नमूना दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए नमूना दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।

नमूना दूरी सहसंबंध की आसान गणना के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcor फ़ंक्शन देखें।

दूरी सहसंबंध
1. $0\leq\operatorname{dCor}_n(X,Y)\leq1$ and $0\leq\operatorname{dCor}(X,Y)\leq1$;

this is in contrast to Pearson's correlation, which can be negative.

2. $\operatorname{dCor}(X,Y) = 0$ if and only if $X$ and $Y$ are independent.

3. $\operatorname{dCor}_n(X,Y) = 1$ implies that dimensions of the linear subspaces spanned by $X$ and $Y$ samples respectively are almost surely equal and if we assume that these subspaces are equal, then in this subspace $Y = A + b\,\mathbf{C}X$ for some vector $A$, scalar $b$, and orthonormal matrix $\mathbf{C}$.

दूरी सहप्रसरण
1. $\operatorname{dCov}(X,Y)\geq0$ and $\operatorname{dCov}_n(X,Y)\geq0$;

2. $\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) =

3. b_1\,b_2

4. \operatorname{dCov}^2(X,Y)$ for all constant vectors $a_1, a_2$, scalars $b_1, b_2$, and orthonormal matrices $\mathbf{C}_1, \mathbf{C}_2$.

5. If the random vectors $(X_1, Y_1)$ and $(X_2, Y_2)$ are independent then

\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2). $ Equality holds if and only if $X_1$ and $Y_1$ are both constants, or $X_2$ and $Y_2$ are both constants, or $X_1, X_2, Y_1, Y_2$ are mutually independent.

6. $\operatorname{dCov}(X,Y) = 0$ if and only if $X$ and $Y$ are independent. यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।

आँकड़ा $$\operatorname{dCov}^2_n(X,Y)$$ का पक्षपाती अनुमानक है $$\operatorname{dCov}^2(X,Y)$$. X और Y की स्वतंत्रता के तहत



\begin{align} \operatorname{E}[\operatorname{dCov}^2_n(X,Y)] & = \frac{n-1}{n^2} \left\{(n-2) \operatorname{dCov}^2(X,Y)+ \operatorname{E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|] \right\} \\[6pt] & = \frac{n-1}{n^2}\operatorname {E}[\|X-X'\|]\,\operatorname{E}[\|Y-Y'\|]. \end{align} $$ का एक निष्पक्ष अनुमानक $$\operatorname{dCov}^2(X,Y)$$ शेकेली और रिज़ो द्वारा दिया गया है।

दूरी विचरण
1. $\operatorname{dVar}(X) = 0$ if and only if $X = \operatorname{E}[X]$ almost surely.

2. $\operatorname{dVar}_n(X) = 0$ if and only if every sample observation is identical.

3. $\operatorname{dVar}(A + b\,\mathbf{C}\,X) =

4. b

5. \operatorname{dVar}(X)$ for all constant vectors $A$, scalars $b$, and orthonormal matrices $\mathbf{C}$.

6. If $X$ and $Y$ are independent then $\operatorname{dVar}(X + Y) \leq\operatorname{dVar}(X) + \operatorname{dVar}(Y)$. समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक $X$ या $Y$ स्थिरांक है।

सामान्यीकरण
यूक्लिडियन दूरी की शक्तियों को शामिल करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है। परिभाषित करना

\begin{align} \operatorname{dCov}^2(X, Y; \alpha) := {} & \operatorname{E}[\|X-X'\|^\alpha\,\|Y-Y'\|^\alpha] + \operatorname{E}[\|X-X'\|^\alpha]\,\operatorname{E}[\|Y-Y'\|^\alpha]\\ &\qquad {} - 2\operatorname{E}[\|X-X'\|^\alpha\,\|Y-Y''\|^\alpha]. \end{align} $$ फिर प्रत्येक के लिए $$0<\alpha<2$$, $$X$$ और $$Y$$ स्वतंत्र हैं अगर और केवल अगर $$\operatorname{dCov}^2(X, Y; \alpha) = 0$$. यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है $$\alpha=2$$; इस मामले में bivariate के लिए $$(X, Y)$$, $$\operatorname{dCor}(X, Y; \alpha=2)$$ पियर्सन सहसंबंध का एक नियतात्मक कार्य है। अगर $$a_{k,\ell}$$ और $$b_{k,\ell}$$ हैं $$\alpha$$ संबंधित दूरियों की शक्तियां, $$0<\alpha\leq2$$, तब $$\alpha$$ नमूना दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है

\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}. $$ कोई विस्तार कर सकता है $$\operatorname{dCov}$$ मीट्रिक स्थान  के लिए | मेट्रिक-स्पेस-वैल्यू यादृच्छिक चर $$X$$ और $$Y$$: अगर $$X$$ कानून है $$\mu$$ मीट्रिक के साथ एक मीट्रिक स्थान में $$d$$, फिर परिभाषित करें $$a_\mu(x):= \operatorname{E}[d(X, x)]$$, $$D(\mu) := \operatorname{E}[a_\mu(X)]$$, और (प्रदान किया गया $$a_\mu$$ परिमित है, अर्थात्, $$X$$ पहला क्षण परिमित है), $$d_\mu(x, x') := d(x, x')-a_\mu(x)-a_\mu(x')+D(\mu)$$. तो अगर $$Y$$ कानून है $$\nu$$ (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मीट्रिक स्थान में), परिभाषित करें

\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big]. $$ यह ऐसे सभी के लिए गैर-नकारात्मक है $$X, Y$$ iff दोनों मीट्रिक रिक्त स्थान नकारात्मक प्रकार के होते हैं। यहां, एक मीट्रिक स्थान $$(M, d)$$ यदि नकारात्मक प्रकार है $$(M, d^{1/2})$$ हिल्बर्ट अंतरिक्ष के एक सबसेट के लिए आइसोमेट्री है। अगर दोनों मेट्रिक स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो $$\operatorname{dCov}^2(X, Y)= 0$$ आईएफएफ $$X, Y$$ स्वतंत्र हैं।

दूरी सहप्रसरण की वैकल्पिक परिभाषा
मूल दूरी सहसंबंध#दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है $$\operatorname{dCov}^2(X,Y)$$, चुकता गुणांक के बजाय। $$\operatorname{dCov}(X,Y)$$ संपत्ति है कि यह संयुक्त वितरण के बीच ऊर्जा की दूरी है $$\operatorname X, Y $$ और इसके मार्जिन का उत्पाद। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता को उसी इकाइयों में मापा जाता है $$\operatorname X $$ दूरियां।

वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है: $$ \operatorname{dCov}^2(X,Y).$$ इस मामले में, की दूरी मानक विचलन $$X$$ के समान इकाइयों में मापा जाता है $$X$$ दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक मौजूद है।

इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग के रूप में भी परिभाषित किया गया है $$\operatorname{dCor}^2(X,Y)$$, वर्गमूल के बजाय।

वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण
ब्राउनियन कोवैरियंस स्टोचैस्टिक प्रक्रियाओं के लिए कॉन्वर्सिस की धारणा के सामान्यीकरण से प्रेरित है। यादृच्छिक चर X और Y के सहप्रसरण के वर्ग को निम्न रूप में लिखा जा सकता है:

\operatorname{cov}(X,Y)^2 = \operatorname{E}\left[ \big(X - \operatorname{E}(X)\big) \big(X^\mathrm{'} - \operatorname{E}(X^\mathrm{'})\big) \big(Y - \operatorname{E}(Y)\big) \big(Y^\mathrm{'} - \operatorname{E}(Y^\mathrm{'})\big) \right] $$ जहां ई अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि यू (एस), वी (टी) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक एस और टी के लिए परिभाषित हैं तो एक्स के यू-केंद्रित संस्करण को परिभाषित करें

X_U := U(X) - \operatorname{E}_X\left[ U(X) \mid \left \{ U(t) \right \} \right] $$ जब भी घटाया गया सशर्त अपेक्षित मूल्य मौजूद होता है और Y द्वारा निरूपित होता हैV Y का V-केंद्रित संस्करण। (यू, वी) सहप्रसरण (एक्स, वाई) को गैर-नकारात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है

\operatorname{cov}_{U,V}^2(X,Y) := \operatorname{E}\left[X_U X_U^\mathrm{'} Y_V Y_V^\mathrm{'}\right] $$ जब भी दाहिना हाथ गैर-नकारात्मक और परिमित होता है। सबसे महत्वपूर्ण उदाहरण है जब यू और वी दो तरफा स्वतंत्र एक प्रकार कि गति / वीनर प्रक्रिया शून्य और सहप्रसरण की अपेक्षा के साथ होते हैं $|s|$ + $|t|$ − $|s − t|$ = 2 min(s,t) (नॉननेगेटिव एस के लिए, केवल टी)। (यह मानक वीनर प्रक्रिया से दोगुना सहप्रसरण है; यहां कारक 2 संगणना को सरल करता है।) इस मामले में (U,V) सहप्रसरण को 'ब्राउनियन सहप्रसरण' कहा जाता है और इसे इसके द्वारा निरूपित किया जाता है।

\operatorname{cov}_W(X,Y). $$ एक आश्चर्यजनक संयोग है: ब्राउनियन सहप्रसरण दूरी सहप्रसरण के समान है:

\operatorname{cov}_{\mathrm{W}}(X, Y) = \operatorname{dCov}(X, Y), $$ और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।

दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान समारोह आईडी से प्रतिस्थापित करते हैं तो Covid(एक्स, वाई) शास्त्रीय पियर्सन सहप्रसरण का केवल निरपेक्ष मान है,

\operatorname{cov}_{\mathrm{id}}(X,Y) = \left\vert\operatorname{cov}(X,Y)\right\vert. $$

संबंधित मेट्रिक्स
कर्नेल-आधारित सहसंबंधी मेट्रिक्स (जैसे हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या HSIC) सहित अन्य सहसंबंधी मेट्रिक्स भी रैखिक और गैर-रैखिक इंटरैक्शन का पता लगा सकते हैं। दूरी सहसंबंध और कर्नेल-आधारित मेट्रिक्स दोनों का उपयोग मजबूत सांख्यिकीय शक्ति प्राप्त करने के लिए विहित सहसंबंध विश्लेषण और स्वतंत्र घटक विश्लेषण जैसे तरीकों में किया जा सकता है।

यह भी देखें

 * आरवी गुणांक
 * संबंधित तीसरे क्रम के आंकड़े के लिए, तिरछापन#दूरी तिरछापन देखें।

बाहरी संबंध

 * E-statistics (energy statistics)