स्वतंत्र और समान रूप से वितरित यादृच्छिक चर: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{Short description|Important notion in probability and statistics}}संभाव्यता सिद्धांत और सांख्यिकी में, यादृच्छिक चर का एक संग्रह स्वतंत्र और समान रूप से वितरित होता है यदि प्रत्येक यादृच्छिक चर में अन्य के समान संभावना वितरण होता है और सभी परस्पर स्वतंत्रता (संभावना सिद्धांत) होते हैं।<ref>{{cite web | url= http://tuvalu.santafe.edu/~aaronc/courses/7000/csci7000-001_2011_L0.pdf | title= संभाव्यता वितरण पर एक संक्षिप्त प्राइमर| author-first= Aaron | author-last= Clauset | author-link= Aaron Clauset | year= 2011 | publisher= [[Santa Fe Institute]] | access-date= 2011-11-29 | archive-date= 2012-01-20 | archive-url= https://web.archive.org/web/20120120154739/http://tuvalu.santafe.edu/~aaronc/courses/7000/csci7000-001_2011_L0.pdf | url-status= dead }}</ref> इस संपत्ति को सामान्यतः ''आई.आई.डी.'', ''आईआईडी'', या आईआईडी के रूप में संक्षिप्त किया जाता है। आईआईडी को पहली बार सांख्यिकी में परिभाषित किया गया था और डेटा माइनिंग और सिग्नल प्रोसेसिंग जैसे विभिन्न क्षेत्रों में इसका उपयोग होता है।
{{Short description|Important notion in probability and statistics}}संभाव्यता सिद्धांत और सांख्यिकी में, संग्रह '''स्वतंत्र और समान रूप से वितरित यादृच्छिक चर''' होता है, यदि प्रत्येक यादृच्छिक चर में अन्य के समान संभावना वितरण होता है और सभी परस्पर स्वतंत्रता (संभावना सिद्धांत) होते हैं।<ref>{{cite web | url= http://tuvalu.santafe.edu/~aaronc/courses/7000/csci7000-001_2011_L0.pdf | title= संभाव्यता वितरण पर एक संक्षिप्त प्राइमर| author-first= Aaron | author-last= Clauset | author-link= Aaron Clauset | year= 2011 | publisher= [[Santa Fe Institute]] | access-date= 2011-11-29 | archive-date= 2012-01-20 | archive-url= https://web.archive.org/web/20120120154739/http://tuvalu.santafe.edu/~aaronc/courses/7000/csci7000-001_2011_L0.pdf | url-status= dead }}</ref> इस संपत्ति को सामान्यतः आई.आई.डी''.'', आईआईडी, या आईआईडी के रूप में संक्षिप्त किया जाता है। इस प्रकार आईआईडी को प्रथम बार सांख्यिकी में परिभाषित किया गया था और डेटा माइनिंग और सिग्नल प्रोसेसिंग जैसे विभिन्न क्षेत्रों में इसका उपयोग होता है।


== परिचय ==
== परिचय ==
सांख्यिकी सामान्यतः यादृच्छिक नमूनों से संबंधित होती है। एक यादृच्छिक नमूने को उन वस्तुओं के समूह के रूप में माना जा सकता है जिन्हें यादृच्छिक रूप से चुना जाता है। अधिक औपचारिक रूप से, यह स्वतंत्र, समान रूप से वितरित (आईआईडी) यादृच्छिक डेटा बिंदुओं का एक क्रम है।
सांख्यिकी सामान्यतः यादृच्छिक नमूनों से संबंधित होती है। चूँकि यादृच्छिक नमूने को उन वस्तुओं के समूह के रूप में माना जा सकता है, जिन्हें यादृच्छिक रूप से चुना जाता है। अतः अधिक औपचारिक रूप से, यह स्वतंत्र, समान रूप से वितरित (आईआईडी) यादृच्छिक डेटा बिंदुओं का क्रम होता है।


दूसरे शब्दों में, यादृच्छिक नमूना और आईआईडी शब्द मूल रूप से एक ही हैं। आँकड़ों में, यादृच्छिक नमूना विशिष्ट शब्दावली है, किन्तु संभाव्यता में आईआईडी कहना अधिक सामान्य है।
दूसरे शब्दों में, यादृच्छिक नमूना और आईआईडी शब्द मूल रूप से होता हैं। इस प्रकार आँकड़ों में, यादृच्छिक नमूना विशिष्ट शब्दावली होती है, किन्तु संभाव्यता में आईआईडी कहना अधिक सामान्य होता है।


* 'समान रूप से वितरित' का अर्थ है कि कोई समग्र प्रवृत्ति नहीं है - वितरण में उतार-चढ़ाव नहीं होता है और नमूने में सभी आइटम समान संभाव्यता वितरण से लिए जाते हैं।
* '''<nowiki/>'समान रूप से वितरित'''' का अर्थ होता है कि कोई समग्र प्रवृत्ति नहीं होती है - वितरण में उतार-चढ़ाव नहीं होता है और नमूने में सभी वस्तु समान संभाव्यता वितरण से लिए जाते हैं।
* 'स्वतंत्र' का अर्थ है कि नमूना आइटम सभी स्वतंत्र घटनाएँ हैं। दूसरे शब्दों में, वे किसी भी तरह से एक दूसरे से जुड़े नहीं हैं;<ref>{{Cite web|last=Stephanie|date=2016-05-11|title=IID Statistics: Independent and Identically Distributed Definition and Examples|url=https://www.statisticshowto.com/iid-statistics/|access-date=2021-12-09|website=Statistics How To|language=en-US}}</ref> एक चर के मान का ज्ञान दूसरे चर के मान के बारे में कोई जानकारी नहीं देता है और इसके विपरीत।
* '''<nowiki/>'स्वतंत्र'''' का अर्थ होता है कि नमूना वस्तु कि सभी स्वतंत्र घटनाएँ होती हैं। अतः दूसरे शब्दों में, वह किसी भी प्रकार से दूसरे से जुड़े नहीं होते हैं।<ref>{{Cite web|last=Stephanie|date=2016-05-11|title=IID Statistics: Independent and Identically Distributed Definition and Examples|url=https://www.statisticshowto.com/iid-statistics/|access-date=2021-12-09|website=Statistics How To|language=en-US}}</ref> इस प्रकार चर के मान का ज्ञान दूसरे चर के मान के बारे में कोई जानकारी नहीं देता है और इसके विपरीत होता है।
*आईआईडी चरों को समान रूप से वितरित करने के लिए यह आवश्यक नहीं है। आईआईडी होने के लिए केवल यह आवश्यक है कि उन सभी का एक दूसरे के समान वितरण हो, और उस वितरण से स्वतंत्र रूप से चुने गए हों, भले ही उनका वितरण कितना भी समान या गैर-समान क्यों न हो।
*आईआईडी चरों को समान रूप से वितरित करने के लिए यह आवश्यक नहीं होता है। इस प्रकार आईआईडी होने के लिए केवल यह आवश्यक होता है कि उन सभी का दूसरे के समान वितरण होता है और उस वितरण से स्वतंत्र रूप से चुने गए होंते है, भले ही उनका वितरण कितना भी समान या गैर-समान क्यों नही होता है।


== आवेदन ==
== आवेदन ==
स्वतंत्र और समान रूप से वितरित यादृच्छिक चर अधिकांशतः एक धारणा के रूप में उपयोग किए जाते हैं, जो अंतर्निहित गणित को सरल बनाने की प्रवृत्ति रखता है। [[सांख्यिकीय मॉडलिंग]] के व्यावहारिक अनुप्रयोगों में, चूंकि, धारणा यथार्थवादी हो भी सकती है और नहीं भी।<ref>{{citation| last= Hampel | first= Frank | title= Is statistics too difficult? | journal= Canadian Journal of Statistics | year= 1998 | volume= 26 | issue= 3 | pages= 497–513 | doi= 10.2307/3315772| jstor= 3315772 | hdl= 20.500.11850/145503 | s2cid= 53117661 | url= https://semanticscholar.org/paper/025ac574105cc47bb59e3ccb28bd33bbbedb58ff | hdl-access= free }} (§8).</ref>  
स्वतंत्र और समान रूप से वितरित यादृच्छिक चर अधिकांशतः धारणा के रूप में उपयोग किए जाते हैं, जो अंतर्निहित गणित को सरल बनाने की प्रवृत्ति रखता है। इस प्रकार [[सांख्यिकीय मॉडलिंग]] के व्यावहारिक अनुप्रयोगों में चूंकि धारणा यथार्थवादी हो भी सकती है और नहीं भी हो सकती है।<ref>{{citation| last= Hampel | first= Frank | title= Is statistics too difficult? | journal= Canadian Journal of Statistics | year= 1998 | volume= 26 | issue= 3 | pages= 497–513 | doi= 10.2307/3315772| jstor= 3315772 | hdl= 20.500.11850/145503 | s2cid= 53117661 | url= https://semanticscholar.org/paper/025ac574105cc47bb59e3ccb28bd33bbbedb58ff | hdl-access= free }} (§8).</ref>  


आई.आई.डी. धारणा का उपयोग [[केंद्रीय सीमा प्रमेय]] में भी किया जाता है, जिसमें कहा गया है कि आई.आई.डी. के योग (या औसत) का प्रायिकता वितरण परिमित भिन्नता वाले चर [[सामान्य वितरण]] की ओर अग्रसर होते हैं।<ref>{{Cite journal|doi=10.4153/CJM-1958-026-0|title=विनिमेय प्रक्रियाओं के लिए केंद्रीय सीमा प्रमेय|year=1958|last1=Blum|first1=J. R.|last2=Chernoff|first2=H.|last3=Rosenblatt|first3=M.|last4=Teicher|first4=H.|journal=Canadian Journal of Mathematics|volume=10|pages=222–229|s2cid=124843240 |doi-access=free}}</ref>
आई.आई.डी. धारणा का उपयोग [[केंद्रीय सीमा प्रमेय]] में भी किया जाता है, जिसमें कहा गया है कि आई.आई.डी. के योग (या औसत) का प्रायिकता वितरण परिमित भिन्नता वाले चर [[सामान्य वितरण]] की ओर अग्रसर होते हैं।<ref>{{Cite journal|doi=10.4153/CJM-1958-026-0|title=विनिमेय प्रक्रियाओं के लिए केंद्रीय सीमा प्रमेय|year=1958|last1=Blum|first1=J. R.|last2=Chernoff|first2=H.|last3=Rosenblatt|first3=M.|last4=Teicher|first4=H.|journal=Canadian Journal of Mathematics|volume=10|pages=222–229|s2cid=124843240 |doi-access=free}}</ref>


अधिकांशतः आई.आई.डी. धारणा यादृच्छिक चर के अनुक्रम के संदर्भ में उत्पन्न होती है। तब स्वतंत्र और समान रूप से वितरित का तात्पर्य है कि अनुक्रम में एक तत्व यादृच्छिक चर से स्वतंत्र है जो इससे पहले आया था। इस तरह एक आई.आई.डी. अनुक्रम एक [[मार्कोव अनुक्रम]] से अलग है, जहां एनवें यादृच्छिक चर के लिए संभाव्यता वितरण अनुक्रम में पिछले यादृच्छिक चर का एक कार्य है (पहले क्रम मार्कोव अनुक्रम के लिए)। एक आई.आई.डी. अनुक्रम नमूना स्थान या घटना स्थान के सभी तत्वों के लिए संभावनाओं को समान नहीं होना चाहिए।<ref>{{cite book|last1=Cover|first1=T. M.|title=सूचना सिद्धांत के तत्व|last2=Thomas|first2=J. A.|publisher=[[Wiley-Interscience]]|year=2006|isbn=978-0-471-24195-9|pages=57–58}}</ref> उदाहरण के लिए, बार-बार भरे हुए पासे को फेंकने से परिणाम पक्षपाती होने के बावजूद आई.आई.डी. अनुक्रम उत्पन्न होगा।
अधिकांशतः आई.आई.डी. धारणा यादृच्छिक चर के अनुक्रम के संदर्भ में उत्पन्न होती है। इस प्रकार तब स्वतंत्र और समान रूप से वितरित का तात्पर्य होता है कि अनुक्रम में तत्व यादृच्छिक चर से स्वतंत्र होता है जो इससे पहले आया था। इस प्रकार आई.आई.डी. अनुक्रम [[मार्कोव अनुक्रम]] से भिन्न होता है, जहां एनवें यादृच्छिक चर के लिए संभाव्यता वितरण अनुक्रम में पिछले यादृच्छिक चर का कार्य होता है (पहले क्रम मार्कोव अनुक्रम के लिए)। आई.आई.डी. अनुक्रम नमूना स्थान या घटना स्थान के सभी तत्वों के लिए संभावनाओं को समान नहीं होता है।<ref>{{cite book|last1=Cover|first1=T. M.|title=सूचना सिद्धांत के तत्व|last2=Thomas|first2=J. A.|publisher=[[Wiley-Interscience]]|year=2006|isbn=978-0-471-24195-9|pages=57–58}}</ref> उदाहरण के लिए, बार-बार भरे हुए पासे को फेंकने से परिणाम पक्षपाती होने के अतिरिक्त आई.आई.डी. अनुक्रम उत्पन्न होता है।


सिग्नल प्रोसेसिंग और इमेज प्रोसेसिंग में परिवर्तन की धारणा आई.आई.डी. तात्पर्य दो विशिष्टताओं से है, "आईडी" भाग और "आई" भाग:
सिग्नल प्रोसेसिंग और इमेज प्रोसेसिंग में परिवर्तन की धारणा आई.आई.डी. तात्पर्य दो विशिष्टताओं "आईडी" भाग और "आई" भाग होता है।


पहचान- समय अक्ष पर संकेत स्तर संतुलित होना चाहिए।
पहचान- समय अक्ष पर संकेत स्तर संतुलित होता है।


आई - सिग्नल स्पेक्ट्रम को चपटा होना चाहिए, यानी फ़िल्टरिंग (जैसे डीकोनोवोल्यूशन) द्वारा एक सफेद शोर सिग्नल (यानी एक संकेत जहां सभी आवृत्तियों समान रूप से मौजूद हैं) में परिवर्तित किया जाना चाहिए।
आई - सिग्नल वर्णक्रम को चपटा होता है। अर्थात्, फ़िल्टरिंग (जैसे डीकोनोवोल्यूशन) द्वारा सफेद ध्वनि सिग्नल (अर्थात् संकेत जहां सभी आवृत्तियों समान रूप से उपस्थित होता हैं) में परिवर्तित किया जाता है।


== परिभाषा ==
== परिभाषा ==


=== दो यादृच्छिक चर के लिए परिभाषा ===
=== दो यादृच्छिक चर के लिए परिभाषा ===
मान लीजिए कि यादृच्छिक चर <math>X</math> और <math>Y</math> मूल्यों को ग्रहण करने के लिए परिभाषित किया गया है <math>I \subseteq \mathbb{R}</math>. होने देना <math>F_X(x) = \operatorname{P}(X\leq x)</math> और <math>F_Y(y) = \operatorname{P}(Y\leq y)</math> के [[संचयी वितरण कार्य]] हो <math>X</math> और <math>Y</math>, क्रमशः, और उनके [[संयुक्त संभाव्यता वितरण]] को निरूपित करें <math>F_{X,Y}(x,y) = \operatorname{P}(X\leq x \land Y\leq y)</math>.
मान लीजिए कि यादृच्छिक चर <math>X</math> और <math>Y</math> मूल्यों को ग्रहण करने के लिए परिभाषित किया गया है। अतः <math>I \subseteq \mathbb{R}</math>. जैसे कि <math>F_X(x) = \operatorname{P}(X\leq x)</math> और <math>F_Y(y) = \operatorname{P}(Y\leq y)</math> के [[संचयी वितरण कार्य]] <math>X</math> और <math>Y</math> होता है। इस प्रकार क्रमशः, <math>F_{X,Y}(x,y) = \operatorname{P}(X\leq x \land Y\leq y)</math> और उनके [[संयुक्त संभाव्यता वितरण]] को निरूपित करता है।


दो यादृच्छिक चर <math>X</math> और <math>Y</math> यदि और केवल यदि समान रूप से वितरित किए जाते हैं<ref>{{Harvnb|Casella|Berger|2002|loc= Theorem&nbsp;1.5.10}}</ref> <math>F_X(x)=F_Y(x) \, \forall x \in I</math>.
दो यादृच्छिक चर <math>X</math> और <math>Y</math> और यदि समान रूप से <math>F_X(x)=F_Y(x) \, \forall x \in I</math> वितरित किए जाते हैं।<ref>{{Harvnb|Casella|Berger|2002|loc= Theorem&nbsp;1.5.10}}</ref>


दो यादृच्छिक चर <math>X</math> और <math>Y</math> स्वतंत्र हैं यदि और केवल यदि <math>F_{X,Y}(x,y) = F_{X}(x) \cdot F_{Y}(y) \, \forall x,y \in I</math>. (आगे देखें.)
दो यादृच्छिक चर <math>X</math> और <math>Y</math> स्वतंत्र होते हैं और यदि <math>F_{X,Y}(x,y) = F_{X}(x) \cdot F_{Y}(y) \, \forall x,y \in I</math> वितरित किए जाते हैं। (आगे देखें)


दो यादृच्छिक चर <math>X</math> और <math>Y</math> आई.आई.डी हैं यदि वे स्वतंत्र ''और'' समान रूप से वितरित हैं, अर्थात यदि और केवल यदि
दो यादृच्छिक चर <math>X</math> और <math>Y</math> आई.आई.डी होता हैं यदि वह स्वतंत्र और समान रूप से वितरित हैं। अर्थात्,


{{Equation box 1
{{Equation box 1
Line 50: Line 50:
'''दो से अधिक यादृच्छिक चर के लिए परिभाषा'''
'''दो से अधिक यादृच्छिक चर के लिए परिभाषा'''


परिभाषा स्वाभाविक रूप से दो से अधिक यादृच्छिक चर तक फैली हुई है। हम कहते हैं <math>n</math> यादृच्छिक चर <math>X_1,\ldots,X_n</math> आई.आई.डी हैं यदि वे स्वतंत्र हैं (आगे देखें ) और समान रूप से वितरित, अर्थात यदि और केवल यदि
सामान्यतः परिभाषा स्वाभाविक रूप से दो से अधिक यादृच्छिक चर तक फैली हुई होती है। हम कह सकते हैं कि <math>n</math> यादृच्छिक चर <math>X_1,\ldots,X_n</math> आई.आई.डी होता हैं यदि वह स्वतंत्र होता हैं (आगे देखें ) और समान रूप से वितरित होता है।


{{Equation box 1
{{Equation box 1
Line 66: Line 66:
|background colour=#F5FFFA}}
|background colour=#F5FFFA}}


कहाँ <math>F_{X_1,\ldots,X_n}(x_1,\ldots,x_n) = \operatorname{P}(X_1\leq x_1 \land \ldots \land X_n\leq x_n)</math> के संयुक्त संचयी वितरण समारोह को दर्शाता है <math>X_1,\ldots,X_n</math>.
जहाँ <math>F_{X_1,\ldots,X_n}(x_1,\ldots,x_n) = \operatorname{P}(X_1\leq x_1 \land \ldots \land X_n\leq x_n)</math> के संयुक्त संचयी वितरण फलन <math>X_1,\ldots,X_n</math> को दर्शाता है।


=== स्वतंत्रता की परिभाषा ===
=== स्वतंत्रता की परिभाषा ===
प्रायिकता सिद्धांत में, दो घटनाएँ, <math display="inline">\color{red}A</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
प्रायिकता सिद्धांत में, दो घटनाएँ, <math display="inline">\color{red}A</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\color{Green}B</math>, को स्वतंत्र कहा जाता है यदि और केवल यदि <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\color{Green}B</math>, को स्वतंत्र कहा जाता है और यदि <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
P({\color{red}A} \ \mathrm{and} \ {\color{green}B})=P({\color{red}A})P({\color{green}B})</math>. निम्नांकित में, <math display="inline">\definecolor{Green}{RGB}{0,128,0}
P({\color{red}A} \ \mathrm{and} \ {\color{green}B})=P({\color{red}A})P({\color{green}B})</math>. निम्नांकित में, <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
P({\color{red}A}{\color{green}B})</math> के लिए छोटा है <math display="inline">\definecolor{Green}{RGB}{0,128,0}
P({\color{red}A}{\color{green}B})</math> के लिए <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
P({\color{red}A} \ \mathrm{and} \ {\color{green}B})</math>.
P({\color{red}A} \ \mathrm{and} \ {\color{green}B})</math> छोटा है।


मान लीजिए प्रयोग की दो घटनाएँ हैं, <math display="inline">\color{red}A</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
मान लीजिए प्रयोग की दो घटनाएँ <math display="inline">\color{red}A</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\color{Green}B</math>. यदि <math display="inline">P({\color{red}A})>0</math>, संभावना है <math display="inline">P({{\color{green}B}}|{\color{red}A})</math>. सामान्यतः, की घटना <math display="inline">\color{red}A</math> की संभावना पर प्रभाव पड़ता है <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\color{Green}B</math>. यदि <math display="inline">P({\color{red}A})>0</math>, संभावना होती है <math display="inline">P({{\color{green}B}}|{\color{red}A})</math>. सामान्यतः, <math display="inline">\color{red}A</math> की घटना की संभावना <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\color{Green}B</math>, जिसे सशर्त संभाव्यता कहा जाता है, और केवल जब घटना होती है <math display="inline">\color{red}A</math> होने पर कोई प्रभाव नहीं पड़ता है <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\color{Green}B</math> पर प्रभाव पड़ता है, जिसे सशर्त संभाव्यता कहा जाता है और केवल जब <math display="inline">\color{red}A</math> घटना होती है <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\color{Green}B</math>, वहाँ है <math display="inline">\definecolor{Green}{RGB}{0,128,0}
P({{\color{green}B}}|{\color{red}A})=P({\color{green}B})</math> होने पर कोई प्रभाव नहीं पड़ता है <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
P({{\color{green}B}}|{\color{red}A})=P({\color{green}B})</math>.
\color{Green}B</math>, वहाँ है।


नोट: यदि <math display="inline">P({\color{red}A})>0</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
नोट: यदि <math display="inline">P({\color{red}A})>0</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
Line 93: Line 93:
P({\color{Green}B})>0</math>, तब <math display="inline">\color{red}A</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
P({\color{Green}B})>0</math>, तब <math display="inline">\color{red}A</math> और <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\color{Green}B</math> पारस्परिक रूप से स्वतंत्र हैं जिन्हें एक ही समय में पारस्परिक रूप से असंगत के साथ स्थापित नहीं किया जा सकता है; अर्थात्, स्वतंत्रता संगत होनी चाहिए और पारस्परिक बहिष्कार संबंधित होना चाहिए।
\color{Green}B</math> पारस्परिक रूप से स्वतंत्र हैं, जिन्हें समय में पारस्परिक रूप से असंगत के साथ स्थापित नहीं किया जा सकता है। अर्थात्, स्वतंत्रता संगत होता है और पारस्परिक बहिष्कार संबंधित होता है।


कल्पना करना <math display="inline">\color{red}A</math>, <math display="inline">\definecolor{Green}{RGB}{0,128,0}
कल्पना करना <math display="inline">\color{red}A</math>, <math display="inline">\definecolor{Green}{RGB}{0,128,0}
Line 109: Line 109:
\definecolor{blue}{RGB}{0,0,255}
\definecolor{blue}{RGB}{0,0,255}
\definecolor{Blue}{RGB}{0,0,255}
\definecolor{Blue}{RGB}{0,0,255}
P({\color{red}A}{\color{green}B}{\color{blue}C})=P({\color{red}A})P({\color{green}B})P({\color{blue}C})</math> संतुष्ट हैं, तो घटनाएँ <math display="inline">\color{red}A</math>, <math display="inline">\definecolor{Green}{RGB}{0,128,0}
P({\color{red}A}{\color{green}B}{\color{blue}C})=P({\color{red}A})P({\color{green}B})P({\color{blue}C})</math> संतुष्ट होती हैं, तब घटनाएँ <math display="inline">\color{red}A</math>, <math display="inline">\definecolor{Green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\definecolor{green}{RGB}{0,128,0}
\color{Green}B</math>, और <math display="inline">\definecolor{blue}{RGB}{0,0,255}
\color{Green}B</math>, और <math display="inline">\definecolor{blue}{RGB}{0,0,255}
\color{blue}C</math> परस्पर स्वतंत्र हैं।
\color{blue}C</math> परस्पर स्वतंत्र होती हैं।


एक अधिक सामान्य परिभाषा है <math display="inline">n</math> आयोजन, <math display="inline">{\color{red}A}_1,{\color{red}A}_2, \ldots, {\color{red}A}_n
अधिक सामान्य परिभाषा <math display="inline">n</math> होती है। इस प्रकार आयोजन, <math display="inline">{\color{red}A}_1,{\color{red}A}_2, \ldots, {\color{red}A}_n
</math>. यदि किसी के लिए उत्पाद घटनाओं की संभावनाएं <math display="inline">2, 3, \ldots, n</math> घटनाएँ प्रत्येक घटना की संभावनाओं के उत्पाद के बराबर होती हैं, फिर घटनाएँ <math display="inline">{\color{red}A}_1,{\color{red}A}_2, \ldots, {\color{red}A}_n
</math>. यदि किसी के लिए उत्पाद घटनाओं की संभावनाएं <math display="inline">2, 3, \ldots, n</math> घटनाएँ प्रत्येक घटना की संभावनाओं के उत्पाद के समान्तर होती हैं, फिर घटनाएँ <math display="inline">{\color{red}A}_1,{\color{red}A}_2, \ldots, {\color{red}A}_n
</math> एक दूसरे से स्वतंत्र हैं।
</math> दूसरे से स्वतंत्र होती हैं।


== उदाहरण ==
== उदाहरण ==
Line 122: Line 122:
=== उदाहरण 1 ===
=== उदाहरण 1 ===


उचित या अनुचित [[रूले]]ट व्हील के घुमावों के परिणामों का क्रम आई.आई.डी. इसका एक निहितार्थ यह है कि यदि रूलेट गेंद लाल रंग पर गिरती है, उदाहरण के लिए, एक पंक्ति में 20 बार, अगली स्पिन किसी भी अन्य स्पिन की तुलना में काली होने की अधिक या कम संभावना नहीं है (जुआरी का भ्रम देखें)।
उचित या अनुचित [[रूले]]ट व्हील के घुमावों के परिणामों का क्रम आई.आई.डी. इसका निहितार्थ यह होता है कि यदि रूलेट गेंद लाल रंग पर गिरती है, उदाहरण के लिए, पंक्ति में 20 बार, अगली स्पिन किसी भी अन्य स्पिन की तुलना में काली होने की अधिक या कम संभावना नहीं होती है (जुआरी का भ्रम देखें)।


फेयर या लोडेड डाइस रोल का क्रम आई.आई.डी.
फेयर या लोडेड डाइस रोल का क्रम आई.आई.डी.
Line 132: Line 132:
(आई.डी.) संकेत स्तर समय अक्ष पर संतुलित होना चाहिए;
(आई.डी.) संकेत स्तर समय अक्ष पर संतुलित होना चाहिए;


(आई) सिग्नल स्पेक्ट्रम को चपटा होना चाहिए, अर्थात फ़िल्टरिंग (जैसे [[deconvolution|डिकॉनवोल्यूशन]]) द्वारा एक सफेद शोर सिग्नल (अर्थात एक संकेत जहां सभी आवृत्तियों समान रूप से उपस्तिथ हैं) में परिवर्तित किया जाना चाहिए।
(आई) सिग्नल स्पेक्ट्रम को चपटा होना चाहिए, अर्थात फ़िल्टरिंग (जैसे [[deconvolution|डिकॉनवोल्यूशन]]) द्वारा सफेद शोर सिग्नल (अर्थात संकेत जहां सभी आवृत्तियों समान रूप से उपस्तिथ हैं) में परिवर्तित किया जाना चाहिए।


=== उदाहरण 2 ===
=== उदाहरण 2 ===


एक सिक्के को 10 बार उछालें और रिकॉर्ड करें कि सिक्का कितनी बार सिर पर गिरा।
सिक्के को 10 बार उछालें और रिकॉर्ड करें कि सिक्का कितनी बार सिर पर गिरा।
# स्वतंत्र - लैंडिंग का प्रत्येक परिणाम दूसरे परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 10 परिणाम एक दूसरे से स्वतंत्र हैं।
# स्वतंत्र - लैंडिंग का प्रत्येक परिणाम दूसरे परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 10 परिणाम दूसरे से स्वतंत्र हैं।
# समान रूप से वितरित - यदि सिक्का एक सजातीय सामग्री है, तो हर बार हेड आने की संभावना 0.5 है, जिसका अर्थ है कि हर बार संभावना समान है।
# समान रूप से वितरित - यदि सिक्का सजातीय सामग्री है, तो हर बार हेड आने की संभावना 0.5 है, जिसका अर्थ है कि हर बार संभावना समान है।


=== उदाहरण 3 ===
=== उदाहरण 3 ===


एक पासे को 10 बार घुमाएँ और रिकॉर्ड करें कि कितनी बार परिणाम 1 आया।
पासे को 10 बार घुमाएँ और रिकॉर्ड करें कि कितनी बार परिणाम 1 आया।
# स्वतंत्र - डाइस का प्रत्येक परिणाम अगले परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 10 परिणाम एक दूसरे से स्वतंत्र हैं।
# स्वतंत्र - डाइस का प्रत्येक परिणाम अगले परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 10 परिणाम दूसरे से स्वतंत्र हैं।
# समान रूप से वितरित - यदि पासा एक सजातीय सामग्री है, तो हर बार संख्या 1 की संभावना 1/6 है, जिसका अर्थ है कि संभावना हर बार समान है।
# समान रूप से वितरित - यदि पासा सजातीय सामग्री है, तो हर बार संख्या 1 की संभावना 1/6 है, जिसका अर्थ है कि संभावना हर बार समान है।


=== उदाहरण 4 ===
=== उदाहरण 4 ===


52 कार्ड वाले कार्ड के मानक डेक से एक कार्ड चुनें, फिर कार्ड को वापस डेक में रखें। इसे 52 बार दोहराएं। दिखाई देने वाले राजा की संख्या रिकॉर्ड करें
52 कार्ड वाले कार्ड के मानक डेक से कार्ड चुनें, फिर कार्ड को वापस डेक में रखें। इसे 52 बार दोहराएं। दिखाई देने वाले राजा की संख्या रिकॉर्ड करें
# स्वतंत्र - कार्ड का प्रत्येक परिणाम अगले परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 52 परिणाम एक दूसरे से स्वतंत्र हैं।
# स्वतंत्र - कार्ड का प्रत्येक परिणाम अगले परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 52 परिणाम दूसरे से स्वतंत्र हैं।
# समान रूप से वितरित - इसमें से एक कार्ड निकालने के बाद, हर बार बादशाह की प्रायिकता 4/52 होती है, जिसका अर्थ है कि हर बार प्रायिकता समान होती है।
# समान रूप से वितरित - इसमें से कार्ड निकालने के बाद, हर बार बादशाह की प्रायिकता 4/52 होती है, जिसका अर्थ है कि हर बार प्रायिकता समान होती है।


== सामान्यीकरण ==
== सामान्यीकरण ==
Line 158: Line 158:
सबसे सामान्य धारणा जो आई.आई.डी. के मुख्य गुणों को साझा करती है। चर [[विनिमेय यादृच्छिक चर]] हैं, जो [[ब्रूनो डी फिनेची]] द्वारा प्रस्तुत किए गए हैं। विनिमेयता का मतलब है कि चूंकि चर स्वतंत्र नहीं हो सकते हैं, भविष्य वाले पिछले वाले की तरह व्यवहार करते हैं - औपचारिक रूप से, परिमित अनुक्रम का कोई भी मूल्य उतना ही संभव है जितना कि उन मूल्यों का कोई क्रम[[परिवर्तन]] - [[सममित समूह]] के अनुसार संयुक्त संभाव्यता वितरण अपरिवर्तनीय है।
सबसे सामान्य धारणा जो आई.आई.डी. के मुख्य गुणों को साझा करती है। चर [[विनिमेय यादृच्छिक चर]] हैं, जो [[ब्रूनो डी फिनेची]] द्वारा प्रस्तुत किए गए हैं। विनिमेयता का मतलब है कि चूंकि चर स्वतंत्र नहीं हो सकते हैं, भविष्य वाले पिछले वाले की तरह व्यवहार करते हैं - औपचारिक रूप से, परिमित अनुक्रम का कोई भी मूल्य उतना ही संभव है जितना कि उन मूल्यों का कोई क्रम[[परिवर्तन]] - [[सममित समूह]] के अनुसार संयुक्त संभाव्यता वितरण अपरिवर्तनीय है।


यह एक उपयोगी सामान्यीकरण प्रदान करता है - उदाहरण के लिए, प्रतिस्थापन के बिना नमूना लेना स्वतंत्र नहीं है, किन्तु विनिमय योग्य है।
यह उपयोगी सामान्यीकरण प्रदान करता है - उदाहरण के लिए, प्रतिस्थापन के बिना नमूना लेना स्वतंत्र नहीं है, किन्तु विनिमय योग्य है।


===लेवी प्रक्रिया===
===लेवी प्रक्रिया===
[[स्टोचैस्टिक कैलकुलस]] में, आई.आई.डी. चरों को असतत समय लेवी प्रक्रिया के रूप में माना जाता है: प्रत्येक चर यह बताता है कि एक समय से दूसरे में कितना परिवर्तन होता है।
[[स्टोचैस्टिक कैलकुलस]] में, आई.आई.डी. चरों को असतत समय लेवी प्रक्रिया के रूप में माना जाता है: प्रत्येक चर यह बताता है कि समय से दूसरे में कितना परिवर्तन होता है।


उदाहरण के लिए, बरनौली परीक्षणों के अनुक्रम की व्याख्या बरनौली प्रक्रिया के रूप में की जाती है।
उदाहरण के लिए, बरनौली परीक्षणों के अनुक्रम की व्याख्या बरनौली प्रक्रिया के रूप में की जाती है।
निरंतर समय लेवी प्रक्रियाओं को सम्मिलित करने के लिए इसे सामान्यीकृत किया जा सकता है, और कई लेवी प्रक्रियाओं को आई.आई.डी. की सीमा के रूप में देखा जा सकता है। चर-उदाहरण के लिए, [[वीनर प्रक्रिया]] बर्नौली प्रक्रिया की सीमा है।
निरंतर समय लेवी प्रक्रियाओं को सम्मिलित करने के लिए इसे सामान्यीकृत किया जा सकता है, और कई लेवी प्रक्रियाओं को आई.आई.डी. की सीमा के रूप में देखा जा सकता है। चर-उदाहरण के लिए, [[वीनर प्रक्रिया]] बर्नौली प्रक्रिया की सीमा है।


Line 175: Line 176:
देखी गई घटना की संभावना को अधिकतम करने के लिए, लॉग फ़ंक्शन लें और पैरामीटर θ को अधिकतम करें। अर्थात गणना करने के लिए:
देखी गई घटना की संभावना को अधिकतम करने के लिए, लॉग फ़ंक्शन लें और पैरामीटर θ को अधिकतम करें। अर्थात गणना करने के लिए:
:<math>\mathop{\rm argmax}\limits_\theta \log(l(\theta))</math>
:<math>\mathop{\rm argmax}\limits_\theta \log(l(\theta))</math>
कहाँ
जहाँ
:<math>\log(l(\theta)) = \log(P(x_1|\theta)) + \log(P(x_2|\theta)) + \log(P(x_3|\theta)) + ... + \log(P(x_n|\theta))</math>
:<math>\log(l(\theta)) = \log(P(x_1|\theta)) + \log(P(x_2|\theta)) + \log(P(x_3|\theta)) + ... + \log(P(x_n|\theta))</math>
कंप्यूटर कई योगों की गणना करने के लिए बहुत कुशल है, किन्तु यह गुणन की गणना करने में कुशल नहीं है। कम्प्यूटेशनल दक्षता में वृद्धि के लिए यह सरलीकरण मुख्य कारण है। और यह लॉग ट्रांसफ़ॉर्मेशन भी अधिकतम करने की प्रक्रिया में है, कई घातीय कार्यों को रैखिक कार्यों में बदल रहा है।
कंप्यूटर कई योगों की गणना करने के लिए बहुत कुशल है, किन्तु यह गुणन की गणना करने में कुशल नहीं है। कम्प्यूटेशनल दक्षता में वृद्धि के लिए यह सरलीकरण मुख्य कारण है। और यह लॉग ट्रांसफ़ॉर्मेशन भी अधिकतम करने की प्रक्रिया में है, कई घातीय कार्यों को रैखिक कार्यों में बदल रहा है।
Line 181: Line 182:
दो कारणों से, व्यावहारिक अनुप्रयोगों में केंद्रीय सीमा प्रमेय का उपयोग करना आसान है।
दो कारणों से, व्यावहारिक अनुप्रयोगों में केंद्रीय सीमा प्रमेय का उपयोग करना आसान है।
# यदि नमूना अधिक जटिल गैर-गाऊसी वितरण से आता है, यह अच्छी तरह से अनुमानित भी हो सकता है। क्योंकि इसे केंद्रीय सीमा प्रमेय से गॉसियन वितरण तक सरल बनाया जा सकता है। बड़ी संख्या में देखे जाने योग्य नमूनों के लिए, कई यादृच्छिक चरों के योग का लगभग सामान्य वितरण होगा।
# यदि नमूना अधिक जटिल गैर-गाऊसी वितरण से आता है, यह अच्छी तरह से अनुमानित भी हो सकता है। क्योंकि इसे केंद्रीय सीमा प्रमेय से गॉसियन वितरण तक सरल बनाया जा सकता है। बड़ी संख्या में देखे जाने योग्य नमूनों के लिए, कई यादृच्छिक चरों के योग का लगभग सामान्य वितरण होगा।
# दूसरा कारण यह है कि मॉडल की त्रुटिहीनता मॉडल इकाई की सादगी और प्रतिनिधि शक्ति के साथ-साथ डेटा की गुणवत्ता पर निर्भर करती है। क्योंकि इकाई की सरलता से व्याख्या करना और पैमाना बनाना आसान हो जाता है, और इकाई से प्रतिनिधि शक्ति + पैमाना मॉडल की त्रुटिहीनता में सुधार करता है। एक गहरे तंत्रिका नेटवर्क की तरह, प्रत्येक न्यूरॉन बहुत सरल है, किन्तु मॉडल की त्रुटिहीनता में सुधार के लिए अधिक जटिल सुविधाओं का प्रतिनिधित्व करने के लिए परत दर परत मजबूत प्रतिनिधि शक्ति है।
# दूसरा कारण यह है कि मॉडल की त्रुटिहीनता मॉडल इकाई की सादगी और प्रतिनिधि शक्ति के साथ-साथ डेटा की गुणवत्ता पर निर्भर करती है। क्योंकि इकाई की सरलता से व्याख्या करना और पैमाना बनाना आसान हो जाता है, और इकाई से प्रतिनिधि शक्ति + पैमाना मॉडल की त्रुटिहीनता में सुधार करता है। गहरे तंत्रिका नेटवर्क की तरह, प्रत्येक न्यूरॉन बहुत सरल है, किन्तु मॉडल की त्रुटिहीनता में सुधार के लिए अधिक जटिल सुविधाओं का प्रतिनिधित्व करने के लिए परत दर परत मजबूत प्रतिनिधि शक्ति है।


== यह भी देखें ==
== यह भी देखें ==

Revision as of 23:04, 19 June 2023

संभाव्यता सिद्धांत और सांख्यिकी में, संग्रह स्वतंत्र और समान रूप से वितरित यादृच्छिक चर होता है, यदि प्रत्येक यादृच्छिक चर में अन्य के समान संभावना वितरण होता है और सभी परस्पर स्वतंत्रता (संभावना सिद्धांत) होते हैं।[1] इस संपत्ति को सामान्यतः आई.आई.डी., आईआईडी, या आईआईडी के रूप में संक्षिप्त किया जाता है। इस प्रकार आईआईडी को प्रथम बार सांख्यिकी में परिभाषित किया गया था और डेटा माइनिंग और सिग्नल प्रोसेसिंग जैसे विभिन्न क्षेत्रों में इसका उपयोग होता है।

परिचय

सांख्यिकी सामान्यतः यादृच्छिक नमूनों से संबंधित होती है। चूँकि यादृच्छिक नमूने को उन वस्तुओं के समूह के रूप में माना जा सकता है, जिन्हें यादृच्छिक रूप से चुना जाता है। अतः अधिक औपचारिक रूप से, यह स्वतंत्र, समान रूप से वितरित (आईआईडी) यादृच्छिक डेटा बिंदुओं का क्रम होता है।

दूसरे शब्दों में, यादृच्छिक नमूना और आईआईडी शब्द मूल रूप से होता हैं। इस प्रकार आँकड़ों में, यादृच्छिक नमूना विशिष्ट शब्दावली होती है, किन्तु संभाव्यता में आईआईडी कहना अधिक सामान्य होता है।

  • 'समान रूप से वितरित' का अर्थ होता है कि कोई समग्र प्रवृत्ति नहीं होती है - वितरण में उतार-चढ़ाव नहीं होता है और नमूने में सभी वस्तु समान संभाव्यता वितरण से लिए जाते हैं।
  • 'स्वतंत्र' का अर्थ होता है कि नमूना वस्तु कि सभी स्वतंत्र घटनाएँ होती हैं। अतः दूसरे शब्दों में, वह किसी भी प्रकार से दूसरे से जुड़े नहीं होते हैं।[2] इस प्रकार चर के मान का ज्ञान दूसरे चर के मान के बारे में कोई जानकारी नहीं देता है और इसके विपरीत होता है।
  • आईआईडी चरों को समान रूप से वितरित करने के लिए यह आवश्यक नहीं होता है। इस प्रकार आईआईडी होने के लिए केवल यह आवश्यक होता है कि उन सभी का दूसरे के समान वितरण होता है और उस वितरण से स्वतंत्र रूप से चुने गए होंते है, भले ही उनका वितरण कितना भी समान या गैर-समान क्यों नही होता है।

आवेदन

स्वतंत्र और समान रूप से वितरित यादृच्छिक चर अधिकांशतः धारणा के रूप में उपयोग किए जाते हैं, जो अंतर्निहित गणित को सरल बनाने की प्रवृत्ति रखता है। इस प्रकार सांख्यिकीय मॉडलिंग के व्यावहारिक अनुप्रयोगों में चूंकि धारणा यथार्थवादी हो भी सकती है और नहीं भी हो सकती है।[3]

आई.आई.डी. धारणा का उपयोग केंद्रीय सीमा प्रमेय में भी किया जाता है, जिसमें कहा गया है कि आई.आई.डी. के योग (या औसत) का प्रायिकता वितरण परिमित भिन्नता वाले चर सामान्य वितरण की ओर अग्रसर होते हैं।[4]

अधिकांशतः आई.आई.डी. धारणा यादृच्छिक चर के अनुक्रम के संदर्भ में उत्पन्न होती है। इस प्रकार तब स्वतंत्र और समान रूप से वितरित का तात्पर्य होता है कि अनुक्रम में तत्व यादृच्छिक चर से स्वतंत्र होता है जो इससे पहले आया था। इस प्रकार आई.आई.डी. अनुक्रम मार्कोव अनुक्रम से भिन्न होता है, जहां एनवें यादृच्छिक चर के लिए संभाव्यता वितरण अनुक्रम में पिछले यादृच्छिक चर का कार्य होता है (पहले क्रम मार्कोव अनुक्रम के लिए)। आई.आई.डी. अनुक्रम नमूना स्थान या घटना स्थान के सभी तत्वों के लिए संभावनाओं को समान नहीं होता है।[5] उदाहरण के लिए, बार-बार भरे हुए पासे को फेंकने से परिणाम पक्षपाती होने के अतिरिक्त आई.आई.डी. अनुक्रम उत्पन्न होता है।

सिग्नल प्रोसेसिंग और इमेज प्रोसेसिंग में परिवर्तन की धारणा आई.आई.डी. तात्पर्य दो विशिष्टताओं "आईडी" भाग और "आई" भाग होता है।

पहचान- समय अक्ष पर संकेत स्तर संतुलित होता है।

आई - सिग्नल वर्णक्रम को चपटा होता है। अर्थात्, फ़िल्टरिंग (जैसे डीकोनोवोल्यूशन) द्वारा सफेद ध्वनि सिग्नल (अर्थात् संकेत जहां सभी आवृत्तियों समान रूप से उपस्थित होता हैं) में परिवर्तित किया जाता है।

परिभाषा

दो यादृच्छिक चर के लिए परिभाषा

मान लीजिए कि यादृच्छिक चर और मूल्यों को ग्रहण करने के लिए परिभाषित किया गया है। अतः . जैसे कि और के संचयी वितरण कार्य और होता है। इस प्रकार क्रमशः, और उनके संयुक्त संभाव्यता वितरण को निरूपित करता है।

दो यादृच्छिक चर और और यदि समान रूप से वितरित किए जाते हैं।[6]

दो यादृच्छिक चर और स्वतंत्र होते हैं और यदि वितरित किए जाते हैं। (आगे देखें)

दो यादृच्छिक चर और आई.आई.डी होता हैं यदि वह स्वतंत्र और समान रूप से वितरित हैं। अर्थात्,

 

 

 

 

(Eq.1)

दो से अधिक यादृच्छिक चर के लिए परिभाषा

सामान्यतः परिभाषा स्वाभाविक रूप से दो से अधिक यादृच्छिक चर तक फैली हुई होती है। हम कह सकते हैं कि यादृच्छिक चर आई.आई.डी होता हैं यदि वह स्वतंत्र होता हैं (आगे देखें ) और समान रूप से वितरित होता है।

 

 

 

 

(Eq.2)

जहाँ के संयुक्त संचयी वितरण फलन को दर्शाता है।

स्वतंत्रता की परिभाषा

प्रायिकता सिद्धांत में, दो घटनाएँ, और , को स्वतंत्र कहा जाता है और यदि . निम्नांकित में, के लिए छोटा है।

मान लीजिए प्रयोग की दो घटनाएँ और . यदि , संभावना होती है . सामान्यतः, की घटना की संभावना पर प्रभाव पड़ता है, जिसे सशर्त संभाव्यता कहा जाता है और केवल जब घटना होती है होने पर कोई प्रभाव नहीं पड़ता है , वहाँ है।

नोट: यदि और , तब और पारस्परिक रूप से स्वतंत्र हैं, जिन्हें समय में पारस्परिक रूप से असंगत के साथ स्थापित नहीं किया जा सकता है। अर्थात्, स्वतंत्रता संगत होता है और पारस्परिक बहिष्कार संबंधित होता है।

कल्पना करना , , और तीन घटनाएँ हैं। यदि , , , और संतुष्ट होती हैं, तब घटनाएँ , , और परस्पर स्वतंत्र होती हैं।

अधिक सामान्य परिभाषा होती है। इस प्रकार आयोजन, . यदि किसी के लिए उत्पाद घटनाओं की संभावनाएं घटनाएँ प्रत्येक घटना की संभावनाओं के उत्पाद के समान्तर होती हैं, फिर घटनाएँ दूसरे से स्वतंत्र होती हैं।

उदाहरण

उदाहरण 1

उचित या अनुचित रूलेट व्हील के घुमावों के परिणामों का क्रम आई.आई.डी. इसका निहितार्थ यह होता है कि यदि रूलेट गेंद लाल रंग पर गिरती है, उदाहरण के लिए, पंक्ति में 20 बार, अगली स्पिन किसी भी अन्य स्पिन की तुलना में काली होने की अधिक या कम संभावना नहीं होती है (जुआरी का भ्रम देखें)।

फेयर या लोडेड डाइस रोल का क्रम आई.आई.डी.

निष्पक्ष या अनुचित सिक्के के पलटने का क्रम आई.आई.डी. है।

संकेत आगे बढ़ाना और मूर्ति प्रोद्योगिकी में परिवर्तन की धारणा आई.आई.डी. तात्पर्य दो विशिष्टताओं से है, आई.डी. भाग और मैं भाग:

(आई.डी.) संकेत स्तर समय अक्ष पर संतुलित होना चाहिए;

(आई) सिग्नल स्पेक्ट्रम को चपटा होना चाहिए, अर्थात फ़िल्टरिंग (जैसे डिकॉनवोल्यूशन) द्वारा सफेद शोर सिग्नल (अर्थात संकेत जहां सभी आवृत्तियों समान रूप से उपस्तिथ हैं) में परिवर्तित किया जाना चाहिए।

उदाहरण 2

सिक्के को 10 बार उछालें और रिकॉर्ड करें कि सिक्का कितनी बार सिर पर गिरा।

  1. स्वतंत्र - लैंडिंग का प्रत्येक परिणाम दूसरे परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 10 परिणाम दूसरे से स्वतंत्र हैं।
  2. समान रूप से वितरित - यदि सिक्का सजातीय सामग्री है, तो हर बार हेड आने की संभावना 0.5 है, जिसका अर्थ है कि हर बार संभावना समान है।

उदाहरण 3

पासे को 10 बार घुमाएँ और रिकॉर्ड करें कि कितनी बार परिणाम 1 आया।

  1. स्वतंत्र - डाइस का प्रत्येक परिणाम अगले परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 10 परिणाम दूसरे से स्वतंत्र हैं।
  2. समान रूप से वितरित - यदि पासा सजातीय सामग्री है, तो हर बार संख्या 1 की संभावना 1/6 है, जिसका अर्थ है कि संभावना हर बार समान है।

उदाहरण 4

52 कार्ड वाले कार्ड के मानक डेक से कार्ड चुनें, फिर कार्ड को वापस डेक में रखें। इसे 52 बार दोहराएं। दिखाई देने वाले राजा की संख्या रिकॉर्ड करें

  1. स्वतंत्र - कार्ड का प्रत्येक परिणाम अगले परिणाम को प्रभावित नहीं करेगा, जिसका अर्थ है कि 52 परिणाम दूसरे से स्वतंत्र हैं।
  2. समान रूप से वितरित - इसमें से कार्ड निकालने के बाद, हर बार बादशाह की प्रायिकता 4/52 होती है, जिसका अर्थ है कि हर बार प्रायिकता समान होती है।

सामान्यीकरण

कई परिणाम जो पहली बार इस धारणा के अनुसार सिद्ध हुए थे कि यादृच्छिक चर i.i.d हैं। कमजोर वितरण धारणा के अनुसार भी सही सिद्ध करना हुए हैं।

विनिमेय यादृच्छिक चर

सबसे सामान्य धारणा जो आई.आई.डी. के मुख्य गुणों को साझा करती है। चर विनिमेय यादृच्छिक चर हैं, जो ब्रूनो डी फिनेची द्वारा प्रस्तुत किए गए हैं। विनिमेयता का मतलब है कि चूंकि चर स्वतंत्र नहीं हो सकते हैं, भविष्य वाले पिछले वाले की तरह व्यवहार करते हैं - औपचारिक रूप से, परिमित अनुक्रम का कोई भी मूल्य उतना ही संभव है जितना कि उन मूल्यों का कोई क्रमपरिवर्तन - सममित समूह के अनुसार संयुक्त संभाव्यता वितरण अपरिवर्तनीय है।

यह उपयोगी सामान्यीकरण प्रदान करता है - उदाहरण के लिए, प्रतिस्थापन के बिना नमूना लेना स्वतंत्र नहीं है, किन्तु विनिमय योग्य है।

लेवी प्रक्रिया

स्टोचैस्टिक कैलकुलस में, आई.आई.डी. चरों को असतत समय लेवी प्रक्रिया के रूप में माना जाता है: प्रत्येक चर यह बताता है कि समय से दूसरे में कितना परिवर्तन होता है।

उदाहरण के लिए, बरनौली परीक्षणों के अनुक्रम की व्याख्या बरनौली प्रक्रिया के रूप में की जाती है।

निरंतर समय लेवी प्रक्रियाओं को सम्मिलित करने के लिए इसे सामान्यीकृत किया जा सकता है, और कई लेवी प्रक्रियाओं को आई.आई.डी. की सीमा के रूप में देखा जा सकता है। चर-उदाहरण के लिए, वीनर प्रक्रिया बर्नौली प्रक्रिया की सीमा है।

मशीन लर्निंग में

मशीन लर्निंग तेजी से, अधिक त्रुटिहीन परिणाम देने के लिए वर्तमान में बड़ी मात्रा में डेटा का उपयोग करता है।[7] इसलिए, हमें समग्र प्रतिनिधित्व के साथ ऐतिहासिक डेटा का उपयोग करने की आवश्यकता है। यदि प्राप्त डेटा समग्र स्थिति का प्रतिनिधित्व नहीं करता है, तो नियमों को गलत या गलत तरीके से सारांशित किया जाएगा।

आई.आई.डी. परिकल्पना, प्रशिक्षण नमूने में व्यक्तिगत स्थितियोंकी संख्या बहुत कम हो सकती है।

यह धारणा गणितीय रूप से गणना करने के लिए अधिकतमकरण को बहुत आसान बनाती है। गणित में स्वतंत्र और समान वितरण की धारणा को देखते हुए अनुकूलन समस्याओं में संभावना कार्य की गणना सरल हो जाती है। स्वतंत्रता की मान्यता के कारण, संभावना फलन को इस प्रकार लिखा जा सकता है

देखी गई घटना की संभावना को अधिकतम करने के लिए, लॉग फ़ंक्शन लें और पैरामीटर θ को अधिकतम करें। अर्थात गणना करने के लिए:

जहाँ

कंप्यूटर कई योगों की गणना करने के लिए बहुत कुशल है, किन्तु यह गुणन की गणना करने में कुशल नहीं है। कम्प्यूटेशनल दक्षता में वृद्धि के लिए यह सरलीकरण मुख्य कारण है। और यह लॉग ट्रांसफ़ॉर्मेशन भी अधिकतम करने की प्रक्रिया में है, कई घातीय कार्यों को रैखिक कार्यों में बदल रहा है।

दो कारणों से, व्यावहारिक अनुप्रयोगों में केंद्रीय सीमा प्रमेय का उपयोग करना आसान है।

  1. यदि नमूना अधिक जटिल गैर-गाऊसी वितरण से आता है, यह अच्छी तरह से अनुमानित भी हो सकता है। क्योंकि इसे केंद्रीय सीमा प्रमेय से गॉसियन वितरण तक सरल बनाया जा सकता है। बड़ी संख्या में देखे जाने योग्य नमूनों के लिए, कई यादृच्छिक चरों के योग का लगभग सामान्य वितरण होगा।
  2. दूसरा कारण यह है कि मॉडल की त्रुटिहीनता मॉडल इकाई की सादगी और प्रतिनिधि शक्ति के साथ-साथ डेटा की गुणवत्ता पर निर्भर करती है। क्योंकि इकाई की सरलता से व्याख्या करना और पैमाना बनाना आसान हो जाता है, और इकाई से प्रतिनिधि शक्ति + पैमाना मॉडल की त्रुटिहीनता में सुधार करता है। गहरे तंत्रिका नेटवर्क की तरह, प्रत्येक न्यूरॉन बहुत सरल है, किन्तु मॉडल की त्रुटिहीनता में सुधार के लिए अधिक जटिल सुविधाओं का प्रतिनिधित्व करने के लिए परत दर परत मजबूत प्रतिनिधि शक्ति है।

यह भी देखें

संदर्भ

  1. Clauset, Aaron (2011). "संभाव्यता वितरण पर एक संक्षिप्त प्राइमर" (PDF). Santa Fe Institute. Archived from the original (PDF) on 2012-01-20. Retrieved 2011-11-29.
  2. Stephanie (2016-05-11). "IID Statistics: Independent and Identically Distributed Definition and Examples". Statistics How To (in English). Retrieved 2021-12-09.
  3. Hampel, Frank (1998), "Is statistics too difficult?", Canadian Journal of Statistics, 26 (3): 497–513, doi:10.2307/3315772, hdl:20.500.11850/145503, JSTOR 3315772, S2CID 53117661 (§8).
  4. Blum, J. R.; Chernoff, H.; Rosenblatt, M.; Teicher, H. (1958). "विनिमेय प्रक्रियाओं के लिए केंद्रीय सीमा प्रमेय". Canadian Journal of Mathematics. 10: 222–229. doi:10.4153/CJM-1958-026-0. S2CID 124843240.
  5. Cover, T. M.; Thomas, J. A. (2006). सूचना सिद्धांत के तत्व. Wiley-Interscience. pp. 57–58. ISBN 978-0-471-24195-9.
  6. Casella & Berger 2002, Theorem 1.5.10
  7. "What is Machine Learning? A Definition". Expert.ai (in English). 2020-05-05. Retrieved 2021-12-16.


अग्रिम पठन