वृहद संख्या नियम

संभाव्यता सिद्धांत में, बड़ी संख्या का नियम (एलएलएन) एक प्रमेय है जो एक ही प्रयोग को बड़ी संख्या में करने के परिणाम का वर्णन करता है। नियम के अनुसार, बड़ी संख्या में परीक्षणों से प्राप्त परिणामों का औसत अपेक्षित मूल्य के समीप होना चाहिए और अधिक परीक्षण किए जाने पर अपेक्षित मूल्य के समीप होने की प्रवृत्ति होती है।

एलएलएन महत्वपूर्ण है क्योंकि यह कुछ यादृच्छिक घटनाओं के औसत के लिए स्थिर दीर्घकालिक परिणामों की गारंटी देता है। उदाहरण के लिए, जबकि एक कैसीनो रूलेट पहिया के एक स्पिन में पैसा खो सकता है, इसकी कमाई बड़ी संख्या में स्पिनों पर अनुमानित प्रतिशत की ओर बढ़ती है। एक खिलाड़ी द्वारा जीतने वाली कोई भी लकीर अंततः खेल के मापदंडों से दूर हो जाएगी। महत्वपूर्ण रूप से, नियम तभी प्रयुक्त होता है (जैसा कि नाम से पता चलता है) केवल तभी प्रयुक्त होता है जब बड़ी संख्या में टिप्पणियों पर विचार किया जाता है। ऐसा कोई सिद्धांत नहीं है कि टिप्पणियों की एक छोटी संख्या अपेक्षित मूल्य के साथ मेल खाएगी या कि एक मूल्य की एक लकीर तुरंत दूसरों द्वारा संतुलित हो जाएगी (जुआरी की गिरावट देखें)।

एलएलएन केवल औसत पर प्रयुक्त होता है। इसलिए, जबकि

$$\lim_{n\to\infty} \sum_{i=1}^n \frac{X_i} n = \overline{X}$$ समान दिखने वाले अन्य सूत्र सत्यापित नहीं किया जाता है, जैसे कि सैद्धांतिक परिणामों से अपरिष्कृत विचलन:

$$\sum_{i=1}^n X_i - n\times\overline{X}$$ n बढ़ने पर न केवल यह शून्य की ओर अभिसरित नहीं होता है, किन्तु n के बढ़ने पर यह निरपेक्ष मान में वृद्धि करता है।

उदाहरण
उदाहरण के लिए, एक निष्पक्ष, छह-पक्षीय पासा का एक रोल 1, 2, 3, 4, 5, या 6 में से प्रत्येक को समान संभावना के साथ संख्या में से एक बनाता है। इसलिए, रोल के औसत का अपेक्षित मूल्य है:

$$ \frac{1+2+3+4+5+6}{6} = 3.5$$ बड़ी संख्या के नियम के अनुसार, यदि बड़ी संख्या में छह-तरफा पासा लुढ़काए जाते हैं, तो उनके मूल्यों का औसत (कभी-कभी नमूना माध्य कहा जाता है) 3.5 तक पहुंच जाएगा, स्पष्ट के साथ अधिक पासा फेंका जाता है।

यह बड़ी संख्या के नियम से अनुसरण करता है कि बर्नौली परीक्षणों की एक श्रृंखला में सफलता की अनुभवजन्य संभावना सैद्धांतिक संभाव्यता में परिवर्तित हो जाएगी। बर्नौली यादृच्छिक चर (वैरीएबल)के लिए, अपेक्षित मूल्य सफलता की सैद्धांतिक संभावना है, और n ऐसे चर का औसत (यह मानते हुए कि वे स्वतंत्र हैं और समान रूप से यादृच्छिक चर वितरित किए गए हैं। स्वतंत्र और समान रूप से वितरित (i.i.d.)) वास्तव में सापेक्ष आवृत्ति है।

उदाहरण के लिए, एक निष्पक्ष सिक्का टॉस एक बर्नौली परीक्षण है। जब एक निष्पक्ष सिक्के को एक बार उछाला जाता है, तो परिणाम के हेड होने की सैद्धांतिक प्रायिकता $1/2$ बराबर होती है. इसलिए, बड़ी संख्या के नियम के अनुसार, बड़ी संख्या में सिक्का फ़्लिप में सिर का अनुपात मोटे तौर पर $1/2$ होना चाहिए. विशेष रूप से, n फ़्लिप के बाद सिर का अनुपात लगभग निश्चित रूप से $1/2$ अनुक्रम को सीमित कर देगा जैसे n अनंत तक पहुंचता है।

यद्यपि सिर (और पूंछ) का अनुपात निकट $1/2$ तक पहुंच जाता है, लगभग निश्चित रूप से चित और पट की संख्या में पूर्ण अंतर बड़ा हो जाएगा क्योंकि फ़्लिप की संख्या बड़ी हो जाती है। अर्थात्, पूर्ण अंतर के एक छोटी संख्या होने की संभावना शून्य के समीप पहुंच जाती है क्योंकि फ़्लिप की संख्या बड़ी हो जाती है। इसके अतिरिक्त , लगभग निश्चित रूप से फ़्लिप की संख्या के पूर्ण अंतर का अनुपात शून्य तक पहुंच जाएगा। सहज रूप से, अपेक्षित अंतर बढ़ता है, किन्तु फ़्लिप की संख्या की तुलना में धीमी गति से होता है

एलएलएन का एक और अच्छा उदाहरण मोंटे कार्लो पद्धति है। ये विधियाँ गणना ल कलन विधि की एक विस्तृत श्रेणी हैं जो संख्यात्मक परिणाम प्राप्त करने के लिए बार-बार यादृच्छिक नमूने पर निर्भर करती हैं। दोहराव की संख्या जितनी अधिक होगी, सन्निकटन उतना ही उत्तम होगा। इस पद्धति के महत्वपूर्ण होने का मुख्य कारण यह है कि कभी-कभी अन्य विधि का उपयोग करना कठिन या असंभव होता है।

सीमा
बड़ी संख्या में परीक्षणों से प्राप्त परिणामों का औसत कुछ स्थितियों में अभिसरण करने में विफल हो सकता है। उदाहरण के लिए, कॉची वितरण या कुछ परेटो वितरण (α<1) से लिए गए n परिणामों का औसत n के बड़े होने पर अभिसरित नहीं होगा; इसका कारण भारी पूंछ वाला वितरण है। कॉची वितरण और पेरेटो वितरण दो स्थितियों का प्रतिनिधित्व करते हैं: कॉची वितरण में अपेक्षा नहीं होती है, जबकि पेरेटो वितरण की अपेक्षा (α<1) अनंत है। कॉची-वितरित उदाहरण उत्पन्न करने का एक विधि यह है कि यादृच्छिक संख्या -90° और +90° के बीच समान रूप से वितरित कोण के स्पर्शरेखा के बराबर होती है। माध्यिका शून्य है, किन्तु अपेक्षित मान उपस्थित नहीं है, और वास्तव में n ऐसे चरों के औसत का वितरण एक ऐसे चर के समान है। यह संभाव्यता में शून्य (या किसी अन्य मान) की ओर अभिसरण नहीं करता है क्योंकि n अनंत तक जाता है।

और यदि परीक्षण एक चयन पूर्वाग्रह को एम्बेड करते हैं, जो मानव आर्थिक/तर्कसंगत व्यवहार में विशिष्ट है, तो बड़ी संख्या का नियम पूर्वाग्रह को हल करने में सहायता नहीं करता है। तथापि  परीक्षणों की संख्या में वृद्धि हो, चयन पूर्वाग्रह बना रहता है।

इतिहास
DiffusionMicroMacro.gif बड़ी संख्या के नियम का एक उदाहरण है। प्रारंभ में, एक बाधा (मैजेंटा लाइन) के बाईं ओर विलेय अणु होते हैं और दाईं ओर कोई नहीं होता है। बाधा हटा दी जाती है, और विलेय पूरे कंटेनर को भरने के लिए विसरित हो जाता है।शीर्ष: एक अणु के साथ, गति काफी यादृच्छिक प्रतीत होती है।

मध्य: अधिक अणुओं के साथ, स्पष्ट रूप से एक प्रवृत्ति है जहां विलेय कंटेनर को अधिक से अधिक समान रूप से भरता है, किन्तु यादृच्छिक उतार-चढ़ाव भी होते हैं।

नीचे: विलेय अणुओं की एक विशाल संख्या (देखने के लिए बहुत अधिक) के साथ, यादृच्छिकता अनिवार्य रूप से चली गई है: विलेय उच्च-सघनता वाले क्षेत्रों से कम-सांद्रता वाले क्षेत्रों में आसानी से और व्यवस्थित रूप से स्थानांतरित होता प्रतीत होता है। यथार्थवादी स्थितियों में, रसायनशास्त्री विसरण को इसकी अंतर्निहित यादृच्छिक प्रकृति के बावजूद नियतात्मक मैक्रोस्कोपिक घटना के रूप में वर्णित कर सकते हैं (देखें फिक का नियम)।]]इतालवी गणितज्ञ जेरोम कार्डानो (1501-1576) ने बिना प्रमाण के कहा कि अनुभवजन्य आंकड़ों की स्पष्ट परीक्षणों की संख्या में सुधार करती है। इसे तब बड़ी संख्या के नियम के रूप में औपचारिक रूप दिया गया था। एलएलएन (बाइनरी अनियमित चर के लिए) का एक विशेष रूप सबसे पहले जैकब बर्नौली द्वारा सिद्ध किया गया था। पर्याप्त रूप से कठोर गणितीय प्रमाण विकसित करने में उन्हें 20 साल से अधिक का समय लगा, जो उनके द्वारा प्रकाशित किया गया था (अनुमान लगाने की कला) 1713 में। उन्होंने इसे अपनी स्वर्ण प्रमेय का नाम दिया किन्तु इसे सामान्यतः 'बर्नौली के प्रमेय' के रूप में जाना जाने लगा। इसे बर्नौली के सिद्धांत से भ्रमित नहीं होना चाहिए, जिसका नाम जैकब बर्नौली के भतीजे डेनियल बर्नौली के नाम पर रखा गया है। 1837 में, शिमोन डेनिस पोइसन|एस. डी. पोइसन ने आगे इसका वर्णन इस नाम से किया है (बड़ी संख्या का नियम )। तत्पश्चात् इसे दोनों नामों से जाना गया, किन्तु बड़ी संख्या के नियम का प्रयोग सबसे अधिक बार किया जाता है।

बर्नौली और पोइसन ने अपने प्रयासों को प्रकाशित करने के बाद, अन्य गणितज्ञों ने भी नियम को परिष्कृत करने में योगदान दिया, जिसमें पफन्युटी चेबीशेव भी सम्मिलित थे, एंड्री मार्कोव, एमिल बोरेल, फ्रांसेस्को पाओलो कैंटेली, एंड्री कोलमोगोरोव और अलेक्सांद्र खींचीं मार्कोव ने दिखाया कि नियम एक यादृच्छिक चर पर प्रयुक्त हो सकता है जिसमें कुछ अन्य अशक्त धारणा के अनुसार एक परिमित भिन्नता नहीं है, और खिनचिन ने 1929 में दिखाया कि यदि श्रृंखला में स्वतंत्र रूप से समान रूप से वितरित यादृच्छिक चर सम्मिलित हैं, तो यह पर्याप्त है कि अपेक्षित मूल्य उपस्थित है। बड़ी संख्या के अशक्त नियम का सच होना। आगे के इन अध्ययनों ने एलएलएन के दो प्रमुख रूपों को जन्म दिया है। एक को अशक्त नियम और दूसरे को सशक्त नियम कहा जाता है, संचयी नमूने के अनुक्रम की सीमा के दो अलग-अलग विधि के संदर्भ में अपेक्षित मूल्य का कारण है; विशेष रूप से, जैसा कि नीचे समझाया गया है, सशक्त रूप का अर्थ है अशक्त ।

फॉर्म
बड़ी संख्या के नियम के दो अलग-अलग संस्करण हैं जिनका वर्णन नीचे किया गया है। उन्हें "बड़ी संख्या का सशक्त नियम " और "बड़ी संख्या का अशक्त नियम " कहा जाता है। उस स्थितियों के लिए कहा गया जहां X1, X 2, ... स्वतंत्र और समान रूप से वितरित अनियमित चर का एक अनंत अनुक्रम है | स्वतंत्र और समान रूप से वितरित (i.i.d.) अपेक्षित मूल्य E(X1) = E(X2) = ... = µ, नियम के दोनों संस्करण बताते हैं कि नमूना औसत$$\overline{X}_n=\frac1n(X_1+\cdots+X_n) $$अपेक्षित मान में परिवर्तित होता है:

(Xj की अखंडता इसका कारण है कि अपेक्षित मूल्य E(Xj) लेबेस्ग्यूएकीकरण के अनुसार उपस्थित है और परिमित है। इसका कारण यह नहीं है कि संबंधित संभाव्यता माप लेबेस्गु माप के संबंध में बिल्कुल निरंतर है।)

परिचयात्मक संभाव्यता पाठ अधिकांशतः समान परिमित विचरण को अतिरिक्त रूप से मानते हैं $$ \operatorname{Var} (X_i) = \sigma^2 $$ (सभी के लिए $$i$$) और यादृच्छिक चर के बीच कोई संबंध नहीं है। उस स्थिति में, n यादृच्छिक चर के औसत का विचरण है$$\operatorname{Var}(\overline{X}_n) = \operatorname{Var}(\tfrac1n(X_1+\cdots+X_n)) = \frac{1}{n^2} \operatorname{Var}(X_1+\cdots+X_n) = \frac{n\sigma^2}{n^2} = \frac{\sigma^2}{n}.$$

जिसका उपयोग प्रमाण को छोटा और सरल बनाने के लिए किया जा सकता है। परिमित भिन्नता की यह धारणा आवश्यक नहीं है। बड़ा या अनंत विचरण अभिसरण धीमा कर देगा, किन्तु एलएलएन वैसे भी धारण करता है। स्वतंत्रता (संभाव्यता सिद्धांत) या यादृच्छिक चर के दो से अधिक यादृच्छिक चर को जोड़ीदार स्वतंत्रता द्वारा प्रतिस्थापित किया जा सकता है या विनिमेय यादृच्छिक चर नियम के दोनों संस्करणों में।

सशक्त और अशक्त संस्करण के बीच का अंतर अभिसरण के विधि पर जोर देने से संबंधित है। इन विधियों की व्याख्या के लिए, यादृच्छिक चरों का अभिसरण देखें।

अशक्त नियम
बड़ी संख्या का अशक्त नियम (जिसे अलेक्सांद्र खिनचिन का नियम भी कहा जाता है) बताता है कि अपेक्षित मूल्य की ओर संभाव्यता में नमूना औसत अभिसरण

अर्थात्, किसी धनात्मक संख्या ε के लिए,

$$   \lim_{n\to\infty}\Pr\!\left(\,|\overline{X}_n-\mu| < \varepsilon\,\right) = 1. $$ इस परिणाम की व्याख्या करते हुए, अशक्त नियम कहता है कि किसी भी गैर-शून्य मार्जिन निर्दिष्ट (ε) के लिए, चाहे कितना छोटा हो, पर्याप्त रूप से बड़े नमूने के साथ बहुत अधिक संभावना होगी कि अवलोकनों का औसत अपेक्षित मूल्य के समीप होगा; अर्थात मार्जिन के अंदर है।

जैसा कि पहले उल्लेख किया गया है, अशक्त नियम i.i.d. के स्थितियों में प्रयुक्त होता है। यादृच्छिक चर, किन्तु यह कुछ अन्य स्थितियों में भी प्रयुक्त होता है। उदाहरण के लिए, अपेक्षित मान को स्थिर रखते हुए, श्रृंखला में प्रत्येक यादृच्छिक चर के लिए भिन्नता भिन्न हो सकती है। यदि प्रसरण सीमित हैं, तो नियम प्रयुक्त होता है, जैसा कि 1867 की प्रारंभिक में पफन्युटी चेबीशेव द्वारा दिखाया गया था। (यदि श्रृंखला के समय अपेक्षित मान बदलते हैं, तो हम नियम को संबंधित अपेक्षित मूल्यों से औसत विचलन पर प्रयुक्त कर सकते हैं। नियम फिर बताता है कि यह संभाव्यता में शून्य हो जाता है।) वास्तव में, चेबीशेव का प्रमाण तब तक काम करता है जब तक पहले n मानों के औसत का विचलन शून्य हो जाता है क्योंकि n अनंत तक जाता है। एक उदाहरण के रूप में, मान लें कि श्रृंखला में प्रत्येक यादृच्छिक चर औसत शून्य के साथ गॉसियन वितरण का अनुसरण करता है, किन्तु $$2n/\log(n+1)$$ विचरण के बराबर, जिसकी कोई सीमा न हो। प्रत्येक चरण में, औसत सामान्य रूप से वितरित किया जाएगा (सामान्य रूप से वितरित चर के सेट के औसत के रूप में)। योग का प्रसरण भिन्नों के योग के बराबर है, जो $$n^2 / \log n$$ कि स्पर्शोन्मुख है. इसलिए औसत का विचरण $$1 / \log n$$ स्पर्शोन्मुख है और शून्य हो जाता है।

अपेक्षित मूल्य उपस्थित न होने पर भी अशक्त नियम के प्रयुक्त होने के उदाहरण हैं।

कड़ा नियम
बड़ी संख्या का सशक्त नियम (जिसे एंड्री कोलमोगोरोव का नियम भी कहा जाता है) कहता है कि नमूना औसत अनुमानित मूल्य के लगभग निश्चित अभिसरण

वह है,

$$   \Pr\!\left( \lim_{n\to\infty}\overline{X}_n = \mu \right) = 1. $$ इसका कारण यह है कि संभावना यह है कि जैसे-जैसे परीक्षणों की संख्या अनंत तक जाती है, अवलोकनों का औसत अपेक्षित मूल्य में परिवर्तित हो जाता है, एक के बराबर होता है। सशक्त नियम का आधुनिक प्रमाण अशक्त नियम की तुलना में अधिक जटिल है, और एक उपयुक्त अनुवर्ती पारित करने पर निर्भर करता है।

बड़ी संख्या के सशक्त नियम को एर्गोडिक सिद्धांतया एर्गोडिक प्रमेय के एक विशेष स्थितियों के रूप में ही देखा जा सकता है। यह दृश्य एक यादृच्छिक चर के अपेक्षित मूल्य (केवल लेबेसेग एकीकरण के लिए) की सहज व्याख्या को सही ठहराता है जब दीर्घकालिक औसत के रूप में बार-बार नमूना लिया जाता है।

नियम 3 को सशक्त नियम कहा जाता है क्योंकि यादृच्छिक चर जो दृढ़ता से अभिसरण करते हैं (लगभग निश्चित रूप से) अशक्त रूप से अभिसरण करने की गारंटी देते हैं (संभाव्यता में)। चूंकि, अशक्त नियम को कुछ स्थितियों में धारण करने के लिए जाना जाता है जहाँ सशक्त नियम पकड़ में नहीं आता है और फिर अभिसरण केवल अशक्त होता है (संभाव्यता में)। अशक्त नियम और सशक्त नियम के बीच या अंतर देखें जाते है।

सशक्त नियम एक अपेक्षित मूल्य (जैसे अशक्त नियम ) वाले स्वतंत्र समान रूप से वितरित यादृच्छिक चर पर प्रयुक्त होता है। यह 1930 में कोलमोगोरोव द्वारा सिद्ध किया गया था। यह अन्य स्थितियों में भी प्रयुक्त हो सकता है। 1933 में कोलमोगोरोव ने यह भी दिखाया कि यदि चर स्वतंत्र और समान रूप से वितरित हैं, तो औसत के लिए लगभग निश्चित रूप से किसी चीज़ पर अभिसरण करने के लिए (इसे सशक्त नियम का एक और कथन माना जा सकता है), यह आवश्यक है कि उनका एक अपेक्षित मूल्य हो ( और फिर निश्चित रूप से औसत उस पर लगभग निश्चित रूप से अभिसरित होगा)।

योग स्वतंत्र हैं किन्तु समान रूप से वितरित नहीं हैं, तो

परंतु कि प्रत्येक एक्सk एक परिमित दूसरा पल है और

$$   \sum_{k=1}^{\infty} \frac{1}{k^2} \operatorname{Var}[X_k] < \infty. $$ इस कथन को कोलमोगोरोव के सशक्त नियम के रूप में जाना जाता है, उदाहरण के लिए देखें।.

अशक्त नियम और सशक्त नियम के बीच अंतर
अशक्त नियम बताता है कि निर्दिष्ट बड़े n के लिए, औसत μ के समीप रहने की संभावना है। इस प्रकार, यह संभावना को खुला छोड़ देता है  अनंत बार होता है, चूंकि बहुत कम अंतराल पर। (आवश्यक रूप से नहीं  सभी के लिए एन)।

सशक्त नियम से पता चलता है कि यह लगभग निश्चित रूप से घटित नहीं होगा। इसका अर्थ यह नहीं है कि प्रायिकता 1 के साथ, हमारे पास वह किसी के लिए भी है $ε > 0$ असमानता सभी पर्याप्त बड़े n के लिए धारण करता है, क्योंकि अभिसरण आवश्यक रूप से उस सेट पर एक समान नहीं होता है जहाँ वह धारण करता है। सशक्त नियम निम्नलिखित स्थितियों में पकड़ में नहीं आता है, किन्तु अशक्त नियम करता है।

बड़ी संख्या का एक समान नियम
मान लीजिए f(x,θ) θ ∈ Θ के लिए परिभाषित कुछ कार्य (गणित) है, और θ में निरंतर है। फिर किसी निश्चित θ के लिए अनुक्रम {f(X1,θ), f(X2,θ), ...} स्वतंत्र और समान रूप से वितरित यादृच्छिक चर का एक क्रम होगा, जैसे कि इस अनुक्रम का नमूना माध्य संभाव्यता में E[f(X,θ)] में अभिसरण करता है। यह बिन्दुवार (θ में) अभिसरण है।

'बड़ी संख्या का एकसमान नियम' उन शर्तों को बताता है जिनके अनुसार अभिसरण θ में समान रूप से होता है। यदि फिर E[f(X,θ)] θ में निरंतर है, और
 * 1) Θ कॉम्पैक्ट है,
 * 2) f(x,θ) प्रत्येक θ ∈ Θ पर लगभग हर स्थान xs के लिए निरंतर है, और प्रत्येक θ पर x का मापनीय कार्य है।
 * 3) एक प्रभुत्व अभिसरण प्रमेय कार्य डी (एक्स) उपस्थित है जैसे कि E [d(x)] < ∞, और $$ \left\| f(x,\theta) \right\| \leq d(x) \quad\text{for all}\ \theta\in\Theta.$$

$$   \sup_{\theta\in\Theta} \left\| \frac 1 n \sum_{i=1}^n f(X_i,\theta) - \operatorname{E}[f(X,\theta)] \right\| \overset{\mathrm{P}}{\rightarrow} \ 0. $$ यह परिणाम अनुमानकों के एक बड़े वर्ग की संगति प्राप्त करने के लिए उपयोगी है (चरम अनुमानक देखें)।

बड़ी संख्या का बोरेल का नियम
एमिल बोरेल के नाम पर बोरेल का बड़ी संख्या का नियम कहता है कि यदि एक प्रयोग को समान परिस्थितियों में स्वतंत्र रूप से बड़ी संख्या में दोहराया जाता है, तो किसी भी निर्दिष्ट घटना के होने का अनुपात लगभग किसी विशेष पर घटना की घटना की संभावना के बराबर होता है। परीक्षण; दोहराव की संख्या जितनी अधिक होगी, सन्निकटन उतना ही उत्तम होगा। अधिक सटीक रूप से, यदि E विचाराधीन घटना को दर्शाता है, p इसके घटित होने की संभावना, और Nn(E) पहले n परीक्षणों में E की संख्या होती है, फिर प्रायिकता एक के साथ, $$ \frac{N_n(E)}{n}\to p\text{ as }n\to\infty.$$ यह प्रमेय किसी घटना के घटित होने की दीर्घकालीन सापेक्ष आवृत्ति के रूप में संभाव्यता की सहज धारणा को कठोर बनाता है। संभाव्यता सिद्धांत में बड़ी संख्या के कई सामान्य नियम में से यह एक विशेष स्थितियों है।

चेबिशेव की असमानता। चलो x परिमित अपेक्षित मान μ और परिमित गैर-शून्य विचरण σ2 के साथ एक यादृच्छिक चर हो। फिर किसी वास्तविक संख्या के लिए $k > 0$,

$$   \Pr(|X-\mu|\geq k\sigma) \leq \frac{1}{k^2}. $$

अशक्त नियम का प्रमाण
दिया गया X1, X2, ... आई.आई.डी. का एक अनंत अनुक्रम परिमित अपेक्षित मान के साथ यादृच्छिक चर $$E(X_1)=E(X_2)=\cdots=\mu<\infty$$, हम नमूना औसत के अभिसरण में रुचि रखते हैं

$$\overline{X}_n=\tfrac1n(X_1+\cdots+X_n). $$ बड़ी संख्या का अशक्त नियम कहता है:

परिमित प्रसरण मानते हुए चेबिशेव की असमानता का उपयोग करके प्रमाण
यह प्रमाण परिमित विचरण की धारणा का उपयोग करता है $$ \operatorname{Var} (X_i)=\sigma^2 $$ (सभी के लिए $$i$$). यादृच्छिक चर की स्वतंत्रता का अर्थ उनके बीच कोई संबंध नहीं है, और हमारे पास वह है

$$ \operatorname{Var}(\overline{X}_n) = \operatorname{Var}(\tfrac1n(X_1+\cdots+X_n)) = \frac{1}{n^2} \operatorname{Var}(X_1+\cdots+X_n) = \frac{n\sigma^2}{n^2} = \frac{\sigma^2}{n}. $$ अनुक्रम का सामान्य माध्य μ नमूना औसत का माध्य है:

$$ E(\overline{X}_n) = \mu. $$ चेबिशेव की असमानता का उपयोग करना $$\overline{X}_n $$ का परिणाम

$$ \operatorname{P}( \left| \overline{X}_n-\mu \right| \geq \varepsilon) \leq \frac{\sigma^2}{n\varepsilon^2}. $$ इसका उपयोग निम्नलिखित प्राप्त करने के लिए किया जा सकता है:

$$ \operatorname{P}( \left| \overline{X}_n-\mu \right| < \varepsilon) = 1 - \operatorname{P}( \left| \overline{X}_n-\mu \right| \geq \varepsilon) \geq 1 - \frac{\sigma^2}{n \varepsilon^2 }. $$ जैसे ही n अनंत तक पहुंचता है, अभिव्यक्ति 1 तक पहुंचती है। और संभाव्यता में अभिसरण की परिभाषा से, हमने प्राप्त किया है

विशेषता कार्यों के अभिसरण का उपयोग करके प्रमाण
जटिल कार्यों के लिए टेलर के प्रमेय द्वारा, परिमित माध्य μ के साथ किसी भी यादृच्छिक चर, एक्स के विशेषता कार्य (संभाव्यता सिद्धांत) के रूप में लिखा जा सकता है

$$\varphi_X(t) = 1 + it\mu + o(t), \quad t \rightarrow 0.$$ सभी X1, X2, ... का अभिलाक्षणिक फलन समान है, इसलिए हम केवल इस φX को निरूपित करेंगे.

चारित्रिक कार्यों के मूल गुणों में से हैं

$$\varphi_{\frac 1 n X}(t)= \varphi_X(\tfrac t n) \quad \text{and} \quad \varphi_{X+Y}(t) = \varphi_X(t) \varphi_Y(t) \quad $$ यदि X और Y स्वतंत्र हैं।

इन नियमों का उपयोग विशेषता कार्य की गणना के लिए किया जा सकता है $$\overline{X}_n$$ φXके संदर्भ में:

$$\varphi_{\overline{X}_n}(t)= \left[\varphi_X\left({t \over n}\right)\right]^n = \left[1 + i\mu{t \over n} + o\left({t \over n}\right)\right]^n \, \rightarrow \, e^{it\mu}, \quad \text{as} \quad n \to \infty.$$ सीमा eitμ निरंतर यादृच्छिक चर μ का विशिष्ट कार्य है, और इसलिए लेवी निरंतरता प्रमेय द्वारा, $$ \overline{X}_n$$ μ के वितरण में अभिसरण:

$$\overline{X}_n \, \overset{\mathcal D}{\rightarrow} \, \mu \qquad\text{for}\qquad n \to \infty.$$ μ एक स्थिरांक है, जिसका तात्पर्य है कि μ के वितरण में अभिसरण और μ की संभाव्यता में अभिसरण समकक्ष हैं (यादृच्छिक चर का अभिसरण देखें।) इसलिए,

इससे पता चलता है कि नमूना माध्य संभाव्यता में अभिसरण करता है मूल में विशेषता समारोह के व्युत्पन्न के लिए, जब तक कि उत्तरार्द्ध उपस्थित है।

परिणाम
बड़ी संख्या का नियम अनुक्रम की प्राप्ति से अज्ञात वितरण की अपेक्षा प्रदान करता है, किन्तु संभाव्यता वितरण की कोई भी विशेषता भी प्रदान करता है। बड़ी संख्या के बोरेल के नियम को प्रयुक्त करके, प्रायिकता द्रव्यमान फलन आसानी से प्राप्त किया जा सकता है। वस्तुनिष्ठ प्रायिकता सामूहिक फलन में प्रत्येक घटना के लिए, किसी घटना के घटित होने की प्रायिकता को किसी भी निर्दिष्ट घटना के घटित होने के समय के अनुपात के साथ अनुमानित किया जा सकता है। दोहराव की संख्या जितनी अधिक होगी, सन्निकटन उतना ही उत्तम होगा। निरंतर स्थितियों के लिए: $$C=(a-h,a+h]$$, छोटे सकारात्मक एच के लिए। इस प्रकार, बड़े n के लिए:

$$ \frac{N_n(C)}{n}\thickapprox p = P(X\in C) = \int_{a-h}^{a+h} f(x) \, dx \thickapprox 2hf(a)$$ इस पद्धति से, एक ग्रिड (ग्रिड आकार 2h के साथ) के साथ पूरे एक्स-अक्ष को कवर किया जा सकता है और एक बार ग्राफ प्राप्त किया जा सकता है जिसे हिस्टोग्राम कहा जाता है।

यह भी देखें

 * स्पर्शोन्मुख समविभाजन संपत्ति
 * केंद्रीय सीमा प्रमेय
 * अनंत बंदर प्रमेय
 * औसत का नियम
 * पुनरावृत्त लघुगणक का नियम
 * वास्तव में बड़ी संख्या का नियम
 * लिंडी प्रभाव
 * माध्य की ओर प्रतिगमन
 * वर्गीकरण
 * छोटी संख्या का सशक्त नियम

बाहरी संबंध

 * Animations for the Law of Large Numbers by Yihui Xie using the R package animation
 * Apple CEO Tim Cook said something that would make statisticians cringe. "We don't believe in such laws as laws of large numbers. This is sort of, uh, old dogma, I think, that was cooked up by somebody [..]" said Tim Cook and while: "However, the law of large numbers has nothing to do with large companies, large revenues, or large growth rates. The law of large numbers is a fundamental concept in probability theory and statistics, tying together theoretical probabilities that we can calculate to the actual outcomes of experiments that we empirically perform. explained Business Insider
 * Animations for the Law of Large Numbers by Yihui Xie using the R package animation
 * Apple CEO Tim Cook said something that would make statisticians cringe. "We don't believe in such laws as laws of large numbers. This is sort of, uh, old dogma, I think, that was cooked up by somebody [..]" said Tim Cook and while: "However, the law of large numbers has nothing to do with large companies, large revenues, or large growth rates. The law of large numbers is a fundamental concept in probability theory and statistics, tying together theoretical probabilities that we can calculate to the actual outcomes of experiments that we empirically perform. explained Business Insider
 * Apple CEO Tim Cook said something that would make statisticians cringe. "We don't believe in such laws as laws of large numbers. This is sort of, uh, old dogma, I think, that was cooked up by somebody [..]" said Tim Cook and while: "However, the law of large numbers has nothing to do with large companies, large revenues, or large growth rates. The law of large numbers is a fundamental concept in probability theory and statistics, tying together theoretical probabilities that we can calculate to the actual outcomes of experiments that we empirically perform. explained Business Insider