पॉसों वितरण: Difference between revisions
From Vigyanwiki
No edit summary |
No edit summary |
||
| Line 1: | Line 1: | ||
{{short description|Discrete probability distribution}} | {{short description|Discrete probability distribution}} | ||
संभाव्यता सिद्धांत और आंकड़ों में, पॉइसन वितरण असतत संभाव्यता वितरण है जो समय या स्थान के निश्चित अंतराल में होने वाली घटनाओं की दी गई संख्या की संभावना को व्यक्त करता है यदि ये घटनाएं ज्ञात निरंतर औसत दर के साथ और स्वतंत्र रूप से समय से घटित होती हैं। अंतिम घटना{{r|Haight1967}} इसका नाम फ्रांसीसी गणितज्ञ शिमोन डेनिस पॉइसन ({{IPAc-en|'|p|w|ɑː|s|ɒ|n}}; {{IPA-fr|pwasɔ̃}}) के नाम पर रखा गया है। पॉइसन वितरण का उपयोग अन्य निर्दिष्ट अंतराल प्रकारों जैसे दूरी, क्षेत्र या आयतन में घटनाओं की संख्या के लिए भी किया जा सकता है। यह असतत-स्थिर वितरण के लिए महत्वपूर्ण भूमिका निभाता है। | संभाव्यता सिद्धांत और आंकड़ों में, पॉइसन वितरण असतत संभाव्यता वितरण है जो समय या स्थान के निश्चित अंतराल में होने वाली घटनाओं की दी गई संख्या की संभावना को व्यक्त करता है यदि ये घटनाएं ज्ञात निरंतर औसत दर के साथ और स्वतंत्र रूप से समय से घटित होती हैं। अंतिम घटना{{r|Haight1967}} इसका नाम फ्रांसीसी गणितज्ञ शिमोन डेनिस पॉइसन ({{IPAc-en|'|p|w|ɑː|s|ɒ|n}}; {{IPA-fr|pwasɔ̃}}) के नाम पर रखा गया है। पॉइसन वितरण का उपयोग अन्य निर्दिष्ट अंतराल प्रकारों जैसे दूरी, क्षेत्र या आयतन में घटनाओं की संख्या के लिए भी किया जा सकता है। यह असतत-स्थिर वितरण के लिए महत्वपूर्ण भूमिका निभाता है। | ||
| Line 37: | Line 8: | ||
==इतिहास== | ==इतिहास== | ||
वितरण पहली बार शिमोन डेनिस पॉइसन (1781-1840) द्वारा प्रस्तुत किया गया था और आपराधिक और नागरिक स्थितियों में निर्णय की संभावना पर उनके कार्य अनुसंधान (1837) में उनके संभाव्यता सिद्धांत के साथ प्रकाशित किया गया था।{{r|Poisson1837|p=205-207}} इस कार्य ने कुछ यादृच्छिक चर पर {{mvar|N }} ध्यान केंद्रित करके किसी दिए गए देश में गलत सजाओं की संख्या के बारे में सिद्धांत दिया गया है जो अन्य | वितरण पहली बार शिमोन डेनिस पॉइसन (1781-1840) द्वारा प्रस्तुत किया गया था और आपराधिक और नागरिक स्थितियों में निर्णय की संभावना पर उनके कार्य अनुसंधान (1837) में उनके संभाव्यता सिद्धांत के साथ प्रकाशित किया गया था।{{r|Poisson1837|p=205-207}} इस कार्य ने कुछ यादृच्छिक चर पर {{mvar|N }} ध्यान केंद्रित करके किसी दिए गए देश में गलत सजाओं की संख्या के बारे में सिद्धांत दिया गया है जो अन्य बातबं के अतिरिक्त दी गई लंबाई के [[समय]]-अंतराल के समय होने वाली अलग-अलग घटनाओं (कभी-कभी घटनाएँ या आगमन भी कहा जाता है) की संख्या की गणना करता है। परिणाम पहले ही 1711 में [[अब्राहम डी मोइवरे]] द्वारा डी मेन्सुरा सॉर्टिस सेउ में दिया जा चुका था; लुडिस ए कैसु फोर्टुइटो पेंडेंटिबस में डी प्रोबेबिलिटेट इवेंटम है।{{r|deMoivre1711|p=219}}{{r|deMoivre1718|p=14-15}}{{r|deMoivre1721|p=193}}{{r|Johnson2005|p=157}} यह इसे स्टिगलर के नियम का उदाहरण बनाता है और इसने कुछ लेखकों को यह तर्क देने के लिए प्रेरित किया जाता है कि पॉइसन वितरण पर डी मोइवर का नाम होना चाहिए।{{r|Stigler1982|Hald1984}} | ||
1860 में, [[साइमन न्यूकॉम्ब]] ने अंतरिक्ष की इकाई में पाए जाने वाले तारों की संख्या के लिए पॉइसन वितरण को फिट किया गया था।{{r|Newcomb1860}} इस वितरण का और वास्तविक अनुप्रयोग 1898 में [[लैडिस्लॉस बोर्टकिविज़]] द्वारा किया गया था जब उन्हें प्रशिया सेना में घोड़े की लात से दुर्घटनावश मारे गए सैनिकों की संख्या की जांच करने का काम दिया गया था;{{r|vonBortkiewitsch1898|p=23-25}} इस प्रयोग ने पॉइसन वितरण को विश्वसनीयता इंजीनियरिंग के क्षेत्र में प्रस्तुत किया था । | 1860 में, [[साइमन न्यूकॉम्ब]] ने अंतरिक्ष की इकाई में पाए जाने वाले तारों की संख्या के लिए पॉइसन वितरण को फिट किया गया था।{{r|Newcomb1860}} इस वितरण का और वास्तविक अनुप्रयोग 1898 में [[लैडिस्लॉस बोर्टकिविज़]] द्वारा किया गया था जब उन्हें प्रशिया सेना में घोड़े की लात से दुर्घटनावश मारे गए सैनिकों की संख्या की जांच करने का काम दिया गया था;{{r|vonBortkiewitsch1898|p=23-25}} इस प्रयोग ने पॉइसन वितरण को विश्वसनीयता इंजीनियरिंग के क्षेत्र में प्रस्तुत किया था । | ||
| Line 69: | Line 40: | ||
===मान्यताएँ और वैधता=== | ===मान्यताएँ और वैधता=== | ||
यदि निम्नलिखित धारणाएँ सत्य हैं | यदि निम्नलिखित धारणाएँ सत्य हैं तब पॉइसन वितरण उपयुक्त मॉडल है:{{r|Koehrsen2019}} | ||
* {{mvar|k}} अंतराल में घटना घटित होने की संख्या है {{mvar|k}} मान 0, 1, 2,... ले सकते हैं। | * {{mvar|k}} अंतराल में घटना घटित होने की संख्या है {{mvar|k}} मान 0, 1, 2,... ले सकते हैं। | ||
* एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं। | * एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं। | ||
* घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें बदलाव हो सकता है। | * घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें बदलाव हो सकता है। | ||
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या | * दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तब बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है। | ||
यदि ये स्थितियाँ सत्य हैं, | यदि ये स्थितियाँ सत्य हैं, तब {{mvar|k}} पॉइसन यादृच्छिक चर है, और का वितरण {{mvar|k}} पॉइसन वितरण है। | ||
पॉइसन वितरण [[द्विपद वितरण]] की [[सीमा (गणित)]] भी है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना समान होती है {{mvar|λ}} परीक्षणों की संख्या से विभाजित किया जाता है, क्योंकि परीक्षणों की संख्या अनंत तक पहुंचती है (#संबंधित वितरण देखें)। | पॉइसन वितरण [[द्विपद वितरण]] की [[सीमा (गणित)]] भी है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना समान होती है {{mvar|λ}} परीक्षणों की संख्या से विभाजित किया जाता है, क्योंकि परीक्षणों की संख्या अनंत तक पहुंचती है (#संबंधित वितरण देखें)। | ||
| Line 160: | Line 131: | ||
=== उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं === | === उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं === | ||
प्रति मिनट [[छात्र केंद्र]] पर पहुंचने वाले छात्रों की संख्या संभवतः पॉइसन वितरण का पालन नहीं करेगी, क्योंकि दर स्थिर नहीं है (कक्षा समय के समय कम दर, कक्षा समय के | प्रति मिनट [[छात्र केंद्र]] पर पहुंचने वाले छात्रों की संख्या संभवतः पॉइसन वितरण का पालन नहीं करेगी, क्योंकि दर स्थिर नहीं है (कक्षा समय के समय कम दर, कक्षा समय के मध्य उच्च दर) और व्यक्तिगत छात्रों का आगमन स्वतंत्र नहीं है (छात्र समूहों में आते हैं)। गैर-निरंतर आगमन दर को [[मिश्रित पॉइसन वितरण]] के रूप में और व्यक्तिगत छात्रों के अतिरिक्त समूहों के आगमन को मिश्रित पॉइसन प्रक्रिया के रूप में तैयार किया जा सकता है। | ||
किसी देश में प्रति वर्ष 5 तीव्रता वाले भूकंपों की संख्या पॉइसन वितरण के अनुरूप नहीं हो सकती है, यदि बड़ा भूकंप समान तीव्रता के झटकों की संभावना को बढ़ा देता है। | किसी देश में प्रति वर्ष 5 तीव्रता वाले भूकंपों की संख्या पॉइसन वितरण के अनुरूप नहीं हो सकती है, यदि बड़ा भूकंप समान तीव्रता के झटकों की संभावना को बढ़ा देता है। | ||
| Line 174: | Line 145: | ||
* भिन्नता का गुणांक है <math display="inline"> \lambda^{-1/2},</math> जबकि [[फैलाव का सूचकांक]] 1 है।{{r|Johnson2005|p=163}} | * भिन्नता का गुणांक है <math display="inline"> \lambda^{-1/2},</math> जबकि [[फैलाव का सूचकांक]] 1 है।{{r|Johnson2005|p=163}} | ||
* माध्य के सापेक्ष माध्य निरपेक्ष विचलन है{{r|Johnson2005|p=163}} <math display="block">\operatorname{E}[\ |X-\lambda|\ ]= \frac{2 \lambda^{\lfloor\lambda\rfloor + 1} e^{-\lambda}}{\lfloor\lambda\rfloor!}.</math> | * माध्य के सापेक्ष माध्य निरपेक्ष विचलन है{{r|Johnson2005|p=163}} <math display="block">\operatorname{E}[\ |X-\lambda|\ ]= \frac{2 \lambda^{\lfloor\lambda\rfloor + 1} e^{-\lambda}}{\lfloor\lambda\rfloor!}.</math> | ||
* गैर-पूर्णांक के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]]। {{mvar|λ}} के समान है <math>\lfloor \lambda \rfloor,</math> जो इससे कम या इसके समान का सबसे बड़ा पूर्णांक है{{mvar|λ}}. इसे [[फर्श समारोह]] के रूप में भी लिखा जाता है({{mvar|λ}}). कब {{mvar|λ}} धनात्मक पूर्णांक है, बहुलक हैं {{mvar|λ}} और {{mvar|λ}} − 1. | * गैर-पूर्णांक के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]]। {{mvar|λ}} के समान है <math>\lfloor \lambda \rfloor,</math> जो इससे कम या इसके समान का सबसे बड़ा पूर्णांक है{{mvar|λ}}. इसे [[फर्श समारोह|फर्श फलन]] के रूप में भी लिखा जाता है({{mvar|λ}}). कब {{mvar|λ}} धनात्मक पूर्णांक है, बहुलक हैं {{mvar|λ}} और {{mvar|λ}} − 1. | ||
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य के समान हैं{{mvar|λ}}. वह {{mvar|n}} पॉइसन वितरण का वां [[तथ्यात्मक क्षण]] है {{mvar|λ}}{{sup| {{mvar|n}} }} . | * पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य के समान हैं{{mvar|λ}}. वह {{mvar|n}} पॉइसन वितरण का वां [[तथ्यात्मक क्षण]] है {{mvar|λ}}{{sup| {{mvar|n}} }} . | ||
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या स्थान पर तीव्रता कार्य के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}} | * [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या स्थान पर तीव्रता कार्य के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}} | ||
| Line 185: | Line 156: | ||
=== उच्चतर क्षण === | === उच्चतर क्षण === | ||
उच्चतर गैर-केन्द्रित [[क्षण (गणित)]], {{mvar|m}}<sub>{{mvar|k}}</sub> पॉइसन वितरण में, [[टचर्ड बहुपद]] हैं {{mvar|λ}}: <math display="block"> m_k = \sum_{i=0}^k \lambda^i \begin{Bmatrix} k \\ i \end{Bmatrix},</math> जहां {ब्रेसिज़} दूसरी तरह की स्टर्लिंग संख्याओं को दर्शाते हैं।{{r|Riordan1937}}{{r|Haight1967|p=6}} बहुपदों के गुणांकों का संयोजक अर्थ होता है। वास्तव में, जब पॉइसन वितरण का अपेक्षित मूल्य 1 है, | उच्चतर गैर-केन्द्रित [[क्षण (गणित)]], {{mvar|m}}<sub>{{mvar|k}}</sub> पॉइसन वितरण में, [[टचर्ड बहुपद]] हैं {{mvar|λ}}: <math display="block"> m_k = \sum_{i=0}^k \lambda^i \begin{Bmatrix} k \\ i \end{Bmatrix},</math> जहां {ब्रेसिज़} दूसरी तरह की स्टर्लिंग संख्याओं को दर्शाते हैं।{{r|Riordan1937}}{{r|Haight1967|p=6}} बहुपदों के गुणांकों का संयोजक अर्थ होता है। वास्तव में, जब पॉइसन वितरण का अपेक्षित मूल्य 1 है, तब डोबिंस्की का सूत्र कहता है कि {{mvar|n}}‑वां क्षण आकार के समुच्चय के विभाजन की संख्या के समान है {{mvar|n}}. | ||
एक साधारण बंधन है<ref>{{cite journal |last1=D. Ahle |first1=Thomas | year=2022 |title=द्विपद और पॉइसन वितरण के कच्चे क्षणों के लिए तीव्र और सरल सीमाएं| journal=Statistics & Probability Letters | volume=182 |page=109306 | doi=10.1016/j.spl.2021.109306 |arxiv=2103.17027 }}</ref> | एक साधारण बंधन है<ref>{{cite journal |last1=D. Ahle |first1=Thomas | year=2022 |title=द्विपद और पॉइसन वितरण के कच्चे क्षणों के लिए तीव्र और सरल सीमाएं| journal=Statistics & Probability Letters | volume=182 |page=109306 | doi=10.1016/j.spl.2021.109306 |arxiv=2103.17027 }}</ref> | ||
| Line 193: | Line 164: | ||
=== पॉइसन-वितरित यादृच्छिक चर का योग === | === पॉइसन-वितरित यादृच्छिक चर का योग === | ||
यदि <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> के लिए <math>i=1,\dotsc,n</math> | यदि <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> के लिए <math>i=1,\dotsc,n</math> तब, सांख्यिकीय स्वतंत्रता हैं <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तब उन दो स्वतंत्र यादृच्छिक चर में से प्रत्येक भी वैसा ही है।{{r|Raikov1937}}{{r|vonMises1964|p=}} | ||
=== अन्य गुण === | === अन्य गुण === | ||
* पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}} | * पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}} | ||
* निर्देशित कुल्बैक-लीब्लर विचलन <math>\operatorname{Pois}(\lambda_0)</math> से <math>\operatorname{Pois}(\lambda)</math> द्वारा दिया गया है <math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math> | * निर्देशित कुल्बैक-लीब्लर विचलन <math>\operatorname{Pois}(\lambda_0)</math> से <math>\operatorname{Pois}(\lambda)</math> द्वारा दिया गया है <math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math> | ||
* यदि <math>\lambda \geq 1</math> | * यदि <math>\lambda \geq 1</math> तब, पूर्णांक है <math>Y\sim \operatorname{Pois}(\lambda)</math> संतुष्ट <math>\Pr(Y \geq E[Y]) \geq \frac{1}{2}</math> और <math>\Pr(Y \leq E[Y]) \geq \frac{1}{2}.</math><ref>{{cite book |last=Mitzenmacher |first=Michael |date=2017 |others=Eli Upfal |title=Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis |isbn=978-1-107-15488-9 |edition=2nd |location=Cambridge, UK |at=Exercise 5.14 |oclc=960841613}}</ref> | ||
* पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।{{r|Mitzenmacher2005|p=97-98}} <math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math> | * पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।{{r|Mitzenmacher2005|p=97-98}} <math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math> | ||
* ऊपरी पूंछ की संभावना को निम्नानुसार कड़ा किया जा सकता है (कम से कम दो के कारक द्वारा):{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> जैसा कि ऊपर वर्णित है, निर्देशित कुल्बैक-लीब्लर विचलन है। | * ऊपरी पूंछ की संभावना को निम्नानुसार कड़ा किया जा सकता है (कम से कम दो के कारक द्वारा):{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> जैसा कि ऊपर वर्णित है, निर्देशित कुल्बैक-लीब्लर विचलन है। | ||
| Line 205: | Line 176: | ||
=== पॉइसन दौड़ === | === पॉइसन दौड़ === | ||
होने देना <math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर बनें, साथ में <math> \lambda < \mu,</math> | होने देना <math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर बनें, साथ में <math> \lambda < \mu,</math> तब वह हमारे पास है | ||
<math display="block"> | <math display="block"> | ||
\frac{e^{-(\sqrt{\mu} -\sqrt{\lambda})^2 }}{(\lambda + \mu)^2} - \frac{e^{-(\lambda + \mu)}}{2\sqrt{\lambda \mu}} - \frac{e^{-(\lambda + \mu)}}{4\lambda \mu} \leq P(X - Y \geq 0) \leq e^{- (\sqrt{\mu} -\sqrt{\lambda})^2} | \frac{e^{-(\sqrt{\mu} -\sqrt{\lambda})^2 }}{(\lambda + \mu)^2} - \frac{e^{-(\lambda + \mu)}}{2\sqrt{\lambda \mu}} - \frac{e^{-(\lambda + \mu)}}{4\lambda \mu} \leq P(X - Y \geq 0) \leq e^{- (\sqrt{\mu} -\sqrt{\lambda})^2} | ||
| Line 221: | Line 192: | ||
===सामान्य=== | ===सामान्य=== | ||
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर फर्क <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है। | * यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर फर्क <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है। | ||
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, | * यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, तब का वितरण <math>X_1</math> सशर्त <math>X_1+X_2</math> द्विपद वितरण है. विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math> अधिक सामान्यतः, यदि X<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>{{mvar|n}}</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब | ||
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math> | *: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math> | ||
* यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math> और का वितरण <math>Y</math> X= पर सशर्त{{mvar|k}} द्विपद वितरण है, <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> वास्तव में, यदि, सशर्त पर <math>\{X = k\},</math> <math>\{Y_i\}</math> [[बहुपद वितरण]] का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> फिर प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math> | * यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math> और का वितरण <math>Y</math> X= पर सशर्त{{mvar|k}} द्विपद वितरण है, <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> वास्तव में, यदि, सशर्त पर <math>\{X = k\},</math> <math>\{Y_i\}</math> [[बहुपद वितरण]] का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> फिर प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math> | ||
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी है#यौगिक पॉइसन वितरण के विशेष स्थितियों। | * पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी है#यौगिक पॉइसन वितरण के विशेष स्थितियों। | ||
* पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} लगभग 10 से अधिक है, | * पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} लगभग 10 से अधिक है, तब यदि उचित [[निरंतरता सुधार]] किया जाता है, तब सामान्य वितरण अच्छा अनुमान है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, द्वारा प्रतिस्थापित किया जाता है {{math|P(''X'' ≤ ''x'' + 0.5)}}. <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math> | ||
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तेज़ है। | * [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तेज़ है। | ||
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें। | *अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें। | ||
| Line 236: | Line 207: | ||
मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson | STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है | मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson | STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है | ||
<math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> | <math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> | ||
इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य | इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातबं के अतिरिक्त , किसी भी गैर-नकारात्मक कार्य के लिए <math>f(x_1, x_2, \dots, x_n),</math> | ||
यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है | यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है | ||
<math display="block"> | <math display="block"> | ||
| Line 251: | Line 222: | ||
सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है | सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है | ||
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math> | <math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math> | ||
द्विचर पॉइसन वितरण उत्पन्न करने का सरल विधि <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर | द्विचर पॉइसन वितरण उत्पन्न करने का सरल विधि <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर समुच्चय करें <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण का संभाव्यता फलन है | ||
<math display="block"> | <math display="block"> | ||
\Pr(X_1=k_1,X_2=k_2) = | \Pr(X_1=k_1,X_2=k_2) = | ||
| Line 272: | Line 243: | ||
\end{cases}</math> | \end{cases}</math> | ||
जहाँ <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math> | जहाँ <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math> | ||
यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स]] सिद्धांत में भी उत्पन्न होता है। इसके Cumulant#Free Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math> | यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स|यादृच्छिक आव्युह]] सिद्धांत में भी उत्पन्न होता है। इसके Cumulant#Free Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math> | ||
| Line 306: | Line 277: | ||
का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन जनसंख्या का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref> | का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन जनसंख्या का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref> | ||
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math> | :<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math> | ||
चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} | चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तब नमूने का कारण है। इसलिए, अधिकतम संभावना अनुमान निष्पक्ष अनुमानक है {{mvar|λ}}. यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है | न्यूनतम-विचरण निष्पक्ष। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए नमूना का कारण है क्योंकि यह योग का एक-से-एक कार्य है) पूर्ण और पर्याप्त आँकड़ा है {{mvar|λ}}. | ||
पर्याप्तता सिद्ध करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान कार्य को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल कार्य के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math> | पर्याप्तता सिद्ध करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान कार्य को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल कार्य के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math> | ||
| Line 331: | Line 302: | ||
: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = - \frac{n^2}{\sum_{i=1}^n k_i} </math> | : <math>\frac{\partial^2 \ell}{\partial \lambda^2} = - \frac{n^2}{\sum_{i=1}^n k_i} </math> | ||
जो कि नकारात्मक है {{mvar|n}} k के औसत के व्युत्क्रम का गुना<sub>i</sub>. औसत सकारात्मक होने पर यह अभिव्यक्ति नकारात्मक होती है। यदि यह संतुष्ट है, | जो कि नकारात्मक है {{mvar|n}} k के औसत के व्युत्क्रम का गुना<sub>i</sub>. औसत सकारात्मक होने पर यह अभिव्यक्ति नकारात्मक होती है। यदि यह संतुष्ट है, तब स्थिर बिंदु संभाव्यता कार्य को अधिकतम करता है। | ||
[[पूर्णता (सांख्यिकी)]] के लिए, वितरण के परिवार को पूर्ण कहा जाता है यदि और केवल यदि <math> E(g(T)) = 0</math> इसका आशय है <math>P_\lambda(g(T) = 0) = 1</math> सभी के लिए <math>\lambda.</math> यदि व्यक्ति <math>X_i</math> आईआईडी हैं <math>\mathrm{Po}(\lambda),</math> तब <math display="inline">T(\mathbf{x})=\sum_{i=1}^n X_i\sim \mathrm{Po}(n\lambda).</math> जिस वितरण की हम जांच करना चाहते हैं उसे जानने से यह देखना आसान है कि आँकड़ा पूरा हो गया है। | [[पूर्णता (सांख्यिकी)]] के लिए, वितरण के परिवार को पूर्ण कहा जाता है यदि और केवल यदि <math> E(g(T)) = 0</math> इसका आशय है <math>P_\lambda(g(T) = 0) = 1</math> सभी के लिए <math>\lambda.</math> यदि व्यक्ति <math>X_i</math> आईआईडी हैं <math>\mathrm{Po}(\lambda),</math> तब <math display="inline">T(\mathbf{x})=\sum_{i=1}^n X_i\sim \mathrm{Po}(n\lambda).</math> जिस वितरण की हम जांच करना चाहते हैं उसे जानने से यह देखना आसान है कि आँकड़ा पूरा हो गया है। | ||
| Line 339: | Line 310: | ||
=== आत्म[[विश्वास अंतराल]] === | === आत्म[[विश्वास अंतराल]] === | ||
पॉइसन वितरण के माध्य के लिए विश्वास अंतराल को पॉइसन और ची-स्क्वायर वितरण के संचयी वितरण कार्यों के | पॉइसन वितरण के माध्य के लिए विश्वास अंतराल को पॉइसन और ची-स्क्वायर वितरण के संचयी वितरण कार्यों के मध्य संबंध का उपयोग करके व्यक्त किया जा सकता है। ची-वर्ग वितरण स्वयं [[गामा वितरण]] से निकटता से संबंधित है, और यह वैकल्पिक अभिव्यक्ति की ओर ले जाता है। अवलोकन दिया गया {{mvar|k}} माध्य μ के साथ पॉइसन वितरण से, आत्मविश्वास स्तर के साथ μ के लिए विश्वास अंतराल {{math|1 – ''α''}} है | ||
:<math>\tfrac {1}{2}\chi^{2}(\alpha/2; 2k) \le \mu \le \tfrac {1}{2} \chi^{2}(1-\alpha/2; 2k+2), </math> | :<math>\tfrac {1}{2}\chi^{2}(\alpha/2; 2k) \le \mu \le \tfrac {1}{2} \chi^{2}(1-\alpha/2; 2k+2), </math> | ||
| Line 347: | Line 318: | ||
जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक कार्य है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े|स्पष्ट आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}. | जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक कार्य है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े|स्पष्ट आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}. | ||
जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, | जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तब इस स्पष्ट अंतराल का स्पष्ट अनुमान प्रस्तावित किया गया है (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर):{{r|Breslow1987}} | ||
:<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math> | :<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math> | ||
जहाँ <math>z_{\alpha/2}</math> ऊपरी पूंछ क्षेत्र के साथ [[मानक | |||