पॉसों वितरण: Difference between revisions
From Vigyanwiki
No edit summary |
No edit summary |
||
| Line 55: | Line 55: | ||
[[proofwiki:Expectation of Poisson Distribution|Proof wiki: expectation]] and [[proofwiki:Variance of Poisson Distribution|Proof wiki: variance]]</ref> | [[proofwiki:Expectation of Poisson Distribution|Proof wiki: expectation]] and [[proofwiki:Variance of Poisson Distribution|Proof wiki: variance]]</ref> | ||
:<math>\lambda = \operatorname{E}(X) = \operatorname{Var}(X).</math> | :<math>\lambda = \operatorname{E}(X) = \operatorname{Var}(X).</math> | ||
पॉइसन वितरण को बड़ी संख्या में दुर्लभ घटनाओं वाले | पॉइसन वितरण को बड़ी संख्या में दुर्लभ घटनाओं वाले प्रणाली पर प्रयुक्त किया जा सकता है | इस प्रकार बड़ी संख्या में संभावित घटनाएं, जिनमें से प्रत्येक दुर्लभ है। निश्चित समय अंतराल के समय होने वाली ऐसी घटनाओं की संख्या, सही परिस्थितियों में पॉइसन वितरण के साथ यादृच्छिक संख्या होती है। | ||
समीकरण को अनुकूलित किया जा सकता है यदि, घटनाओं की औसत संख्या <math>\lambda,</math> के अतिरिक्त हमें वह औसत दर <math>r</math> दी जाए जिस पर घटनाएं घटित होती हैं। फिर <math>\lambda = r t,</math> और:<ref>{{cite book |first=Mehran |last=Kardar |author-link=Mehran Kardar |title=कणों का सांख्यिकीय भौतिकी|title-link=कणों का सांख्यिकीय भौतिकी|publisher=[[Cambridge University Press]] |year=2007 |isbn=978-0-521-87342-0 |oclc=860391091 |page=42}}</ref> | समीकरण को अनुकूलित किया जा सकता है यदि, घटनाओं की औसत संख्या <math>\lambda,</math> के अतिरिक्त हमें वह औसत दर <math>r</math> दी जाए जिस पर घटनाएं घटित होती हैं। फिर <math>\lambda = r t,</math> और:<ref>{{cite book |first=Mehran |last=Kardar |author-link=Mehran Kardar |title=कणों का सांख्यिकीय भौतिकी|title-link=कणों का सांख्यिकीय भौतिकी|publisher=[[Cambridge University Press]] |year=2007 |isbn=978-0-521-87342-0 |oclc=860391091 |page=42}}</ref> | ||
| Line 72: | Line 72: | ||
* {{mvar|k}} अंतराल में घटना घटित होने की संख्या है {{mvar|k}} मान 0, 1, 2,... ले सकते हैं। | * {{mvar|k}} अंतराल में घटना घटित होने की संख्या है {{mvar|k}} मान 0, 1, 2,... ले सकते हैं। | ||
* एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं। | * एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं। | ||
* घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे | * घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें बदलाव हो सकता है। | ||
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तो बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है। | * दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तो बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है। | ||
| Line 148: | Line 148: | ||
{{col-end}} | {{col-end}} | ||
====अंतराल में बार होने वाली घटनाएँ: का विशेष | ====अंतराल में बार होने वाली घटनाएँ: का विशेष स्थितिया {{mvar|λ}}=1 और {{mvar|k}} = 0 ==== | ||
मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) औसतन हर 100 साल में बार पृथ्वी से टकराते हैं ({{nobr| {{mvar|λ}} {{=}} 1 }} घटना प्रति 100 वर्ष), और यह कि उल्कापिंड हिट की संख्या पॉइसन वितरण के अनुसार होती है। की सम्भावना क्या है {{nobr| {{mvar|k}} {{=}} 0 }} अगले 100 वर्षों में उल्कापात? | मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) औसतन हर 100 साल में बार पृथ्वी से टकराते हैं ({{nobr| {{mvar|λ}} {{=}} 1 }} घटना प्रति 100 वर्ष), और यह कि उल्कापिंड हिट की संख्या पॉइसन वितरण के अनुसार होती है। की सम्भावना क्या है {{nobr| {{mvar|k}} {{=}} 0 }} अगले 100 वर्षों में उल्कापात? | ||
: <math> P(k = \text{0 meteorites hit in next 100 years}) = \frac{1^0 e^{-1}}{0!} = \frac{1}{e} \approx 0.37.</math> | : <math> P(k = \text{0 meteorites hit in next 100 years}) = \frac{1^0 e^{-1}}{0!} = \frac{1}{e} \approx 0.37.</math> | ||
इन धारणाओं के | इन धारणाओं के अनुसार, संभावना है कि अगले 100 वर्षों में कोई बड़ा उल्कापिंड पृथ्वी से नहीं टकराएगा, लगभग 0.37 है। शेष {{nobr|1 − 0.37 {{=}} 0.63}} अगले 100 वर्षों में 1, 2, 3 या अधिक बड़े उल्कापिंडों के टकराने की संभावना है। | ||
उपरोक्त उदाहरण में, हर 100 साल में बार अतिप्रवाह बाढ़ आती है {{nobr|({{mvar|λ}} {{=}} 1).}} इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 थी। | उपरोक्त उदाहरण में, हर 100 साल में बार अतिप्रवाह बाढ़ आती है {{nobr|({{mvar|λ}} {{=}} 1).}} इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 थी। | ||
सामान्यतः, यदि कोई घटना प्रति अंतराल में औसतन बार घटित होती है ({{mvar|λ}} = 1), और घटनाएँ पॉइसन वितरण का अनुसरण करती हैं {{nobr|{{mvar|P}}(0 events in next interval) {{=}} 0.37.}} इसके साथ ही, {{nobr|{{mvar|P}}(exactly one event in next interval) {{=}} 0.37,}} जैसा कि अतिप्रवाह बाढ़ के लिए तालिका में दिखाया गया है। | |||
=== उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं === | === उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं === | ||
| Line 176: | Line 176: | ||
* गैर-पूर्णांक के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]]। {{mvar|λ}} के समान है <math>\lfloor \lambda \rfloor,</math> जो इससे कम या इसके समान का सबसे बड़ा पूर्णांक है{{mvar|λ}}. इसे [[फर्श समारोह]] के रूप में भी लिखा जाता है({{mvar|λ}}). कब {{mvar|λ}} धनात्मक पूर्णांक है, बहुलक हैं {{mvar|λ}} और {{mvar|λ}} − 1. | * गैर-पूर्णांक के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]]। {{mvar|λ}} के समान है <math>\lfloor \lambda \rfloor,</math> जो इससे कम या इसके समान का सबसे बड़ा पूर्णांक है{{mvar|λ}}. इसे [[फर्श समारोह]] के रूप में भी लिखा जाता है({{mvar|λ}}). कब {{mvar|λ}} धनात्मक पूर्णांक है, बहुलक हैं {{mvar|λ}} और {{mvar|λ}} − 1. | ||
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य के समान हैं{{mvar|λ}}. वह {{mvar|n}} पॉइसन वितरण का वां [[तथ्यात्मक क्षण]] है {{mvar|λ}}{{sup| {{mvar|n}} }} . | * पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य के समान हैं{{mvar|λ}}. वह {{mvar|n}} पॉइसन वितरण का वां [[तथ्यात्मक क्षण]] है {{mvar|λ}}{{sup| {{mvar|n}} }} . | ||
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या | * [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या स्थान पर तीव्रता कार्य के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}} | ||
=== माध्यिका === | === माध्यिका === | ||
| Line 193: | Line 193: | ||
=== पॉइसन-वितरित यादृच्छिक चर का योग === | === पॉइसन-वितरित यादृच्छिक चर का योग === | ||
यदि <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> के लिए <math>i=1,\dotsc,n</math> तो, सांख्यिकीय स्वतंत्रता हैं <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तो उन दो स्वतंत्र यादृच्छिक चर में से प्रत्येक भी वैसा ही है।{{r|Raikov1937}}{{r|vonMises1964|p=}} | |||
=== अन्य गुण === | === अन्य गुण === | ||
* पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}} | * पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}} | ||
* निर्देशित कुल्बैक-लीब्लर विचलन <math>\operatorname{Pois}(\lambda_0)</math> से <math>\operatorname{Pois}(\lambda)</math> द्वारा दिया गया है <math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math> | * निर्देशित कुल्बैक-लीब्लर विचलन <math>\operatorname{Pois}(\lambda_0)</math> से <math>\operatorname{Pois}(\lambda)</math> द्वारा दिया गया है <math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math> | ||
* | * यदि <math>\lambda \geq 1</math> तो, पूर्णांक है <math>Y\sim \operatorname{Pois}(\lambda)</math> संतुष्ट <math>\Pr(Y \geq E[Y]) \geq \frac{1}{2}</math> और <math>\Pr(Y \leq E[Y]) \geq \frac{1}{2}.</math><ref>{{cite book |last=Mitzenmacher |first=Michael |date=2017 |others=Eli Upfal |title=Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis |isbn=978-1-107-15488-9 |edition=2nd |location=Cambridge, UK |at=Exercise 5.14 |oclc=960841613}}</ref> | ||
* पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।{{r|Mitzenmacher2005|p=97-98}} <math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math> | * पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।{{r|Mitzenmacher2005|p=97-98}} <math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math> | ||
* ऊपरी पूंछ की संभावना को निम्नानुसार कड़ा किया जा सकता है (कम से कम दो के कारक द्वारा):{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> जैसा कि ऊपर वर्णित है, निर्देशित कुल्बैक-लीब्लर विचलन है। | * ऊपरी पूंछ की संभावना को निम्नानुसार कड़ा किया जा सकता है (कम से कम दो के कारक द्वारा):{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> जैसा कि ऊपर वर्णित है, निर्देशित कुल्बैक-लीब्लर विचलन है। | ||
| Line 216: | Line 216: | ||
=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में === | === अनंत समय-चरणों के साथ द्विपद वितरण के रूप में === | ||
पॉइसन वितरण को द्विपद वितरण के लिए सीमित | पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है क्योंकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है - नीचे दुर्लभ घटनाओं का #नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन है यदि {{mvar|n}} कम से कम 20 है और पी 0.05 से छोटा या उसके समान है, और उत्कृष्ट सन्निकटन है यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10.{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math> | ||
===सामान्य=== | ===सामान्य=== | ||
* | * यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर फर्क <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है। | ||
* | * यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, तो का वितरण <math>X_1</math> सशर्त <math>X_1+X_2</math> द्विपद वितरण है. विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math> अधिक सामान्यतः, यदि X<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>{{mvar|n}}</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब | ||
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math> | *: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math> | ||
* | * यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math> और का वितरण <math>Y</math> X= पर सशर्त{{mvar|k}} द्विपद वितरण है, <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> वास्तव में, यदि, सशर्त पर <math>\{X = k\},</math> <math>\{Y_i\}</math> [[बहुपद वितरण]] का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> फिर प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math> | ||
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी है#यौगिक पॉइसन वितरण के विशेष | * पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी है#यौगिक पॉइसन वितरण के विशेष स्थितियों। | ||
* पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। | * पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} लगभग 10 से अधिक है, तो यदि उचित [[निरंतरता सुधार]] किया जाता है, तो सामान्य वितरण अच्छा अनुमान है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, द्वारा प्रतिस्थापित किया जाता है {{math|P(''X'' ≤ ''x'' + 0.5)}}. <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math> | ||
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के | * [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तेज़ है। | ||
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें। | *अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें। | ||
* यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या {{closed-closed|0, ''t''}} माध्य λt के साथ पॉइसन वितरण का अनुसरण करता है, फिर अंतर-आगमन समय का क्रम स्वतंत्र होता है और समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/ होता है{{mvar|λ}}.{{r|Ross2010|p=317–319}} | * यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या {{closed-closed|0, ''t''}} माध्य λt के साथ पॉइसन वितरण का अनुसरण करता है, फिर अंतर-आगमन समय का क्रम स्वतंत्र होता है और समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/ होता है{{mvar|λ}}.{{r|Ross2010|p=317–319}} | ||
| Line 236: | Line 236: | ||
मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson | STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है | मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson | STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है | ||
<math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> | <math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> | ||
इसका | इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातों के अतिरिक्त , किसी भी गैर-नकारात्मक कार्य के लिए <math>f(x_1, x_2, \dots, x_n),</math> | ||
यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है | |||
<math display="block"> | <math display="block"> | ||
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)] | \operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)] | ||
| Line 246: | Line 246: | ||
=== द्विचर पॉइसन वितरण === | === द्विचर पॉइसन वितरण === | ||
इस वितरण को [[संयुक्त संभाव्यता वितरण]] | इस वितरण को [[संयुक्त संभाव्यता वितरण]] स्थितियों तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] कार्य है | ||
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math> | <math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math> | ||
साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math> | साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math> | ||
सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है | सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है | ||
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math> | <math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math> | ||
द्विचर पॉइसन वितरण उत्पन्न करने का सरल | द्विचर पॉइसन वितरण उत्पन्न करने का सरल विधि <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर सेट करें <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण का संभाव्यता फलन है | ||
<math display="block"> | <math display="block"> | ||
\Pr(X_1=k_1,X_2=k_2) = | \Pr(X_1=k_1,X_2=k_2) = | ||
| Line 263: | Line 263: | ||
जैसा {{math|''N'' → ∞}}. | जैसा {{math|''N'' → ∞}}. | ||
दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के | दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के नियम का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है <math>\lambda,\alpha.</math> | ||
यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें | यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है। | ||
मुक्त पॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref> | मुक्त पॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref> | ||
| Line 272: | Line 272: | ||
\end{cases}</math> | \end{cases}</math> | ||
जहाँ <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math> | जहाँ <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math> | ||
यह | यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स]] सिद्धांत में भी उत्पन्न होता है। इसके Cumulant#Free Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math> | ||
====इस | ====इस नियम के कुछ परिवर्तन==== | ||
हम मुक्त पॉइसन | हम मुक्त पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है ए. नीका और आर. स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में<ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref> | ||
मुक्त पॉइसन | मुक्त पॉइसन नियम का आर-रूपांतरण किसके द्वारा दिया गया है? | ||
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math> | <math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math> | ||
कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का नकारात्मक है) द्वारा दिया गया है | कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का नकारात्मक है) द्वारा दिया गया है | ||
| Line 285: | Line 285: | ||
एस-परिवर्तन द्वारा दिया गया है | एस-परिवर्तन द्वारा दिया गया है | ||
<math display="block">S(z) = \frac{1}{z+\lambda}</math> | <math display="block">S(z) = \frac{1}{z+\lambda}</math> | ||
उस | उस स्थितियों में <math>\alpha = 1.</math> | ||
| Line 304: | Line 304: | ||
=== पैरामीटर अनुमान === | === पैरामीटर अनुमान === | ||
का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन | का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन जनसंख्या का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref> | ||
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math> | :<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math> | ||
चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तो नमूने का | चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तो नमूने का कारण है। इसलिए, अधिकतम संभावना अनुमान निष्पक्ष अनुमानक है {{mvar|λ}}. यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है | न्यूनतम-विचरण निष्पक्ष। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए नमूना का कारण है क्योंकि यह योग का एक-से-एक कार्य है) पूर्ण और पर्याप्त आँकड़ा है {{mvar|λ}}. | ||
पर्याप्तता | पर्याप्तता सिद्ध करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान कार्य को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल कार्य के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math> | ||
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math> | : <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math> | ||
पहला पद, <math>h(\mathbf{x},</math> पर ही निर्भर करता है <math>\mathbf{x}.</math> दूसरा कार्यकाल, <math>g(T(\mathbf{x})|\lambda),</math> के माध्यम से ही नमूने पर निर्भर करता है <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math> इस प्रकार, <math>T(\mathbf{x})</math> | पहला पद, <math>h(\mathbf{x},</math> पर ही निर्भर करता है <math>\mathbf{x}.</math> दूसरा कार्यकाल, <math>g(T(\mathbf{x})|\lambda),</math> के माध्यम से ही नमूने पर निर्भर करता है <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math> इस प्रकार, <math>T(\mathbf{x})</math> अधिक है। | ||
पैरामीटर खोजने के लिए {{mvar|λ}} जो पॉइसन | पैरामीटर खोजने के लिए {{mvar|λ}} जो पॉइसन जनसंख्या के लिए संभाव्यता कार्य को अधिकतम करता है, हम संभावना कार्य के लघुगणक का उपयोग कर सकते हैं: | ||
: <math> \begin{align} | : <math> \begin{align} | ||
| Line 345: | Line 345: | ||
:<math>F^{-1}(\alpha/2; k,1) \le \mu \le F^{-1}(1-\alpha/2; k+1,1),</math> | :<math>F^{-1}(\alpha/2; k,1) \le \mu \le F^{-1}(1-\alpha/2; k+1,1),</math> | ||
जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक कार्य है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}. | जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक कार्य है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े|स्पष्ट आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}. | ||
जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तो इस | जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तो इस स्पष्ट अंतराल का स्पष्ट अनुमान प्रस्तावित किया गया है (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर):{{r|Breslow1987}} | ||
:<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math> | :<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math> | ||
जहाँ <math>z_{\alpha/2}</math> ऊपरी पूंछ क्षेत्र के साथ [[मानक सामान्य विचलन]] को दर्शाता है {{math|α / 2}}. | जहाँ <math>z_{\alpha/2}</math> ऊपरी पूंछ क्षेत्र के साथ [[मानक सामान्य विचलन]] को दर्शाता है {{math|α / 2}}. | ||
| Line 368: | Line 368: | ||
ध्यान दें कि पिछला माध्य रैखिक है और इसके द्वारा दिया गया है | ध्यान दें कि पिछला माध्य रैखिक है और इसके द्वारा दिया गया है | ||
:<math> E[ \lambda | k_1, \ldots, k_n ] = \frac{\alpha + \sum_{i=1}^n k_i}{\beta + n}.</math> | :<math> E[ \lambda | k_1, \ldots, k_n ] = \frac{\alpha + \sum_{i=1}^n k_i}{\beta + n}.</math> | ||
यह दिखाया जा सकता है कि गामा वितरण ही एकमात्र पूर्व है जो सशर्त माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम | यह दिखाया जा सकता है कि गामा वितरण ही एकमात्र पूर्व है जो सशर्त माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम उपस्थित है जो बताता है कि यदि सशर्त माध्य रैखिक कार्य के करीब है <math>L_2</math> के पूर्व वितरण की तुलना में दूरी {{mvar|λ}} लेवी मीट्रिक में गामा वितरण के करीब होना चाहिए।<ref>{{cite journal |last1=Dytso |first1=Alex|last2=Poor |first2=H. Vincent |title=Estimation in Poisson noise: Properties of the conditional mean estimator|journal=IEEE Transactions on Information Theory|date=2020|volume=66|issue=7|pages=4304–4323|doi=10.1109/TIT.2020.2979978|s2cid=207853178 |doi-access=free }}</ref> | ||
पश्च माध्य E[{{mvar|λ}}] अधिकतम संभावना अनुमान के करीब पहुंचता है <math>\widehat{\lambda}_\mathrm{MLE}</math> के रूप में सीमा में <math>\alpha\to 0, \beta \to 0,</math> जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है। | पश्च माध्य E[{{mvar|λ}}] अधिकतम संभावना अनुमान के करीब पहुंचता है <math>\widehat{\lambda}_\mathrm{MLE}</math> के रूप में सीमा में <math>\alpha\to 0, \beta \to 0,</math> जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है। | ||
| Line 375: | Line 375: | ||
=== एकाधिक पॉइसन का साथ अनुमान का अर्थ है === | === एकाधिक पॉइसन का साथ अनुमान का अर्थ है === | ||
कल्पना करना <math>X_1, X_2, \dots, X_p</math> के स | |||