पॉसों वितरण: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 55: Line 55:
[[proofwiki:Expectation of Poisson Distribution|Proof wiki: expectation]] and [[proofwiki:Variance of Poisson Distribution|Proof wiki: variance]]</ref>
[[proofwiki:Expectation of Poisson Distribution|Proof wiki: expectation]] and [[proofwiki:Variance of Poisson Distribution|Proof wiki: variance]]</ref>
:<math>\lambda = \operatorname{E}(X) = \operatorname{Var}(X).</math>
:<math>\lambda = \operatorname{E}(X) = \operatorname{Var}(X).</math>
पॉइसन वितरण को बड़ी संख्या में दुर्लभ घटनाओं वाले सिस्टम पर प्रयुक्त किया जा सकता है | इस प्रकार बड़ी संख्या में संभावित घटनाएं, जिनमें से प्रत्येक दुर्लभ है। निश्चित समय अंतराल के समय होने वाली ऐसी घटनाओं की संख्या, सही परिस्थितियों में पॉइसन वितरण के साथ यादृच्छिक संख्या होती है।
पॉइसन वितरण को बड़ी संख्या में दुर्लभ घटनाओं वाले प्रणाली पर प्रयुक्त किया जा सकता है | इस प्रकार बड़ी संख्या में संभावित घटनाएं, जिनमें से प्रत्येक दुर्लभ है। निश्चित समय अंतराल के समय होने वाली ऐसी घटनाओं की संख्या, सही परिस्थितियों में पॉइसन वितरण के साथ यादृच्छिक संख्या होती है।


समीकरण को अनुकूलित किया जा सकता है यदि, घटनाओं की औसत संख्या <math>\lambda,</math> के अतिरिक्त हमें वह औसत दर <math>r</math> दी जाए जिस पर घटनाएं घटित होती हैं। फिर <math>\lambda = r t,</math> और:<ref>{{cite book |first=Mehran |last=Kardar |author-link=Mehran Kardar |title=कणों का सांख्यिकीय भौतिकी|title-link=कणों का सांख्यिकीय भौतिकी|publisher=[[Cambridge University Press]] |year=2007 |isbn=978-0-521-87342-0 |oclc=860391091 |page=42}}</ref>
समीकरण को अनुकूलित किया जा सकता है यदि, घटनाओं की औसत संख्या <math>\lambda,</math> के अतिरिक्त हमें वह औसत दर <math>r</math> दी जाए जिस पर घटनाएं घटित होती हैं। फिर <math>\lambda = r t,</math> और:<ref>{{cite book |first=Mehran |last=Kardar |author-link=Mehran Kardar |title=कणों का सांख्यिकीय भौतिकी|title-link=कणों का सांख्यिकीय भौतिकी|publisher=[[Cambridge University Press]] |year=2007 |isbn=978-0-521-87342-0 |oclc=860391091 |page=42}}</ref>
Line 72: Line 72:
* {{mvar|k}} अंतराल में घटना घटित होने की संख्या है {{mvar|k}} मान 0, 1, 2,... ले सकते हैं।
* {{mvar|k}} अंतराल में घटना घटित होने की संख्या है {{mvar|k}} मान 0, 1, 2,... ले सकते हैं।
* एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं।
* एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं।
* घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे आमतौर पर स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें बदलाव हो सकता है।
* घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें बदलाव हो सकता है।
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तो बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तो बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।


Line 148: Line 148:
{{col-end}}
{{col-end}}


====अंतराल में बार होने वाली घटनाएँ: का विशेष मामला {{mvar|λ}}=1 और {{mvar|k}} = 0 ====
====अंतराल में बार होने वाली घटनाएँ: का विशेष स्थितिया {{mvar|λ}}=1 और {{mvar|k}} = 0 ====


मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) औसतन हर 100 साल में बार पृथ्वी से टकराते हैं ({{nobr| {{mvar|λ}} {{=}} 1 }} घटना प्रति 100 वर्ष), और यह कि उल्कापिंड हिट की संख्या पॉइसन वितरण के अनुसार होती है। की सम्भावना क्या है {{nobr| {{mvar|k}} {{=}} 0 }} अगले 100 वर्षों में उल्कापात?
मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) औसतन हर 100 साल में बार पृथ्वी से टकराते हैं ({{nobr| {{mvar|λ}} {{=}} 1 }} घटना प्रति 100 वर्ष), और यह कि उल्कापिंड हिट की संख्या पॉइसन वितरण के अनुसार होती है। की सम्भावना क्या है {{nobr| {{mvar|k}} {{=}} 0 }} अगले 100 वर्षों में उल्कापात?


: <math> P(k = \text{0 meteorites hit in next 100 years}) = \frac{1^0 e^{-1}}{0!} = \frac{1}{e} \approx 0.37.</math>
: <math> P(k = \text{0 meteorites hit in next 100 years}) = \frac{1^0 e^{-1}}{0!} = \frac{1}{e} \approx 0.37.</math>
इन धारणाओं के तहत, संभावना है कि अगले 100 वर्षों में कोई बड़ा उल्कापिंड पृथ्वी से नहीं टकराएगा, लगभग 0.37 है। शेष {{nobr|1 − 0.37 {{=}} 0.63}} अगले 100 वर्षों में 1, 2, 3 या अधिक बड़े उल्कापिंडों के टकराने की संभावना है।
इन धारणाओं के अनुसार, संभावना है कि अगले 100 वर्षों में कोई बड़ा उल्कापिंड पृथ्वी से नहीं टकराएगा, लगभग 0.37 है। शेष {{nobr|1 − 0.37 {{=}} 0.63}} अगले 100 वर्षों में 1, 2, 3 या अधिक बड़े उल्कापिंडों के टकराने की संभावना है।
उपरोक्त उदाहरण में, हर 100 साल में बार अतिप्रवाह बाढ़ आती है {{nobr|({{mvar|λ}} {{=}} 1).}} इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 थी।
उपरोक्त उदाहरण में, हर 100 साल में बार अतिप्रवाह बाढ़ आती है {{nobr|({{mvar|λ}} {{=}} 1).}} इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 थी।


सामान्य तौर पर, यदि कोई घटना प्रति अंतराल में औसतन बार घटित होती है ({{mvar|λ}} = 1), और घटनाएँ पॉइसन वितरण का अनुसरण करती हैं {{nobr|{{mvar|P}}(0 events in next interval) {{=}} 0.37.}} इसके साथ ही, {{nobr|{{mvar|P}}(exactly one event in next interval) {{=}} 0.37,}} जैसा कि अतिप्रवाह बाढ़ के लिए तालिका में दिखाया गया है।
सामान्यतः, यदि कोई घटना प्रति अंतराल में औसतन बार घटित होती है ({{mvar|λ}} = 1), और घटनाएँ पॉइसन वितरण का अनुसरण करती हैं {{nobr|{{mvar|P}}(0 events in next interval) {{=}} 0.37.}} इसके साथ ही, {{nobr|{{mvar|P}}(exactly one event in next interval) {{=}} 0.37,}} जैसा कि अतिप्रवाह बाढ़ के लिए तालिका में दिखाया गया है।


=== उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं ===
=== उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं ===
Line 176: Line 176:
* गैर-पूर्णांक के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]]। {{mvar|λ}} के समान है <math>\lfloor \lambda \rfloor,</math> जो इससे कम या इसके समान का सबसे बड़ा पूर्णांक है{{mvar|λ}}. इसे [[फर्श समारोह]] के रूप में भी लिखा जाता है({{mvar|λ}}). कब {{mvar|λ}} धनात्मक पूर्णांक है, बहुलक हैं {{mvar|λ}} और {{mvar|λ}} − 1.
* गैर-पूर्णांक के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]]। {{mvar|λ}} के समान है <math>\lfloor \lambda \rfloor,</math> जो इससे कम या इसके समान का सबसे बड़ा पूर्णांक है{{mvar|λ}}. इसे [[फर्श समारोह]] के रूप में भी लिखा जाता है({{mvar|λ}}). कब {{mvar|λ}} धनात्मक पूर्णांक है, बहुलक हैं {{mvar|λ}} और {{mvar|λ}} − 1.
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य के समान हैं{{mvar|λ}}. वह {{mvar|n}} पॉइसन वितरण का वां [[तथ्यात्मक क्षण]] है {{mvar|λ}}{{sup| {{mvar|n}} }} .
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य के समान हैं{{mvar|λ}}. वह {{mvar|n}} पॉइसन वितरण का वां [[तथ्यात्मक क्षण]] है {{mvar|λ}}{{sup| {{mvar|n}} }} .
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या आमतौर पर समय या स्थान पर तीव्रता कार्य के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}}
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या स्थान पर तीव्रता कार्य के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}}


=== माध्यिका ===
=== माध्यिका ===
Line 193: Line 193:


=== पॉइसन-वितरित यादृच्छिक चर का योग ===
=== पॉइसन-वितरित यादृच्छिक चर का योग ===
अगर <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> के लिए <math>i=1,\dotsc,n</math> तो, सांख्यिकीय स्वतंत्रता हैं <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तो उन दो स्वतंत्र यादृच्छिक चर में से प्रत्येक भी वैसा ही है।{{r|Raikov1937}}{{r|vonMises1964|p=}}
यदि <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> के लिए <math>i=1,\dotsc,n</math> तो, सांख्यिकीय स्वतंत्रता हैं <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तो उन दो स्वतंत्र यादृच्छिक चर में से प्रत्येक भी वैसा ही है।{{r|Raikov1937}}{{r|vonMises1964|p=}}


=== अन्य गुण ===
=== अन्य गुण ===
* पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}}
* पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}}
* निर्देशित कुल्बैक-लीब्लर विचलन <math>\operatorname{Pois}(\lambda_0)</math> से <math>\operatorname{Pois}(\lambda)</math> द्वारा दिया गया है <math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math>
* निर्देशित कुल्बैक-लीब्लर विचलन <math>\operatorname{Pois}(\lambda_0)</math> से <math>\operatorname{Pois}(\lambda)</math> द्वारा दिया गया है <math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math>
* अगर <math>\lambda \geq 1</math> तो, पूर्णांक है <math>Y\sim \operatorname{Pois}(\lambda)</math> संतुष्ट <math>\Pr(Y \geq E[Y]) \geq \frac{1}{2}</math> और <math>\Pr(Y \leq E[Y]) \geq \frac{1}{2}.</math><ref>{{cite book |last=Mitzenmacher |first=Michael |date=2017 |others=Eli Upfal |title=Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis |isbn=978-1-107-15488-9 |edition=2nd |location=Cambridge, UK |at=Exercise&nbsp;5.14 |oclc=960841613}}</ref>
* यदि <math>\lambda \geq 1</math> तो, पूर्णांक है <math>Y\sim \operatorname{Pois}(\lambda)</math> संतुष्ट <math>\Pr(Y \geq E[Y]) \geq \frac{1}{2}</math> और <math>\Pr(Y \leq E[Y]) \geq \frac{1}{2}.</math><ref>{{cite book |last=Mitzenmacher |first=Michael |date=2017 |others=Eli Upfal |title=Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis |isbn=978-1-107-15488-9 |edition=2nd |location=Cambridge, UK |at=Exercise&nbsp;5.14 |oclc=960841613}}</ref>
* पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।{{r|Mitzenmacher2005|p=97-98}} <math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math>
* पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।{{r|Mitzenmacher2005|p=97-98}} <math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math>
* ऊपरी पूंछ की संभावना को निम्नानुसार कड़ा किया जा सकता है (कम से कम दो के कारक द्वारा):{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> जैसा कि ऊपर वर्णित है, निर्देशित कुल्बैक-लीब्लर विचलन है।
* ऊपरी पूंछ की संभावना को निम्नानुसार कड़ा किया जा सकता है (कम से कम दो के कारक द्वारा):{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> जैसा कि ऊपर वर्णित है, निर्देशित कुल्बैक-लीब्लर विचलन है।
Line 216: Line 216:


=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में ===
=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में ===
पॉइसन वितरण को द्विपद वितरण के लिए सीमित मामले के रूप में प्राप्त किया जा सकता है क्योंकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है - नीचे दुर्लभ घटनाओं का #नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन है यदि {{mvar|n}} कम से कम 20 है और पी 0.05 से छोटा या उसके समान है, और उत्कृष्ट सन्निकटन है यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10.{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math>
पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है क्योंकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है - नीचे दुर्लभ घटनाओं का #नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन है यदि {{mvar|n}} कम से कम 20 है और पी 0.05 से छोटा या उसके समान है, और उत्कृष्ट सन्निकटन है यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10.{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math>




===सामान्य===
===सामान्य===
* अगर <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर फर्क <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है।
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर फर्क <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है।
* अगर <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, तो का वितरण <math>X_1</math> सशर्त <math>X_1+X_2</math> द्विपद वितरण है.  विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math>  अधिक सामान्यतः, यदि X<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>{{mvar|n}}</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, तो का वितरण <math>X_1</math> सशर्त <math>X_1+X_2</math> द्विपद वितरण है.  विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math>  अधिक सामान्यतः, यदि X<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>{{mvar|n}}</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math>
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math>
* अगर <math>X \sim \mathrm{Pois}(\lambda)\,</math> और का वितरण <math>Y</math> X= पर सशर्त{{mvar|k}} द्विपद वितरण है, <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> वास्तव में, यदि, सशर्त पर <math>\{X = k\},</math> <math>\{Y_i\}</math> [[बहुपद वितरण]] का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> फिर प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math>
* यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math> और का वितरण <math>Y</math> X= पर सशर्त{{mvar|k}} द्विपद वितरण है, <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> वास्तव में, यदि, सशर्त पर <math>\{X = k\},</math> <math>\{Y_i\}</math> [[बहुपद वितरण]] का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> फिर प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math>
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी है#यौगिक पॉइसन वितरण के विशेष मामले।
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी है#यौगिक पॉइसन वितरण के विशेष स्थितियों।
* पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। अगर {{mvar|λ}} लगभग 10 से अधिक है, तो यदि उचित [[निरंतरता सुधार]] किया जाता है, तो सामान्य वितरण अच्छा अनुमान है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, द्वारा प्रतिस्थापित किया जाता है {{math|P(''X'' ≤ ''x'' + 0.5)}}. <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math>
* पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} लगभग 10 से अधिक है, तो यदि उचित [[निरंतरता सुधार]] किया जाता है, तो सामान्य वितरण अच्छा अनुमान है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, द्वारा प्रतिस्थापित किया जाता है {{math|P(''X'' ≤ ''x'' + 0.5)}}. <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math>
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के तहत, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तेज़ है।
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तेज़ है।
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें।
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें।
* यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या {{closed-closed|0, ''t''}} माध्य λt के साथ पॉइसन वितरण का अनुसरण करता है, फिर अंतर-आगमन समय का क्रम स्वतंत्र होता है और समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/ होता है{{mvar|λ}}.{{r|Ross2010|p=317–319}}
* यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या {{closed-closed|0, ''t''}} माध्य λt के साथ पॉइसन वितरण का अनुसरण करता है, फिर अंतर-आगमन समय का क्रम स्वतंत्र होता है और समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/ होता है{{mvar|λ}}.{{r|Ross2010|p=317–319}}
Line 236: Line 236:
मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson &#124; STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है
मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson &#124; STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है
<math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math>
<math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math>
इसका मतलब यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातों के अतिरिक्त , किसी भी गैर-नकारात्मक कार्य के लिए <math>f(x_1, x_2, \dots, x_n),</math>
इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातों के अतिरिक्त , किसी भी गैर-नकारात्मक कार्य के लिए <math>f(x_1, x_2, \dots, x_n),</math>
अगर <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है
यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है
<math display="block">
<math display="block">
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)]
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)]
Line 246: Line 246:


=== द्विचर पॉइसन वितरण ===
=== द्विचर पॉइसन वितरण ===
इस वितरण को [[संयुक्त संभाव्यता वितरण]] मामले तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] कार्य है
इस वितरण को [[संयुक्त संभाव्यता वितरण]] स्थितियों तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] कार्य है
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math>
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math>
साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math>
साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math>
सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है
सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math>
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math>
द्विचर पॉइसन वितरण उत्पन्न करने का सरल तरीका <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर सेट करें <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण का संभाव्यता फलन है
द्विचर पॉइसन वितरण उत्पन्न करने का सरल विधि <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर सेट करें <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण का संभाव्यता फलन है
<math display="block">
<math display="block">
\Pr(X_1=k_1,X_2=k_2) =  
\Pr(X_1=k_1,X_2=k_2) =  
Line 263: Line 263:
जैसा {{math|''N'' → ∞}}.
जैसा {{math|''N'' → ∞}}.


दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के कानून का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन कानून द्वारा मापदंडों के साथ दिया गया है <math>\lambda,\alpha.</math>
दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के नियम का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है <math>\lambda,\alpha.</math>
यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें शास्त्रीय पॉइसन वितरण (शास्त्रीय) पॉइसन प्रक्रिया से प्राप्त किया जाता है।
यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है।


मुक्त पॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref>
मुक्त पॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref>
Line 272: Line 272:
\end{cases}</math>
\end{cases}</math>
जहाँ  <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math>
जहाँ  <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math>
यह कानून मार्चेंको-पास्टूर कानून के रूप में [[यादृच्छिक मैट्रिक्स]] सिद्धांत में भी उत्पन्न होता है। इसके Cumulant#Free Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math>
यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स]] सिद्धांत में भी उत्पन्न होता है। इसके Cumulant#Free Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math>




====इस कानून के कुछ परिवर्तन====
====इस नियम के कुछ परिवर्तन====
हम मुक्त पॉइसन कानून के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है ए. नीका और आर. स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में<ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref>
हम मुक्त पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है ए. नीका और आर. स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में<ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref>
मुक्त पॉइसन कानून का आर-रूपांतरण किसके द्वारा दिया गया है?
मुक्त पॉइसन नियम का आर-रूपांतरण किसके द्वारा दिया गया है?
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math>
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math>
कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का नकारात्मक है) द्वारा दिया गया है
कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का नकारात्मक है) द्वारा दिया गया है
Line 285: Line 285:
एस-परिवर्तन द्वारा दिया गया है
एस-परिवर्तन द्वारा दिया गया है
<math display="block">S(z) = \frac{1}{z+\lambda}</math>
<math display="block">S(z) = \frac{1}{z+\lambda}</math>
उस मामले में <math>\alpha = 1.</math>
उस स्थितियों में <math>\alpha = 1.</math>




Line 304: Line 304:


=== पैरामीटर अनुमान ===
=== पैरामीटर अनुमान ===
का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन आबादी का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref>
का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन जनसंख्या का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref>
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math>
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math>
चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तो नमूने का मतलब है। इसलिए, अधिकतम संभावना अनुमान निष्पक्ष अनुमानक है {{mvar|λ}}. यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है | न्यूनतम-विचरण निष्पक्ष। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए नमूना का मतलब है क्योंकि यह योग का एक-से-एक कार्य है) पूर्ण और पर्याप्त आँकड़ा है {{mvar|λ}}.
चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तो नमूने का कारण है। इसलिए, अधिकतम संभावना अनुमान निष्पक्ष अनुमानक है {{mvar|λ}}. यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है | न्यूनतम-विचरण निष्पक्ष। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए नमूना का कारण है क्योंकि यह योग का एक-से-एक कार्य है) पूर्ण और पर्याप्त आँकड़ा है {{mvar|λ}}.


पर्याप्तता साबित करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान कार्य को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल कार्य के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math>
पर्याप्तता सिद्ध करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान कार्य को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल कार्य के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math>
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math>
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math>
पहला पद, <math>h(\mathbf{x},</math> पर ही निर्भर करता है <math>\mathbf{x}.</math> दूसरा कार्यकाल, <math>g(T(\mathbf{x})|\lambda),</math> के माध्यम से ही नमूने पर निर्भर करता है <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math> इस प्रकार, <math>T(\mathbf{x})</math> काफी है।
पहला पद, <math>h(\mathbf{x},</math> पर ही निर्भर करता है <math>\mathbf{x}.</math> दूसरा कार्यकाल, <math>g(T(\mathbf{x})|\lambda),</math> के माध्यम से ही नमूने पर निर्भर करता है <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math> इस प्रकार, <math>T(\mathbf{x})</math> अधिक है।


पैरामीटर खोजने के लिए {{mvar|λ}} जो पॉइसन आबादी के लिए संभाव्यता कार्य को अधिकतम करता है, हम संभावना कार्य के लघुगणक का उपयोग कर सकते हैं:
पैरामीटर खोजने के लिए {{mvar|λ}} जो पॉइसन जनसंख्या के लिए संभाव्यता कार्य को अधिकतम करता है, हम संभावना कार्य के लघुगणक का उपयोग कर सकते हैं:


: <math> \begin{align}
: <math> \begin{align}
Line 345: Line 345:


:<math>F^{-1}(\alpha/2; k,1) \le \mu \le F^{-1}(1-\alpha/2; k+1,1),</math>
:<math>F^{-1}(\alpha/2; k,1) \le \mu \le F^{-1}(1-\alpha/2; k+1,1),</math>
जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक कार्य है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}.
जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक कार्य है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े|स्पष्ट आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}.


जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तो इस सटीक अंतराल का सटीक अनुमान प्रस्तावित किया गया है (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर):{{r|Breslow1987}}
जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तो इस स्पष्ट अंतराल का स्पष्ट अनुमान प्रस्तावित किया गया है (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर):{{r|Breslow1987}}
:<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math>
:<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math>
जहाँ <math>z_{\alpha/2}</math> ऊपरी पूंछ क्षेत्र के साथ [[मानक सामान्य विचलन]] को दर्शाता है {{math|α / 2}}.
जहाँ <math>z_{\alpha/2}</math> ऊपरी पूंछ क्षेत्र के साथ [[मानक सामान्य विचलन]] को दर्शाता है {{math|α / 2}}.
Line 368: Line 368:
ध्यान दें कि पिछला माध्य रैखिक है और इसके द्वारा दिया गया है
ध्यान दें कि पिछला माध्य रैखिक है और इसके द्वारा दिया गया है
:<math> E[ \lambda | k_1, \ldots, k_n ] = \frac{\alpha + \sum_{i=1}^n k_i}{\beta + n}.</math>
:<math> E[ \lambda | k_1, \ldots, k_n ] = \frac{\alpha + \sum_{i=1}^n k_i}{\beta + n}.</math>
यह दिखाया जा सकता है कि गामा वितरण ही एकमात्र पूर्व है जो सशर्त माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम मौजूद है जो बताता है कि यदि सशर्त माध्य रैखिक कार्य के करीब है <math>L_2</math> के पूर्व वितरण की तुलना में दूरी {{mvar|λ}} लेवी मीट्रिक में गामा वितरण के करीब होना चाहिए।<ref>{{cite journal |last1=Dytso |first1=Alex|last2=Poor |first2=H. Vincent |title=Estimation in Poisson noise: Properties of the conditional mean estimator|journal=IEEE Transactions on Information Theory|date=2020|volume=66|issue=7|pages=4304–4323|doi=10.1109/TIT.2020.2979978|s2cid=207853178 |doi-access=free }}</ref>
यह दिखाया जा सकता है कि गामा वितरण ही एकमात्र पूर्व है जो सशर्त माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम उपस्थित है जो बताता है कि यदि सशर्त माध्य रैखिक कार्य के करीब है <math>L_2</math> के पूर्व वितरण की तुलना में दूरी {{mvar|λ}} लेवी मीट्रिक में गामा वितरण के करीब होना चाहिए।<ref>{{cite journal |last1=Dytso |first1=Alex|last2=Poor |first2=H. Vincent |title=Estimation in Poisson noise: Properties of the conditional mean estimator|journal=IEEE Transactions on Information Theory|date=2020|volume=66|issue=7|pages=4304–4323|doi=10.1109/TIT.2020.2979978|s2cid=207853178 |doi-access=free }}</ref>


पश्च माध्य E[{{mvar|λ}}] अधिकतम संभावना अनुमान के करीब पहुंचता है <math>\widehat{\lambda}_\mathrm{MLE}</math> के रूप में सीमा में <math>\alpha\to 0, \beta \to 0,</math> जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है।
पश्च माध्य E[{{mvar|λ}}] अधिकतम संभावना अनुमान के करीब पहुंचता है <math>\widehat{\lambda}_\mathrm{MLE}</math> के रूप में सीमा में <math>\alpha\to 0, \beta \to 0,</math> जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है।
Line 375: Line 375:


=== एकाधिक पॉइसन का साथ अनुमान का अर्थ है ===
=== एकाधिक पॉइसन का साथ अनुमान का अर्थ है ===
कल्पना करना <math>X_1, X_2, \dots, X_p</math> के स