पॉइसन वितरण: Difference between revisions

From Vigyanwiki
No edit summary
m (Abhishekkshukla moved page पॉसों वितरण to पॉइसन वितरण without leaving a redirect)
 
(14 intermediate revisions by 5 users not shown)
Line 1: Line 1:
{{short description|Discrete probability distribution}}
{{short description|Discrete probability distribution}}


संभाव्यता सिद्धांत और आंकड़ों में, पॉइसन वितरण असतत संभाव्यता वितरण है जो समय या सम्मिस्ट के निश्चित अंतराल में होने वाली घटनाओं की दी गई संख्या की संभावना को व्यक्त करता है यदि ये घटनाएं ज्ञात निरंतर औसत दर के साथ और स्वतंत्र रूप से समय से घटित होती हैं। अंतिम घटना{{r|Haight1967}} इसका नाम फ्रांसीसी गणितज्ञ शिमोन डेनिस पॉइसन ({{IPAc-en|'|p|w|ɑː|s|ɒ|n}}; {{IPA-fr|pwasɔ̃}}) के नाम पर रखा गया है। पॉइसन वितरण का उपयोग अन्य निर्दिष्ट अंतराल प्रकारों जैसे दूरी, क्षेत्र या आयतन में घटनाओं की संख्या के लिए भी किया जा सकता है। यह असतत-स्थिर वितरण के लिए महत्वपूर्ण भूमिका निभाता है।
संभाव्यता सिद्धांत और आंकड़ों में, '''पॉइसन वितरण''' असतत संभाव्यता वितरण है जो समय या सम्मिस्ट के निश्चित अंतराल में होने वाली घटनाओं की दी गई संख्या की संभावना को व्यक्त करता है यदि ये घटनाएं ज्ञात निरंतर औसत दर के साथ और स्वतंत्र रूप से समय से घटित होती हैं। अंतिम घटना{{r|Haight1967}} इसका नाम फ्रांसीसी गणितज्ञ शिमोन डेनिस पॉइसन ({{IPAc-en|'|p|w|ɑː|s|ɒ|n}}; {{IPA-fr|pwasɔ̃}}) के नाम पर रखा गया है। पॉइसन वितरण का उपयोग अन्य निर्दिष्ट अंतराल प्रकारों जैसे दूरी, क्षेत्र या आयतन में घटनाओं की संख्या के लिए भी किया जा सकता है। यह असतत-स्थिर वितरण के लिए महत्वपूर्ण भूमिका निभाता है।


उदाहरण के लिए, कॉल सेंटर को प्रतिदिन 24 घंटे प्रति घंटे औसतन 180 कॉल प्राप्त होती हैं। कॉल स्वतंत्र हैं; प्राप्त करने से अगला कब आएगा इसकी संभावना नहीं बदलती है। किसी भी मिनट के समय प्राप्त कॉलों की संख्या में माध्य 3 के साथ पॉइसन संभाव्यता वितरण होता है: सबसे अधिक संभावित संख्याएं 2 और 3 हैं किंतु 1 और 4 भी संभावित हैं और इसके शून्य के समान होने की बहुत कम संभावना है और बहुत कम संभावना है यह 10 हो सकता है.
उदाहरण के लिए, कॉल सेंटर को प्रतिदिन 24 घंटे प्रति घंटे औसतन 180 कॉल प्राप्त होती हैं। कॉल स्वतंत्र हैं; प्राप्त करने से अगला कब आएगा इसकी संभावना नहीं बदलती है। किसी भी मिनट के समय प्राप्त कॉलों की संख्या में माध्य 3 के साथ पॉइसन संभाव्यता वितरण होता है: सबसे अधिक संभावित संख्याएं 2 और 3 हैं किंतु 1 और 4 भी संभावित हैं और इसके शून्य के समान होने की बहुत कुछ संभावना है और बहुत कुछ संभावना है यह 10 हो सकता है.


एक अन्य उदाहरण परिभाषित अवलोकन अवधि के समय रेडियोधर्मी स्रोत से होने वाली क्षय घटनाओं की संख्या है।
एक अन्य उदाहरण परिभाषित अवलोकन अवधि के समय रेडियोधर्मी स्रोत से होने वाली क्षय घटनाओं की संख्या होती है।


==इतिहास==
==इतिहास==
Line 23: Line 23:
* {{math|!}} भाज्य फलन है.
* {{math|!}} भाज्य फलन है.


सकारात्मक वास्तविक संख्या {{mvar|λ}} {{mvar|X}} के अपेक्षित मान और इसके विचरण के समान है।<ref>For the proof, see:
धनात्मक वास्तविक संख्या {{mvar|λ}} {{mvar|X}} के अपेक्षित मान और इसके विचरण के समान है।<ref>For the proof, see:
[[proofwiki:Expectation of Poisson Distribution|Proof wiki: expectation]] and [[proofwiki:Variance of Poisson Distribution|Proof wiki: variance]]</ref>
[[proofwiki:Expectation of Poisson Distribution|Proof wiki: expectation]] and [[proofwiki:Variance of Poisson Distribution|Proof wiki: variance]]</ref>
:<math>\lambda = \operatorname{E}(X) = \operatorname{Var}(X).</math>
:<math>\lambda = \operatorname{E}(X) = \operatorname{Var}(X).</math>
Line 34: Line 34:


===उदाहरण===
===उदाहरण===
[[File:Chewing gum on a sidewalk in Reykjavík.JPG|thumb|alt=Chewing gum on a sidewalk in Reykjavík.|फुटपाथ पर च्युइंग गम चबाना। टाइल पर च्युइंग गम की संख्या लगभग पॉइसन वितरित होती है।]]पॉइसन वितरण निम्नलिखित घटनाओं को मॉडल करने के लिए उपयोगी हो सकता है:
[[File:Chewing gum on a sidewalk in Reykjavík.JPG|thumb|alt=Chewing gum on a sidewalk in Reykjavík.|फुटपाथ पर च्युइंग गम चबाना। में टाइल पर च्युइंग गम की संख्या लगभग पॉइसन वितरित होती है।]]पॉइसन वितरण निम्नलिखित घटनाओं को मॉडल करने के लिए उपयोगी हो सकता है:
* एक वर्ष में पृथ्वी से टकराने वाले 1 मीटर से अधिक व्यास वाले उल्कापिंडों की संख्या हैं|
* एक वर्ष में पृथ्वी से टकराने वाले 1 मीटर से अधिक व्यास वाले उल्कापिंडों की संख्या हैं|
* एक विशेष समय अंतराल में डिटेक्टर से टकराने वाले लेजर फोटॉनों की संख्या होती हैं|  
* एक विशेष समय अंतराल में डिटेक्टर से टकराने वाले लेजर फोटॉनों की संख्या होती हैं|  
Line 43: Line 43:
*{{mvar|k}} किसी अंतराल में किसी घटना के घटित होने की संख्या है और {{mvar|k}} मान 0, 1, 2,.. ले सकता है।
*{{mvar|k}} किसी अंतराल में किसी घटना के घटित होने की संख्या है और {{mvar|k}} मान 0, 1, 2,.. ले सकता है।
* एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती हैं। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं।
* एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती हैं। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं।
* घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें बदलाव हो सकता है।
* घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें परिवर्तन हो सकता है।
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तब बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं हैं| इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तब बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।


यदि ये स्थितियाँ सत्य हैं, तब {{mvar|k}} पॉइसन यादृच्छिक चर है, और {{mvar|k}} का वितरण पॉइसन वितरण है।
यदि ये स्थितियाँ सत्य हैं, तब {{mvar|k}} पॉइसन यादृच्छिक चर होता है, और {{mvar|k}} का वितरण पॉइसन वितरण होता है।


पॉइसन वितरण भी [[द्विपद वितरण]] की [[सीमा (गणित)]] है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना परीक्षणों की संख्या से विभाजित {{mvar|λ}} समान होती है क्योंकि परीक्षणों की संख्या अनंत तक पहुंचती है (या संबंधित वितरण देखें)।
यदि पॉइसन वितरण भी [[द्विपद वितरण]] की [[सीमा (गणित)]] होती है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना परीक्षणों की संख्या से विभाजित {{mvar|λ}} समान होती है चूँकि परीक्षणों की संख्या अनंत तक पहुंचती है (या संबंधित वितरण देखें)।


==== पॉइसन वितरण के लिए संभाव्यता के उदाहरण ====
==== पॉइसन वितरण के लिए संभाव्यता के उदाहरण ====
Line 88: Line 88:
{{col-begin|gap=5em}}
{{col-begin|gap=5em}}
{{col-break}}
{{col-break}}
मारिया डोलोरेस उगार्टे और सहकर्मियों की रिपोर्ट है कि विश्व कप फुटबॉल मैच में गोलों की औसत संख्या लगभग 2.5 है और पॉइसन मॉडल उपयुक्त है।{{r|Ugarte2016}}
मारिया डोलोरेस उगार्टे और सहकर्मियों की रिपोर्ट है कि विश्व कप फुटबॉल मैच में गोलों की औसत संख्या लगभग 2.5 होती है और पॉइसन मॉडल उपयुक्त होता है।{{r|Ugarte2016}}
  चूँकि औसत घटना दर प्रति मैच 2.5 गोल है, {{mvar|λ}} = 2.5 .
  चूँकि औसत घटना दर प्रति मैच 2.5 गोल होते है, {{mvar|λ}} = 2.5 .


: <math> P(k \text{ goals in a match}) = \frac{2.5^k e^{-2.5}}{k!}</math>
: <math> P(k \text{ goals in a match}) = \frac{2.5^k e^{-2.5}}{k!}</math>
Line 122: Line 122:
====अंतराल में बार होने वाली घटनाएँ: का विशेष स्थितिया {{mvar|λ}}=1 और {{mvar|k}} = 0 ====
====अंतराल में बार होने वाली घटनाएँ: का विशेष स्थितिया {{mvar|λ}}=1 और {{mvar|k}} = 0 ====


मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) औसतन हर 100 साल में बार पृथ्वी से टकराते हैं ({{nobr| {{mvar|λ}} {{=}} 1 }}प्रति 100 वर्ष घटना), और यह कि उल्कापिंड के टकराने की संख्या पॉइसन वितरण के अनुसार होती है। अगले 100 वर्षों में {{nobr| {{mvar|k}} {{=}} 0 }} उल्कापिंड के टकराने की संभावना क्या है? की सम्भावना क्या है
मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) होते हैं और यहऔसतन हर 100 साल में एक बार पृथ्वी से टकराते हैं ({{nobr| {{mvar|λ}} {{=}} 1 }}प्रति 100 वर्ष घटना), और यह कि उल्कापिंड के टकराने की संख्या पॉइसन वितरण के अनुसार होती है। अगले 100 वर्षों में {{nobr| {{mvar|k}} {{=}} 0 }} उल्कापिंड के टकराने की संभावना क्या है?


: <math> P(k = \text{0 meteorites hit in next 100 years}) = \frac{1^0 e^{-1}}{0!} = \frac{1}{e} \approx 0.37.</math>
: <math> P(k = \text{0 meteorites hit in next 100 years}) = \frac{1^0 e^{-1}}{0!} = \frac{1}{e} \approx 0.37.</math>
इन धारणाओं के अनुसार, संभावना है कि अगले 100 वर्षों में कोई बड़ा उल्कापिंड पृथ्वी से नहीं टकराएगा, लगभग 0.37 है। शेष {{nobr|1 − 0.37 {{=}} 0.63}} अगले 100 वर्षों में 1, 2, 3 या अधिक बड़े उल्कापिंडों के टकराने की संभावना है। उपरोक्त उदाहरण में, हर 100 साल में बार अतिप्रवाह बाढ़ आती है {{nobr|({{mvar|λ}} {{=}} 1).}} इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 थी।
इन धारणाओं के अनुसार, संभावना है कि अगले 100 वर्षों में कोई बड़ा उल्कापिंड पृथ्वी से नहीं टकराएगा, यह लगभग 0.37 होता है। शेष {{nobr|1 − 0.37 {{=}} 0.63}} और इसमें अगले 100 वर्षों में 1, 2, 3 या अधिक बड़े उल्कापिंडों के टकराने की संभावना है। उपरोक्त उदाहरण में, हर 100 साल में एक बार अतिप्रवाह बाढ़ आती है और {{nobr|({{mvar|λ}} {{=}} 1).}} इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 होती थी।


सामान्यतः, यदि कोई घटना प्रति अंतराल में औसतन बार घटित होती है ({{mvar|λ}} = 1), और घटनाएँ पॉइसन वितरण का अनुसरण करती हैं {{nobr|{{mvar|P}}(अगले अंतराल में 0 घटनाएं {{=}} 0.37.}}हैं| इसके साथ ही, {{nobr|{{mvar|P}}(अगले अंतराल में बिल्कुल एक घटना) {{=}} 0.37,}} हैं |जैसा कि अतिप्रवाह बाढ़ के लिए तालिका में दिखाया गया है।
सामान्यतः, यदि कोई घटना प्रति अंतराल में औसतन बार घटित होती है ({{mvar|λ}} = 1), और यह घटनाएँ पॉइसन वितरण का अनुसरण करती हैं और {{nobr|{{mvar|P}}(अगले अंतराल में 0 घटनाएं {{=}} 0.37.}} होता हैं| इसके साथ ही, {{nobr|{{mvar|P}}(अगले अंतराल में बिल्कुल एक घटना) {{=}} 0.37,}} होती हैं |जैसा कि अतिप्रवाह बाढ़ के लिए तालिका में दिखाया गया है।


=== उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं ===
=== उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं ===


प्रति मिनट [[छात्र केंद्र]] पर पहुंचने वाले छात्रों की संख्या संभवतः पॉइसन वितरण का पालन नहीं करेगी, क्योंकि दर स्थिर नहीं है (कक्षा समय के समय कम दर, कक्षा समय के मध्य उच्च दर) और व्यक्तिगत छात्रों का आगमन स्वतंत्र नहीं है (छात्र समूहों में आते हैं)। गैर-निरंतर आगमन दर को [[मिश्रित पॉइसन वितरण]] के रूप में और व्यक्तिगत छात्रों के अतिरिक्त समूहों के आगमन को मिश्रित पॉइसन प्रक्रिया के रूप में तैयार किया जा सकता है।
प्रति मिनट [[छात्र केंद्र]] पर पहुंचने वाले छात्रों की संख्या संभवतः पॉइसन वितरण का पालन नहीं करेगी, चूँकि इसकी दर स्थिर नहीं होती है और (कक्षा समय के समय कुछ दर, कक्षा समय के मध्य उच्च दर) और व्यक्तिगत छात्रों का आगमन स्वतंत्र नहीं होता है| और (छात्र समूहों में आते हैं)। इस प्रकार गैर-निरंतर आगमन दर को [[मिश्रित पॉइसन वितरण]] के रूप में और व्यक्तिगत छात्रों के अतिरिक्त समूहों के आगमन को मिश्रित पॉइसन प्रक्रिया के रूप में तैयार किया जा सकता है।


किसी देश में प्रति वर्ष 5 तीव्रता वाले भूकंपों की संख्या पॉइसन वितरण के अनुरूप नहीं हो सकती है, यदि बड़ा भूकंप समान तीव्रता के झटकों की संभावना को बढ़ा देता है।
किसी देश में प्रति वर्ष 5 तीव्रता वाले भूकंपों की संख्या पॉइसन वितरण के अनुरूप नहीं हो सकती है, यदि बड़ा भूकंप समान तीव्रता के झटकों की संभावना को बढ़ा देता है।


ऐसे उदाहरण जिनमें कम से कम घटना की गारंटी है, पॉइसन वितरित नहीं हैं; किंतु इसे शून्य-ट्रंकेटेड पॉइसन वितरण का उपयोग करके मॉडल किया जा सकता है।
ऐसे उदाहरण जिनमें कुछ से कुछ घटना की गारंटी होती है, और यह पॉइसन वितरित नहीं होती हैं; किंतु इसे शून्य-ट्रंकेटेड पॉइसन वितरण का उपयोग करके मॉडल को तैयार किया जा सकता है।


ऐसे वितरणों की गणना करें जिनमें शून्य घटनाओं वाले अंतरालों की संख्या पॉइसन मॉडल द्वारा अनुमानित की तुलना में अधिक है, शून्य-'''फुलाए''' गए मॉडल का उपयोग करके मॉडलिंग की जा सकती है।
इस प्रकार ऐसे वितरणों की गणना करें जिनमें शून्य घटनाओं वाले अंतरालों की संख्या पॉइसन मॉडल द्वारा अनुमानित की तुलना में अधिक होती है,और शून्य-'''फुलाए''' गए मॉडल का उपयोग करके मॉडलिंग की जा सकती है।


=== वर्णनात्मक आँकड़े ===
=== वर्णनात्मक आँकड़े ===
* पॉइसन-वितरित यादृच्छिक चर का अपेक्षित मान और विचरण दोनों {{mvar|λ}} समान हैं .
* पॉइसन-वितरित यादृच्छिक चर का अपेक्षित मान और विचरण दोनों {{mvar|λ}} समान होते हैं| .
* भिन्नता का गुणांक <math display="inline"> \lambda^{-1/2},</math>है जबकि [[फैलाव का सूचकांक]] 1 है।{{r|Johnson2005|p=163}}
* भिन्नता का गुणांक <math display="inline"> \lambda^{-1/2},</math>होता है जबकि [[फैलाव का सूचकांक]] 1 है।{{r|Johnson2005|p=163}}
* माध्य के सापेक्ष माध्य निरपेक्ष विचलन है{{r|Johnson2005|p=163}} <math display="block">\operatorname{E}[\ |X-\lambda|\ ]= \frac{2 \lambda^{\lfloor\lambda\rfloor + 1} e^{-\lambda}}{\lfloor\lambda\rfloor!}.</math>
* माध्य के सापेक्ष माध्य निरपेक्ष विचलन होता है| {{r|Johnson2005|p=163}} <math display="block">\operatorname{E}[\ |X-\lambda|\ ]= \frac{2 \lambda^{\lfloor\lambda\rfloor + 1} e^{-\lambda}}{\lfloor\lambda\rfloor!}.</math>
* गैर-पूर्णांक {{mvar|λ}} के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]] <math>\lfloor \lambda \rfloor,</math> के समान है जो {{mvar|λ}} इससे कम या इसके समान का सबसे बड़ा पूर्णांक है . इसे [[फर्श समारोह|फर्श फलन]] ({{mvar|λ}}) के रूप में भी लिखा जाता है जब {{mvar|λ}} धनात्मक पूर्णांक है, तो मोड {{mvar|λ}} बहुलक हैं और {{mvar|λ}} − 1 बहुलक हैं|
* गैर-पूर्णांक {{mvar|λ}} के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]] <math>\lfloor \lambda \rfloor,</math> के समान होता है जो {{mvar|λ}} इससे कुछ या इसके समान का सबसे बड़ा पूर्णांक है . इसे [[फर्श समारोह|फर्श फलन]] ({{mvar|λ}}) के रूप में भी लिखा जाता है और जब {{mvar|λ}} धनात्मक पूर्णांक होता है, तब मोड {{mvar|λ}} बहुलक हैं और {{mvar|λ}} − 1 बहुलक होता हैं|
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य {{mvar|λ}} के समान हैं. वह {{mvar|n}} पॉइसन वितरण का {{mvar|n}}वां [[तथ्यात्मक क्षण]] {{mvar|λ}}{{sup| {{mvar|n}} }} है|
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य {{mvar|λ}} के समान हैं| और वह {{mvar|n}} पॉइसन वितरण का {{mvar|n}}वां [[तथ्यात्मक क्षण]] {{mvar|λ}}{{sup| {{mvar|n}} }} होता है|
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या सम्मिस्ट पर तीव्रता फलन के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}}
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है| और इस प्रकार (या सामान्यतः समय या सम्मिस्ट पर तीव्रता फलन के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}}


=== माध्यिका ===
=== माध्यिका ===


माध्यिका के लिए सीमा (<math>\nu</math>) के वितरण ज्ञात हैं और यह गणितीय शब्दजाल या तीव्र होते हैं:{{r|Choi1994}}
माध्यिका के लिए सीमा (<math>\nu</math>) के वितरण ज्ञात होते हैं और यह गणितीय शब्दजाल या तीव्र होते हैं:{{r|Choi1994}}
<math display="block">\lambda - \ln 2 \le \nu < \lambda + \frac{1}{3}.</math>
<math display="block">\lambda - \ln 2 \le \nu < \lambda + \frac{1}{3}.</math>
=== उच्चतर क्षण ===
=== उच्चतर क्षण ===
उच्च गैर-केन्द्रित [[क्षण (गणित)]], पॉइसन वितरण के {{mvar|m}}<sub>{{mvar|k}}</sub> , {{mvar|λ}} में, [[टचर्ड बहुपद]] हैं| <math display="block"> m_k = \sum_{i=0}^k \lambda^i \begin{Bmatrix} k \\ i \end{Bmatrix},</math> जहां {ब्रेसिज़} दूसरी तरह की स्टर्लिंग संख्याओं को दर्शाते हैं।{{r|Riordan1937}}{{r|Haight1967|p=6}} बहुपदों के गुणांकों का संयोजक अर्थ होता है। वास्तव में, जब पॉइसन वितरण का अपेक्षित मूल्य 1 है, तब डोबिंस्की का सूत्र कहता है कि {{mvar|n}}‑वां क्षण आकार {{mvar|n}} के समुच्चय के विभाजन की संख्या के समान है|  
उच्च गैर-केन्द्रित [[क्षण (गणित)]], पॉइसन वितरण के {{mvar|m}}<sub>{{mvar|k}}</sub> , {{mvar|λ}} में, [[टचर्ड बहुपद]] होते हैं| <math display="block"> m_k = \sum_{i=0}^k \lambda^i \begin{Bmatrix} k \\ i \end{Bmatrix},</math> जहां ब्रेसिज़ दूसरी तरह की स्टर्लिंग संख्याओं को दर्शाते हैं।{{r|Riordan1937}}{{r|Haight1967|p=6}} वही बहुपदों के गुणांकों का संयोजक अर्थ होता है। और वास्तव में, जब पॉइसन वितरण का अपेक्षित मूल्य 1 के समान होता है, तब डोबिंस्की का सूत्र कहता है कि {{mvar|n}}‑वां क्षण आकार {{mvar|n}} के समुच्चय के विभाजन की संख्या के समान होता है|  


एक साधारण सीमा है|<ref>{{cite journal |last1=D. Ahle |first1=Thomas | year=2022 |title=द्विपद और पॉइसन वितरण के कच्चे क्षणों के लिए तीव्र और सरल सीमाएं| journal=Statistics & Probability Letters | volume=182 |page=109306 | doi=10.1016/j.spl.2021.109306 |arxiv=2103.17027 }}</ref>
और यह साधारण सीमा होती है|<ref>{{cite journal |last1=D. Ahle |first1=Thomas | year=2022 |title=द्विपद और पॉइसन वितरण के कच्चे क्षणों के लिए तीव्र और सरल सीमाएं| journal=Statistics & Probability Letters | volume=182 |page=109306 | doi=10.1016/j.spl.2021.109306 |arxiv=2103.17027 }}</ref>
<math display="block">m_k = E[X^k] \le
<math display="block">m_k = E[X^k] \le
\left(\frac{k}{\log(k/\lambda+1)}\right)^k \le \lambda^k \exp\left(\frac{k^2}{2\lambda}\right).</math>
\left(\frac{k}{\log(k/\lambda+1)}\right)^k \le \lambda^k \exp\left(\frac{k^2}{2\lambda}\right).</math>
=== पॉइसन-वितरित यादृच्छिक चर का योग ===
=== पॉइसन-वितरित यादृच्छिक चर का योग ===
यदि <math>i=1,\dotsc,n</math> के लिए <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> स्वतंत्र हैं, तब <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तब उन दो में प्रत्येक स्वतंत्र हैं तो यादृच्छिक चर भी वैसा ही होता है।{{r|Raikov1937}}{{r|vonMises1964|p=}}
यदि <math>i=1,\dotsc,n</math> के लिए <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> स्वतंत्र होते हैं, तब <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय होता है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तब उन दो में प्रत्येक स्वतंत्र चर जैसे होते हैं तब यादृच्छिक चर भी वैसा ही होता है।{{r|Raikov1937}}{{r|vonMises1964|p=}}


=== अन्य गुण ===
=== अन्य गुण ===
* पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}}
* पॉइसन वितरण [[अनंत विभाज्यता (संभावना)]] संभाव्यता वितरण होता हैं।{{r|Laha1979|p=233}}{{r|Johnson2005|p=164}}
*<math>\operatorname{Pois}(\lambda)</math> से <math>\operatorname{Pois}(\lambda_0)</math> का निर्देशित कुल्बैक-लीब्लर विचलन द्वारा दिया गया है<math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math>
*<math>\operatorname{Pois}(\lambda)</math> से <math>\operatorname{Pois}(\lambda_0)</math> का निर्देशित कुल्बैक-लीब्लर विचलन द्वारा दिया गया है<math display="block">\operatorname{D}_{\text{KL}}(\lambda\mid\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.</math>
*यदि<math>\lambda \geq 1</math> पूर्णांक है,तब <math>Y\sim \operatorname{Pois}(\lambda)</math> <math>\Pr(Y \geq E[Y]) \geq \frac{1}{2}</math> और <math>\Pr(Y \leq E[Y]) \geq \frac{1}{2}.</math> को संतुष्ट करता है।<ref>{{cite book |last=Mitzenmacher |first=Michael |date=2017 |others=Eli Upfal |title=Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis |isbn=978-1-107-15488-9 |edition=2nd |location=Cambridge, UK |at=Exercise&nbsp;5.14 |oclc=960841613}}</ref>
*यदि<math>\lambda \geq 1</math> पूर्णांक है,तब <math>Y\sim \operatorname{Pois}(\lambda)</math> <math>\Pr(Y \geq E[Y]) \geq \frac{1}{2}</math> और <math>\Pr(Y \leq E[Y]) \geq \frac{1}{2}.</math> को संतुष्ट करता है।<ref>{{cite book |last=Mitzenmacher |first=Michael |date=2017 |others=Eli Upfal |title=Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis |isbn=978-1-107-15488-9 |edition=2nd |location=Cambridge, UK |at=Exercise&nbsp;5.14 |oclc=960841613}}</ref>
* पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।  
* पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> [[चेर्नॉफ़ बाध्य]] तर्क का उपयोग करके प्राप्त किया जा सकता है।  
*पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> की अंतिम संभावनाओं की सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> तर्क का उपयोग करके प्राप्त की जा सकती हैं।[{{r|Mitzenmacher2005|p=97-98}}<math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math>
*पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> की अंतिम संभावनाओं की सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> तर्क का उपयोग करके प्राप्त की जा सकती हैं।[{{r|Mitzenmacher2005|p=97-98}}<math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math>
* अप्पेर टेल की संभावना को निम्नानुसार (कम से कम दो के कारक द्वारा) कड़ा किया जा सकता है|{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> निर्देशित कुल्बैक-लीब्लर विचलन है। जैसा कि ऊपर वर्णित है|
* अपर टेल की संभावना को निम्नानुसार (कुछ से कुछ दो के कारक द्वारा) कड़ा किया जा सकता है|{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> निर्देशित कुल्बैक-लीब्लर विचलन है। जैसा कि ऊपर वर्णित हुआ है|
* असमानताएं जो पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> के वितरण फलन को [[मानक सामान्य वितरण]] फलन <math> \Phi(x) </math> से संबंधित करती हैं वे इस प्रकार हैं| {{r|Short2013}} <math display="block"> \Phi\left(\operatorname{sign}(k-\lambda)\sqrt{2\operatorname{D}_{\text{KL}}(k\mid\lambda)}\right) < P(X \leq k) < \Phi\left(\operatorname{sign}(k-\lambda+1)\sqrt{2\operatorname{D}_{\text{KL}}(k+1\mid\lambda)}\right), \text{ for } k > 0,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(k\mid\lambda)</math> यह फिर से निर्देशित कुल्बैक-लीब्लर विचलन है।
* असमानताएं जो पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> के वितरण फलन को [[मानक सामान्य वितरण]] फलन <math> \Phi(x) </math> से संबंधित करती हैं वे इस प्रकार होते हैं| {{r|Short2013}} <math display="block"> \Phi\left(\operatorname{sign}(k-\lambda)\sqrt{2\operatorname{D}_{\text{KL}}(k\mid\lambda)}\right) < P(X \leq k) < \Phi\left(\operatorname{sign}(k-\lambda+1)\sqrt{2\operatorname{D}_{\text{KL}}(k+1\mid\lambda)}\right), \text{ for } k > 0,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(k\mid\lambda)</math> यह फिर से निर्देशित कुल्बैक-लीब्लर विचलन होता है।


=== पॉइसन दौड़ ===
=== पॉइसन रेस ===


होने देना <math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर बनें, साथ में <math> \lambda < \mu,</math> तब वह हमारे पास है
मान लीजिए कि<math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर हैं,<math> \lambda < \mu,</math> के साथ तब हमारे पास वह है|<math display="block">
 
मान लीजिए कि<math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर हैं,<math> \lambda < \mu,</math> के साथ तो हमारे पास वह है<math display="block">
  \frac{e^{-(\sqrt{\mu} -\sqrt{\lambda})^2  }}{(\lambda + \mu)^2} - \frac{e^{-(\lambda + \mu)}}{2\sqrt{\lambda \mu}} - \frac{e^{-(\lambda + \mu)}}{4\lambda \mu} \leq P(X - Y \geq 0) \leq e^{- (\sqrt{\mu} -\sqrt{\lambda})^2}
  \frac{e^{-(\sqrt{\mu} -\sqrt{\lambda})^2  }}{(\lambda + \mu)^2} - \frac{e^{-(\lambda + \mu)}}{2\sqrt{\lambda \mu}} - \frac{e^{-(\lambda + \mu)}}{4\lambda \mu} \leq P(X - Y \geq 0) \leq e^{- (\sqrt{\mu} -\sqrt{\lambda})^2}
</math>
</math>




ऊपरी सीमा को मानक चेर्नॉफ़ बाउंड का उपयोग करके सिद्ध किया जाता है।  
ऊपरी सीमा को मानक चेर्नॉफ़ बाउंड का उपयोग करके सिद्ध किया जाता है।  


निचली सीमा को यह नोट करके सिद्ध किया जा सकता है कि<math> P(X-Y\geq0\mid X+Y=i)</math>संभावना यह है कि <math display="inline">Z \geq \frac{i}{2},</math> जहाँ है
निचली सीमा को यह नोट करके सिद्ध किया जा सकता है कि<math> P(X-Y\geq0\mid X+Y=i)</math>संभावना यह है कि <math display="inline">Z \geq \frac{i}{2},</math> जहाँ होता है|


<math display="inline">Z \sim \operatorname{Bin}\left(i, \frac{\lambda}{\lambda+\mu}\right),</math> जो नीचे <math display="inline"> \frac{1}{(i+1)^2} e^{-iD\left(0.5 \| \frac{\lambda}{\lambda+\mu}\right)},</math> से घिरा है जहां <math>D</math> सापेक्ष एन्ट्रॉपी है (विवरण के लिए द्विपद वितरण की पूंछ पर सीमा पर प्रविष्टि देखें)इसके अतिरिक्त यह ध्यान में रखते हुए कि <math> X+Y \sim \operatorname{Pois}(\lambda+\mu),</math> और बिना शर्त संभाव्यता पर निचली सीमा की गणना करने से परिणाम मिलता है। अधिक विवरण कामथ एट अल के परिशिष्ट में पाया जा सकता है|{{r|Kamath2015}}
<math display="inline">Z \sim \operatorname{Bin}\left(i, \frac{\lambda}{\lambda+\mu}\right),</math> जो नीचे <math display="inline"> \frac{1}{(i+1)^2} e^{-iD\left(0.5 \| \frac{\lambda}{\lambda+\mu}\right)},</math> से घिरा है जहां <math>D</math> सापेक्ष एन्ट्रॉपी है (विवरण के लिए द्विपद वितरण की टेल पर सीमा पर प्रविष्टि देखें) जा सकते हैं। इसके अतिरिक्त यह ध्यान में रखते हुए कि <math> X+Y \sim \operatorname{Pois}(\lambda+\mu),</math> और बिना परंतु संभाव्यता पर निचली सीमा की गणना करने से परिणाम मिलता रहता है। और अधिक विवरण कामथ एट अल के परिशिष्ट में पाया जा सकता है|{{r|Kamath2015}}


== संबंधित वितरण ==
== संबंधित वितरण ==


=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में ===
=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में ===
पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है क्योंकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है - नीचे दुर्लभ घटनाओं का यानियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन है यदि {{mvar|n}} कम से कम 20 है और पी 0.05 से छोटा या उसके समान है, और उत्कृष्ट सन्निकटन है यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10.{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math>
पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है चूँकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है| - नीचे दुर्लभ घटनाओं का नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा होता है और p पर्याप्त रूप से छोटा होता है। यदि n कुछ से कुछ 20 है और p 0.05 से छोटा या उसके समान है, तब पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन होता है, और यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10 है तब यहाँ उत्कृष्ट सन्निकटन होता है।{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math>
 
 
===सामान्य===
===सामान्य===
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर फर्क <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है।
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र होता हैं, फिर अंतर <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है।
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, तब का वितरण <math>X_1</math> सशर्त <math>X_1+X_2</math> द्विपद वितरण है. विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math> अधिक सामान्यतः, यदि X<sub>1</sub>, एक्स<sub>2</sub>, ..., एक्स<sub>{{mvar|n}}</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब
*यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math>स्वतंत्र हैं, तब <math>X_1+X_2</math> पर परंतु <math>X_1</math> का वितरण द्विपद वितरण होता है।
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math>
* विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math> अधिक सामान्यतः, यदि ''X''<sub>1</sub>, ''X''<sub>2</sub>, ..., ''X''<sub>n</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर होते हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब
* यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math> और का वितरण <math>Y</math> X= पर सशर्त{{mvar|k}} द्विपद वितरण है, <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> वास्तव में, यदि, सशर्त पर <math>\{X = k\},</math> <math>\{Y_i\}</math> [[बहुपद वितरण]] का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> फिर प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math>
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में हैं| <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math>
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या हकलाना पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण भी हैयायौगिक पॉइसन वितरण के विशेष स्थितियों।
*यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math>और <math>Y</math> का वितरण द्विपद वितरण है, X={{mvar|k}} तब Y का वितरण पॉइसन वितरण का अनुसरण करता है| और<math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> वास्तव में, यदि, <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> <math>\{X = k\},</math> <math>\{Y_i\}</math> पर परंतु बहुपद वितरण का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> तब प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण\<math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math> करता रहता है|
* पर्याप्त रूप से बड़े मूल्यों के लिए {{mvar|λ}}, (कहना {{mvar|λ}}>1000), माध्य के साथ [[सामान्य वितरण]] {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) पॉइसन वितरण का उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} लगभग 10 से अधिक है, तब यदि उचित [[निरंतरता सुधार]] किया जाता है, तब सामान्य वितरण अच्छा अनुमान है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, द्वारा प्रतिस्थापित किया जाता है {{math|P(''X'' ≤ ''x'' + 0.5)}}. <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math>
* पॉइसन वितरण सिर्फ पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या स्तूट्रिंग पॉइसन वितरण) की [[विशेष मामला|विशेष स्थितिया]] होती है। {{r|Zhang2013|Zhang2016}} और इस प्रकार यह असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण के विशेष स्थितियों में होता हैं।
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तेज़ है।
* {{mvar|λ}}, (मान लीजिए {{mvar|λ}} >1000) के पर्याप्त बड़े मानों के लिए, माध्य, {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) के साथ [[सामान्य वितरण]] पॉइसन वितरण के लिए उत्कृष्ट सन्निकटन है। और यदि {{mvar|λ}} से अधिक है, लगभग 10, तब सामान्य वितरण अच्छा सन्निकटन होता है यदि इसमें सदैव उचित [[निरंतरता सुधार]] किया जाता है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक होता है, तब इसको {{math|P(''X'' ≤ ''x'' + 0.5)}} द्वारा प्रतिस्थापित किया जाता है| <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math>
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें।
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> हैं तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) और यह अपरिवर्तित चर की तुलना में कहीं अधिक तीव्र भी होते है।
* यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या {{closed-closed|0, ''t''}} माध्य λt के साथ पॉइसन वितरण का अनुसरण करता है, फिर अंतर-आगमन समय का क्रम स्वतंत्र होता है और समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/ होता है{{mvar|λ}}.{{r|Ross2010|p=317–319}}
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध होते हैं| {{r|Johnson2005|p=168}} जिनमें से यह [[Anscombe परिवर्तन|अन्स्कोम्बे परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें।
* पॉइसन और [[ची-वर्ग वितरण]] के [[संचयी वितरण कार्य|संचयी वितरण फलन]] निम्नलिखित तरीकों से संबंधित हैं:{{r|Johnson2005|p=167}} <math display="block">F_\text{Poisson}(k;\lambda) = 1-F_{\chi^2}(2\lambda;2(k+1)) \quad\quad \text{ integer } k,</math> और{{r|Johnson2005|p=158}} <math display="block">P(X=k)=F_{\chi^2}(2\lambda;2(k+1)) -F_{\chi^2}(2\lambda;2k).</math>
* यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या {{closed-closed|0, ''t''}} माध्य ''λt'' के साथ पॉइसन वितरण का अनुसरण करता है| इस प्रकार यह अंतर-आगमन समय का क्रम स्वतंत्र होता है और यह समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/{{mvar|λ}} होता है| {{r|Ross2010|p=317–319}}
 
* पॉइसन और [[ची-वर्ग वितरण]] के [[संचयी वितरण कार्य|संचयी वितरण फलन]] निम्नलिखित विधियोंं से संबंधित हैं:{{r|Johnson2005|p=167}} <math display="block">F_\text{Poisson}(k;\lambda) = 1-F_{\chi^2}(2\lambda;2(k+1)) \quad\quad \text{ integer } k,</math> और {{r|Johnson2005|p=158}} <math display="block">P(X=k)=F_{\chi^2}(2\lambda;2(k+1)) -F_{\chi^2}(2\lambda;2k).</math>
 
=== पॉइसन सन्निकटन ===
=== पॉइसन सन्निकटन ===


मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson &#124; STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है
मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson &#124; STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है <math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर या वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> होते हैं इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, कि अन्य बात के अतिरिक्त , किसी भी गैर-ऋणात्मक फलन के लिए <math>f(x_1, x_2, \dots, x_n),</math> यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब यह बहुराष्ट्रीय रूप से वितरित किया जाता है|
<math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math>
इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातबं के अतिरिक्त , किसी भी गैर-नकारात्मक फलन के लिए <math>f(x_1, x_2, \dots, x_n),</math>
यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है
<math display="block">
<math display="block">
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)]
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)]
Line 214: Line 207:
जहाँ <math>(X_1, X_2, \dots, X_n)\sim\operatorname{Pois}(\mathbf{p}).</math>  
जहाँ <math>(X_1, X_2, \dots, X_n)\sim\operatorname{Pois}(\mathbf{p}).</math>  


का कारक <math>e\sqrt{m}</math> यदि 2 से प्रतिस्थापित किया जा सकता है <math>f</math> आगे यह माना जाता है कि यह नीरस रूप से बढ़ रहा है या घट रहा है।
इसका कारक <math>e\sqrt{m}</math> यदि 2 से प्रतिस्थापित किया जा सकता है <math>f</math> यह माना जाता है कि यह नीरस रूप से बढ़ रहा है या घट रहा है।


=== द्विचर पॉइसन वितरण ===
=== द्विचर पॉइसन वितरण ===
इस वितरण को [[संयुक्त संभाव्यता वितरण]] स्थितियों तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] फलन है
इस वितरण को [[संयुक्त संभाव्यता वितरण]] स्थितियों तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] फलन होते है|
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math>
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math>
साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math>
और इसके साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math>
सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है
यह सीमांत वितरण पॉइसन (θ<sub>1</sub>) और पॉइसन होते हैं| जो (θ<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित होते है|
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math>
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math>
द्विचर पॉइसन वितरण उत्पन्न करने का सरल विधि <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर समुच्चय करें <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण का संभाव्यता फलन है
द्विचर पॉइसन वितरण <math>X_1,X_2</math> उत्पन्न करने की सरल विधि हैं यह तीन स्वतंत्र पॉइसन वितरण <math>Y_1,Y_2,Y_3</math> को माध्य <math>\lambda_1,\lambda_2,\lambda_3</math> के साथ लेना होता है और फिर यह <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण की संभाव्यता फलन होते है|<math display="block">
<math display="block">
\Pr(X_1=k_1,X_2=k_2) =  
\Pr(X_1=k_1,X_2=k_2) =  
\exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k
\exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k
</math>
</math>
===मुफ्त पॉइसन वितरण===
===मुफ्त पॉइसन वितरण===
निःशुल्क पॉइसन वितरण<ref>Free Random Variables by D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992</ref> छलांग के आकार के साथ <math>\alpha</math> और दर <math>\lambda</math> मुक्त संभाव्यता सिद्धांत में बार-बार [[मुक्त कनवल्शन]] की सीमा के रूप में उत्पन्न होता है
जंप आकार <math>\alpha</math> और दर <math>\lambda</math> के साथ निःशुल्क पॉइसन वितरण होते हैं | <ref>Free Random Variables by D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992</ref> और यह निःशुल्क संभाव्यता सिद्धांत में बार-बार [[मुक्त कनवल्शन|निःशुल्क कनवल्शन]] की सीमा के रूप में उत्पन्न होता है|
<math display="block">\left( \left(1-\frac{\lambda}{N}\right)\delta_0 + \frac{\lambda}{N}\delta_\alpha\right)^{\boxplus N}</math>
<math display="block">\left( \left(1-\frac{\lambda}{N}\right)\delta_0 + \frac{\lambda}{N}\delta_\alpha\right)^{\boxplus N}</math>
जैसा {{math|''N'' → ∞}}.
जैसा कि {{math|''N'' → ∞}}. हैं|
 
दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि यह <math>X_N</math> मूल्य है| और यह <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 होता है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] होते हैं और फिर यह सीमा के रूप में <math>N \to \infty</math> के नियम का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है| <math>\lambda,\alpha.</math> यह परिभाषा उन विधियोंं में से उनके अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है।


दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के नियम का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है <math>\lambda,\alpha.</math>
दूसरे शब्दों में, मान लीजिए कि <math>X_N</math> यादृच्छिक चर है ताकि <math>X_N</math> का मान <math>\alpha</math> हो और संभावना <math display="inline">\frac{\lambda}{N}</math> हो और शेष प्रायिकता के साथ मान 0 हैं। तब यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> स्वतंत्र रूप से स्वतंत्र होते हैं। और फिर<math>X_1 + \cdots +X_N</math> के नियम की सीमा <math>N \to \infty</math> निःशुक्ल पॉइसन नियम द्वारा पैरामीटर्स <math>\lambda,\alpha.</math> के साथ दी गई है|
यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है।


मुक्त पॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref>
निःशुल्क पॉइसन नियम से संबंधित माप जिसके द्वारा दिया गया है| <ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref>
<math display="block">\mu=\begin{cases}
<math display="block">\mu=\begin{cases}
(1-\lambda) \delta_0 + \nu,& \text{if } 0\leq \lambda \leq 1 \\
(1-\lambda) \delta_0 + \nu,& \text{if } 0\leq \lambda \leq 1 \\
\nu, & \text{if }\lambda >1,
\nu, & \text{if }\lambda >1,
\end{cases}</math>
\end{cases}</math>
जहाँ  <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math>
जहाँ  <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और इसका समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math>
यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स|यादृच्छिक आव्युह]] सिद्धांत में भी उत्पन्न होता है। इसके CumulantयाFree Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math>
यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स|यादृच्छिक आव्युह]] सिद्धांत में भी उत्पन्न होता है। इसके निःशुल्क क्यूमुलेंट<math>\kappa_n=\lambda\alpha^n.</math> के समान होते हैं
===='''इस नियम के कुछ परिवर्तन'''====
हम निःशुल्क पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है A नीका और R स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में <ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref>
 
निःशुल्क पॉइसन नियम का R-रूपांतरण किसके द्वारा दिया गया है?
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math>




====इस नियम के कुछ परिवर्तन====
कॉची ट्रांसरूप (जो [[स्टिल्टजेस परिवर्तन]] का ऋणात्मक है) द्वारा दिया गया है
हम मुक्त पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है ए. नीका और आर. स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में<ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref>
मुक्त पॉइसन नियम का आर-रूपांतरण किसके द्वारा दिया गया है?
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math>
कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का नकारात्मक है) द्वारा दिया गया है
<math display="block">
<math display="block">
G(z) = \frac{ z + \alpha - \lambda \alpha - \sqrt{ (z-\alpha (1+\lambda))^2 - 4 \lambda \alpha^2}}{2\alpha z}
G(z) = \frac{ z + \alpha - \lambda \alpha - \sqrt{ (z-\alpha (1+\lambda))^2 - 4 \lambda \alpha^2}}{2\alpha z}
</math>
</math>
एस-परिवर्तन द्वारा दिया गया है
 
 
S-परिवर्तन द्वारा दिया गया है
<math display="block">S(z) = \frac{1}{z+\lambda}</math>
<math display="block">S(z) = \frac{1}{z+\lambda}</math>
उस स्थितियों में <math>\alpha = 1.</math>
उस स्थितियों में <math>\alpha = 1.</math>
===वेइबुल और स्थिर गिनती===
===वेइबुल और स्थिर गिनती===


पॉइसन की संभाव्यता द्रव्यमान फलन <math> f(k; \lambda)</math> [[वेइबुल वितरण]] के उत्पाद वितरण के समान रूप और स्थिर गणना वितरण के भिन्न रूप में व्यक्त किया जा सकता है।
पॉइसन की संभाव्यता द्रव्यमान फलन <math> f(k; \lambda)</math> [[वेइबुल वितरण]] के उत्पाद वितरण रूप और स्थिर गणना वितरण के भिन्न रूप के समान रूप में व्यक्त किया जा सकता है। चर <math> (k+1) </math> स्थिर गणना वितरण में लेवी के स्थिरता पैरामीटर के विपरीत माना जा सकता है|<math display="block">
परिवर्तनशील <math> (k+1) </math> स्थिर गणना वितरण में लेवी के स्थिरता पैरामीटर के विपरीत माना जा सकता है:
<math display="block">
     f(k; \lambda) =
     f(k; \lambda) =
         \displaystyle\int_0^\infty \frac{1}{u} \, W_{k+1}(\frac{\lambda}{u})  
         \displaystyle\int_0^\infty \frac{1}{u} \, W_{k+1}(\frac{\lambda}{u})  
         \left[ \left(k+1\right) u^k \, \mathfrak{N}_{\frac{1}{k+1}}\left(u^{k+1}\right) \right] \, du ,
         \left[ \left(k+1\right) u^k \, \mathfrak{N}_{\frac{1}{k+1}}\left(u^{k+1}\right) \right] \, du ,
</math>
</math>
जहाँ <math>\mathfrak{N}_{\alpha}(\nu)</math> आकृति का मानक स्थिर गणना वितरण है <math> \alpha = 1/\left(k+1\right),</math> और <math>W_{k+1}(x)</math> आकार का मानक वेइबुल वितरण है <math>k+1.</math>




जहाँ <math>\mathfrak{N}_{\alpha}(\nu)</math> आकृति का मानक स्थिर गणना वितरण है <math> \alpha = 1/\left(k+1\right),</math> और <math>W_{k+1}(x)</math> आकार का मानक वेइबुल वितरण <math>k+1.</math> है
==सांख्यिकीय अनुमान ==
==सांख्यिकीय अनुमान ==
{{See also|Poisson regression}}
{{See also|पॉइसन प्रतिगमन}}


=== पैरामीटर अनुमान ===
=== पैरामीटर अनुमान ===
का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन जनसंख्या का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref>
{{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}}के लिए {{mvar|n}} मापे गए मानों <math>k_i \in \{0,1,\dots\},</math> के प्रतिरूप को देखते हुए, हम पॉइसन संख्या के पैरामीटर {{mvar|λ}} के मूल्य का अनुमान लगाना चाहते हैं, जहां से प्रतिरूप लिया गया था। अधिकतम संभावना अनुमान है| <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref>
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math>
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math>
चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तब नमूने का कारण है। इसलिए, अधिकतम संभावना अनुमान निष्पक्ष अनुमानक है {{mvar|λ}}. यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है | न्यूनतम-विचरण निष्पक्ष। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए नमूना का कारण है क्योंकि यह योग का एक-से-एक फलन है) पूर्ण और पर्याप्त आँकड़ा है {{mvar|λ}}.
चूँकि प्रत्येक अवलोकन में अपेक्षा {{mvar|λ                                                                                                       }} होती है, इसलिए प्रतिरूप का कारण भी होता है। इसलिए, अधिकतम संभावना अनुमान {{mvar|λ                                                                                                       }} का निष्पक्ष अनुमानक भी है। यह कुशल अनुमानक भी है चूँकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref>इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए प्रतिरूप का कारण है चूँकि यह योग का एक-से-एक फलन है) {{mvar|λ}} के लिए पूर्ण और पर्याप्त आँकड़ा है।
 
पर्याप्तता सिद्ध करने के लिए हम गुणनखंडन प्रमेय '''पर्याप्त आँकड़े''' का उपयोग कर सकते हैं। प्रतिरूप के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान फलन को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से प्रतिरूप <math>\mathbf{x}</math> पर निर्भर करता है (जिसे <math>h(\mathbf{x})</math> कहा जाता है)) और जो पैरामीटर <math>\lambda</math> और प्रतिरूप <math>\mathbf{x}</math> पर निर्भर करता है सिर्फ फलन <math>T(\mathbf{x}).</math> के माध्यम से <math>T(\mathbf{x}).</math> तब <math>\lambda.</math> के लिए पर्याप्त आँकड़ा है


पर्याप्तता सिद्ध करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान फलन को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल फलन के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math>
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math>
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math>
पहला पद, <math>h(\mathbf{x},</math> पर ही निर्भर करता है <math>\mathbf{x}.</math> दूसरा फलनकाल, <math>g(T(\mathbf{x})|\lambda),</math> के माध्यम से ही नमूने पर निर्भर करता है <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math> इस प्रकार, <math>T(\mathbf{x})</math> अधिक है।
पहला पद, <math>h(\mathbf{x},</math> सिर्फ <math>\mathbf{x}.</math> पर निर्भर करता है दूसरा पद,<math>g(T(\mathbf{x})|\lambda),</math> सिर्फ <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math>के माध्यम से प्रतिरूप पर निर्भर करता है, इस प्रकार <math>T(\mathbf{x})</math>पर्याप्त है।


पैरामीटर खोजने के लिए {{mvar|λ}} जो पॉइसन जनसंख्या के लिए संभाव्यता फलन को अधिकतम करता है, हम संभावना फलन के लघुगणक का उपयोग कर सकते हैं:
पैरामीटर {{mvar|λ                                                                                                       }} को खोजने के लिए जो पॉइसन संख्या के लिए संभाव्यता फलन को अधिकतम करता है, हम संभावना फलन के लघुगणक का उपयोग कर सकते हैं:


: <math> \begin{align}
: <math> \begin{align}
Line 290: Line 281:
& = -n\lambda + \left(\sum_{i=1}^n k_i\right) \ln(\lambda) - \sum_{i=1}^n \ln(k_i!).
& = -n\lambda + \left(\sum_{i=1}^n k_i\right) \ln(\lambda) - \sum_{i=1}^n \ln(k_i!).
\end{align} </math>
\end{align} </math>
हम इसका व्युत्पन्न लेते हैं <math>\ell</math> इसके संबंध में {{mvar|λ}} और इसकी तुलना शून्य से करें:
हम λ के संबंध में <math>\ell</math> का व्युत्पन्न लेते हैं और इसकी तुलना शून्य से करते हैं:


: <math>\frac{\mathrm{d}}{\mathrm{d}\lambda} \ell(\lambda) = 0 \iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!</math>
: <math>\frac{\mathrm{d}}{\mathrm{d}\lambda} \ell(\lambda) = 0 \iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!</math>
के लिए समाधान {{mvar|λ}} स्थिर बिंदु देता है।
λ को हल करने पर स्थिर बिंदु मिलता है।


: <math> \lambda = \frac{\sum_{i=1}^n k_i}{n}</math>
: <math> \lambda = \frac{\sum_{i=1}^n k_i}{n}</math>
इसलिए {{mvar|λ}} का औसत है {{mvar|k}}<sub>''i''</sub> मूल्य. स्थिर बिंदु पर L के दूसरे अवकलज का चिन्ह प्राप्त करने से यह निर्धारित होगा कि किस प्रकार का चरम मान है {{mvar|λ}} है।
इसलिए {{mvar|λ}} {{mvar|k}}<sub>''i''</sub> मानो का औसत है| स्थिर बिंदु पर L के दूसरे अवकलज का चिन्ह प्राप्त करने से यह निर्धारित होगा कि {{mvar|λ}} किस प्रकार का चरम मान है


: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = -\lambda^{-2}\sum_{i=1}^n k_i </math>
: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = -\lambda^{-2}\sum_{i=1}^n k_i </math>
Line 302: Line 293:


: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = - \frac{n^2}{\sum_{i=1}^n k_i} </math>
: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = - \frac{n^2}{\sum_{i=1}^n k_i} </math>
जो कि नकारात्मक है {{mvar|n}} k के औसत के व्युत्क्रम का गुना<sub>i</sub>. औसत सकारात्मक होने पर यह अभिव्यक्ति नकारात्मक होती है। यदि यह संतुष्ट है, तब स्थिर बिंदु संभाव्यता फलन को अधिकतम करता है।
जो k<sub>i</sub> के औसत के व्युत्क्रम {{mvar|n}} गुना का ऋणात्मक है औसत धनात्मक होने पर यह अभिव्यक्ति ऋणात्मक होती है। यदि यह संतुष्ट है, तब स्थिर बिंदु संभाव्यता फलन को अधिकतम करता है।  


[[पूर्णता (सांख्यिकी)]] के लिए, वितरण के परिवार को पूर्ण कहा जाता है यदि और केवल यदि <math> E(g(T)) = 0</math> इसका आशय है <math>P_\lambda(g(T) = 0) = 1</math> सभी के लिए <math>\lambda.</math> यदि व्यक्ति <math>X_i</math> आईआईडी हैं <math>\mathrm{Po}(\lambda),</math> तब <math display="inline">T(\mathbf{x})=\sum_{i=1}^n X_i\sim \mathrm{Po}(n\lambda).</math> जिस वितरण की हम जांच करना चाहते हैं उसे जानने से यह देखना आसान है कि आँकड़ा पूरा हो गया है।
[[पूर्णता (सांख्यिकी)]] के लिए, वितरण के परिवार को पूर्ण कहा जाता है यदि और सिर्फ यदि<math> E(g(T)) = 0</math> का तात्पर्य सभी <math>\lambda.</math> के लिए <math>P_\lambda(g(T) = 0) = 1</math> हो। यदि व्यक्ति <math>X_i</math> आईआईडी <math>\mathrm{Po}(\lambda),</math> हैं तब <math display="inline">T(\mathbf{x})=\sum_{i=1}^n X_i\sim \mathrm{Po}(n\lambda).</math> जिस वितरण की हम जांच करना चाहते हैं उसे जानने से, यह देखना सरल है कि आँकड़ा पूरा हो गया है।


:<math>E(g(T))=\sum_{t=0}^\infty g(t)\frac{(n\lambda)^te^{-n\lambda}}{t!} = 0</math>
:<math>E(g(T))=\sum_{t=0}^\infty g(t)\frac{(n\lambda)^te^{-n\lambda}}{t!} = 0</math>
इस समानता को कायम रखने के लिए, <math>g(t)</math> 0 होना चाहिए। यह इस तथ्य से पता चलता है कि अन्य कोई भी पद सभी के लिए 0 नहीं होगा <math>t</math> योग में और सभी संभावित मूल्यों के लिए <math>\lambda.</math> इस तरह, <math>E(g(T)) = 0</math> सभी के लिए <math>\lambda</math> इसका आशय है <math>P_\lambda(g(T) = 0) = 1,</math> और आँकड़ा पूर्ण दिखाया गया है।
इस समानता को बनाए रखने के लिए, <math>g(t)</math> होना चाहिए| 0 यह इस तथ्य से पता चलता है कि सभी <math>t</math> के योग के लिए और <math>\lambda</math> के सभी संभावित मानों के लिए अन्य कोई भी पद 0 नहीं होगा, इसलिए, <math>E(g(T)) = 0</math> सभी के लिए <math>\lambda</math> का तात्पर्य है कि<math>P_\lambda(g(T) = 0) = 1,</math> और आँकड़ा पूर्ण दिखाया गया है।


=== आत्म[[विश्वास अंतराल]] ===
=== आत्म[[विश्वास अंतराल]] ===
पॉइसन वितरण के माध्य के लिए विश्वास अंतराल को पॉइसन और ची-स्क्वायर वितरण के संचयी वितरण फलनों के मध्य संबंध का उपयोग करके व्यक्त किया जा सकता है। ची-वर्ग वितरण स्वयं [[गामा वितरण]] से निकटता से संबंधित है, और यह वैकल्पिक अभिव्यक्ति की ओर ले जाता है। अवलोकन दिया गया {{mvar|k}} माध्य μ के साथ पॉइसन वितरण से, आत्मविश्वास स्तर के साथ μ के लिए विश्वास अंतराल {{math|1 – ''α''}} है
पॉइसन वितरण के माध्य के लिए विश्वास अंतराल को पॉइसन और ची-स्क्वायर वितरण के संचयी वितरण कार्यों के बीच संबंध का उपयोग करके व्यक्त किया जा सकता है। ची-वर्ग वितरण स्वयं [[गामा वितरण]] से निकटता से संबंधित है, और यह वैकल्पिक अभिव्यक्ति की ओर ले जाता है। माध्य μ के साथ पॉइसन वितरण से अवलोकन k को देखते हुए, आत्मविश्वास स्तर {{math|1 – ''α''}} के साथ μ के लिए विश्वास अंतराल है


:<math>\tfrac {1}{2}\chi^{2}(\alpha/2; 2k) \le \mu \le \tfrac {1}{2} \chi^{2}(1-\alpha/2; 2k+2), </math>
:<math>\tfrac {1}{2}\chi^{2}(\alpha/2; 2k) \le \mu \le \tfrac {1}{2} \chi^{2}(1-\alpha/2; 2k+2), </math>
Line 316: Line 307:


:<math>F^{-1}(\alpha/2; k,1) \le \mu \le F^{-1}(1-\alpha/2; k+1,1),</math>
:<math>F^{-1}(\alpha/2; k,1) \le \mu \le F^{-1}(1-\alpha/2; k+1,1),</math>
जहाँ <math>\chi^{2}(p;n)</math> ची-वर्ग वितरण का [[मात्रात्मक कार्य|मात्रात्मक फलन]] (निचले पूंछ क्षेत्र पी के अनुरूप) है {{mvar|n}} स्वतंत्रता की डिग्री और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का मात्रात्मक फलन है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े|स्पष्ट आँकड़े]]' है कि इसकी [[कवरेज संभावना]] कभी भी नाममात्र से कम नहीं होती है {{math|1 – ''α''}}.
जहां <math>\chi^{2}(p;n)</math> स्वतंत्रता की n डिग्री के साथ ची-वर्ग वितरण का क्वांटाइल फलन (निचले टेल क्षेत्र ''p'' के अनुरूप) है और <math>F^{-1}(p;n,1)</math> आकार पैरामीटर {{mvar|n}} और स्केल पैरामीटर 1 के साथ गामा वितरण का क्वांटाइल फलन है।{{r|Johnson2005|p=176-178|Garwood1936}} यह अंतराल इस अर्थ में '[[सटीक आँकड़े|स्पष्ट आँकड़े]]' है कि [[कवरेज संभावना]] कभी भी नाम मात्र {{math|1 – ''α''}} से कुछ नहीं होती है।


जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तब इस स्पष्ट अंतराल का स्पष्ट अनुमान प्रस्तावित किया गया है (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर):{{r|Breslow1987}}
जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तब इस स्पष्ट अंतराल का स्पष्ट अनुमान प्रस्तावित किया गया है| यह (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर)होता हैं |{{r|Breslow1987}}
:<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math>
:<math>k \left( 1 - \frac{1}{9k} - \frac{z_{\alpha/2}}{3\sqrt{k}}\right)^3 \le \mu \le (k+1) \left( 1 - \frac{1}{9(k+1)} + \frac{z_{\alpha/2}}{3\sqrt{k+1}}\right)^3, </math>
जहाँ <math>z_{\alpha/2}</math> ऊपरी पूंछ क्षेत्र के साथ [[मानक सामान्य विचलन]] को दर्शाता है {{math|α / 2}}.


उपरोक्त के समान संदर्भ में इन सूत्रों के अनुप्रयोग के लिए (एक नमूना दिया गया है)। {{mvar|n}} माप मूल्यों {{mvar|k}}<sub>''i''</sub> प्रत्येक माध्य के साथ पॉइसन वितरण से लिया गया है {{mvar|λ}}), समुच्चय होगा
 
 
जहां <math>z_{\alpha/2}</math> अपर टेल क्षेत्र {{math|α / 2}} के साथ [[मानक सामान्य विचलन]] को दर्शाता है।
 
उपरोक्त के समान संदर्भ में इन फ़ार्मुलों के अनुप्रयोग के लिए (माध्य {{mvar|λ                                                                                                          }} के साथ पॉइसन वितरण से लिए गए प्रत्येक {{mvar|n}} मापित मानों {{mvar|k}}<sub>''i''</sub> प्रतिरूप दिया गया है),का समुच्चय होता हैं |


:<math>k=\sum_{i=1}^n k_i ,</math>
:<math>k=\sum_{i=1}^n k_i ,</math>
के लिए अंतराल की गणना करें {{nobr| {{mvar|μ}} {{=}} {{mvar|n λ}} ,}} और फिर इसके लिए अंतराल प्राप्त करें {{mvar|λ}}.
{{nobr| {{mvar|μ}} {{=}} {{mvar|n λ}} ,}}के लिए अंतराल की गणना करें और फिर {{mvar|λ}} इसके लिए अंतराल प्राप्त करें |


=== [[बायेसियन अनुमान]] ===
=== [[बायेसियन अनुमान]] ===
बायेसियन अनुमान में, दर पैरामीटर के लिए संयुग्म पूर्व {{mvar|λ}}पॉइसन वितरण का गामा वितरण है।{{r|Fink1976}} होने देना
बायेसियन अनुमान में, पॉइसन वितरण के दर पैरामीटर {{mvar|λ                                                                                                         }} के लिए संयुग्मित पूर्व गामा वितरण होने देना है।{{r|Fink1976}}


:<math>\lambda \sim \mathrm{Gamma}(\alpha, \beta) </math>
:<math>\lambda \sim \mathrm{Gamma}(\alpha, \beta) </math>
उसे निरूपित करें {{mvar|λ}} को गामा संभाव्यता घनत्व फलन जी के अनुसार [[आकार पैरामीटर]] α और व्युत्क्रम [[स्केल पैरामीटर]] β के संदर्भ में वितरित किया जाता है:
उसे निरूपित करें कि {{mvar|λ                                                                                                       }} को गामा संभाव्यता घनत्व ''g'' के अनुसार [[आकार पैरामीटर]] α और व्युत्क्रम [[स्केल पैरामीटर]] β के संदर्भ में वितरित किया जाता है |


:<math> g(\lambda \mid \alpha,\beta) = \frac{\beta^{\alpha}}{\Gamma(\alpha)} \; \lambda^{\alpha-1} \; e^{-\beta\,\lambda} \qquad \text{ for } \lambda>0 \,\!.</math>
:<math> g(\lambda \mid \alpha,\beta) = \frac{\beta^{\alpha}}{\Gamma(\alpha)} \; \lambda^{\alpha-1} \; e^{-\beta\,\lambda} \qquad \text{ for } \lambda>0 \,\!.</math>
फिर, का वही नमूना दिया गया {{mvar|n}} माप मूल्यों {{mvar|k}}<sub>''i''</sub> याअधिकतम संभावना, और गामा(α, β) से पहले, पश्च वितरण है
फिर, पहले की तरह {{mvar|n                                                                                                         }} मापा मानों {{mvar|k}}<sub>''i''</sub> का ही प्रतिरूप दिया गया है, और गामा (α, β) से पहले,पश्च वितरण होता है|


:<math>\lambda \sim \mathrm{Gamma}\left(\alpha + \sum_{i=1}^n k_i, \beta + n\right).</math>
:<math>\lambda \sim \mathrm{Gamma}\left(\alpha + \sum_{i=1}^n k_i, \beta + n\right).</math>
ध्यान दें कि पिछला माध्य रैखिक है और इसके द्वारा दिया गया है
ध्यान दें कि पिछला माध्य रैखिक होता है और इसके द्वारा दिया गया है|
:<math> E[ \lambda | k_1, \ldots, k_n ] = \frac{\alpha + \sum_{i=1}^n k_i}{\beta + n}.</math>
:<math> E[ \lambda | k_1, \ldots, k_n ] = \frac{\alpha + \sum_{i=1}^n k_i}{\beta + n}.</math>
यह दिखाया जा सकता है कि गामा वितरण ही एकमात्र पूर्व है जो सशर्त माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम उपस्थित है जो बताता है कि यदि सशर्त माध्य रैखिक फलन के करीब है <math>L_2</math> के पूर्व वितरण की तुलना में दूरी {{mvar|λ}} लेवी मीट्रिक में गामा वितरण के करीब होना चाहिए।<ref>{{cite journal |last1=Dytso |first1=Alex|last2=Poor |first2=H. Vincent |title=Estimation in Poisson noise: Properties of the conditional mean estimator|journal=IEEE Transactions on Information Theory|date=2020|volume=66|issue=7|pages=4304–4323|doi=10.1109/TIT.2020.2979978|s2cid=207853178 |doi-access=free }}</ref>
यह दिखाया जा सकता है कि गामा वितरण ही एकुछात्र पूर्व है जो सपरंतु माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम उपस्थित है जो बताता है कि यदि सपरंतु माध्य <math>L_2</math> दूरी में रैखिक फलन के पास होता है| तब {{mvar|λ                                                                                                 }} के पूर्व वितरण की लेवी दूरी में गामा वितरण के पास होना चाहिए।<ref>{{cite journal |last1=Dytso |first1=Alex|last2=Poor |first2=H. Vincent |title=Estimation in Poisson noise: Properties of the conditional mean estimator|journal=IEEE Transactions on Information Theory|date=2020|volume=66|issue=7|pages=4304–4323|doi=10.1109/TIT.2020.2979978|s2cid=207853178 |doi-access=free }}</ref>


पश्च माध्य E[{{mvar|λ}}] अधिकतम संभावना अनुमान के करीब पहुंचता है <math>\widehat{\lambda}_\mathrm{MLE}</math> के रूप में सीमा में <math>\alpha\to 0, \beta \to 0,</math> जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है।
पश्च माध्य E[{{mvar|λ}}] सीमा में <math>\alpha\to 0, \beta \to 0,</math> के रूप में अधिकतम संभावना अनुमान <math>\widehat{\lambda}_\mathrm{MLE}</math> तक पहुंचता है जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है।


एकल अतिरिक्त अवलोकन के लिए [[पश्च भविष्य कहनेवाला वितरण]] [[नकारात्मक द्विपद वितरण]] है,{{r|Gelman2003|p=53}}कभी-कभी इसे गामा-पॉइसन वितरण भी कहा जाता है।
एकल अतिरिक्त अवलोकन के लिए [[Index.php?title=पश्च भविष्य कहने वाला वितरण|पश्च भविष्य कहने वाला वितरण]] [[नकारात्मक द्विपद वितरण|ऋणात्मक द्विपद वितरण]] है,{{r|Gelman2003|p=53}} जिसे कभी-कभी गामा-पॉइसन वितरण भी कहा जाता है।


=== एकाधिक पॉइसन का साथ अनुमान का अर्थ है ===
=== '''एकाधिक पॉइसन का साथ अनुमान का अर्थ है''' ===
कल्पना करना <math>X_1, X_2, \dots, X_p</math> के समुच्चय से स्वतंत्र यादृच्छिक चर का समुच्चय है <math>p</math> पॉइसन वितरण, प्रत्येक पैरामीटर के साथ <math>\lambda_i,</math> <math>i=1,\dots, p,</math> और हम इन मापदंडों का अनुमान लगाना चाहेंगे। फिर, क्लीवेन्सन और ज़िडेक दिखाते हैं कि सामान्यीकृत वर्ग त्रुटि हानि के अनुसार <math display="inline">L(\lambda,{\hat \lambda})=\sum_{i=1}^p \lambda_i^{-1} ({\hat \lambda}_i-\lambda_i)^2,</math> कब <math>p>1,</math> फिर, सामान्य साधनों के लिए स्टीन के उदाहरण के समान, एमएलई अनुमानक <math>{\hat \lambda}_i = X_i</math> [[स्वीकार्य निर्णय नियम|स्वीफलन निर्णय नियम]] है. {{r|Clevenson1975}}
मान लीजिए <math>X_1, X_2, \dots, X_p</math> <math>p</math> पॉइसन वितरण के समुच्चय से स्वतंत्र यादृच्छिक चर का समुच्चय होता है, प्रत्येक पैरामीटर <math>\lambda_i,</math> <math>i=1,\dots, p,</math> के साथ होता है और हम इन मापदंडों का अनुमान लगाना चाहते हैं। फिर, क्लेवेन्सन और ज़िडेक दिखाते हैं कि सामान्यीकृत वर्ग त्रुटि हानि <math display="inline">L(\lambda,{\hat \lambda})=\sum_{i=1}^p \lambda_i^{-1} ({\hat \lambda}_i-\lambda_i)^2,</math> तब, <math>p>1,</math>हैं| फिर सामान्य साधनों के लिए स्टीन के उदाहरण के समान, एमएलई अनुमानक<math>{\hat \lambda}_i = X_i</math> [[स्वीकार्य निर्णय नियम|स्वीफलन निर्णय नियम]] होता है। {{r|Clevenson1975}}


इस स्थितियों में, किसी के लिए [[मिनिमैक्स अनुमानक]]ों का परिवार दिया गया है <math>0 < c \leq 2(p-1)</math> और <math>b \geq (p-2+p^{-1})</math> जैसा{{r|Berger1985}}
इस स्थिति में, किसी के लिए [[मिनिमैक्स अनुमानक|मिनिमैक्स अनुमानको]] का परिवार दिया गया है जिसे <math>0 < c \leq 2(p-1)</math> और <math>b \geq (p-2+p^{-1})</math> जैसा होता हैं|
 
इस स्थिति में, किसी भी <math>0 < c \leq 2(p-1)</math>और <math>b \geq (p-2+p^{-1})</math> के लिए [[मिनिमैक्स अनुमानक|मिनिमैक्स अनुमानको]] का परिवार दिया गया है| जैसे {{r|Berger1985}}
:<math>{\hat \lambda}_i = \left(1 - \frac{c}{b + \sum_{i=1}^p X_i}\right) X_i, \qquad i=1,\dots,p.</math>
:<math>{\hat \lambda}_i = \left(1 - \frac{c}{b + \sum_{i=1}^p X_i}\right) X_i, \qquad i=1,\dots,p.</math>
 
:
 
== घटना और अनुप्रयोग ==
== घटना और अनुप्रयोग ==
पॉइसन वितरण के अनुप्रयोग अनेक क्षेत्रों में पाए जा सकते हैं जिनमें सम्मिलित हैं:{{r|Rasch1963}}
पॉइसन वितरण के अनुप्रयोग अनेक क्षेत्रों में पाए जा सकते हैं जिनमें सम्मिलित हैं|{{r|Rasch1963}}
* सामान्य रूप से डेटा की गणना करें
* सामान्य रूप से डेटा की गणना करें
* [[दूरसंचार]] उदाहरण: प्रणाली में आने वाली टेलीफोन कॉलें।
* [[दूरसंचार]] उदाहरण: प्रणाली में आने वाली टेलीफोन कॉलें।
*[[खगोल]] विज्ञान उदाहरण: दूरबीन पर आने वाले फोटॉन।
*[[खगोल]] विज्ञान उदाहरण: दूरबीन पर आने वाले फोटॉन।
* [[रसायन विज्ञान]] उदाहरण: जीवित पोलीमराइज़ेशन का [[दाढ़ द्रव्यमान वितरण]]।{{r|Flory1940}}
* [[रसायन विज्ञान]] उदाहरण: सजीव पोलीमराइजेशन का [[दाढ़ द्रव्यमान वितरण]]।{{r|Flory1940}}
* [[जीवविज्ञान]] उदाहरण: प्रति इकाई लंबाई [[डीएनए]] के स्ट्रैंड पर उत्परिवर्तन की संख्या।
* [[जीवविज्ञान]] उदाहरण: प्रति इकाई लंबाई [[डीएनए]] के स्ट्रैंड पर उत्परिवर्तन की संख्या।
* [[प्रबंध]]न उदाहरण: काउंटर या कॉल सेंटर पर पहुंचने वाले ग्राहक।
* [[प्रबंध]]न उदाहरण: गणना फलक या कॉल सेंटर पर पहुंचने वाले ग्राहक।
* [[वित्त और बीमा]] उदाहरण: किसी निश्चित समयावधि में होने वाले हानि या दावों की संख्या।
* [[वित्त और बीमा]] उदाहरण: किसी निश्चित समयावधि में होने वाले हानि या दावों की संख्या।
* [[भूकंप भूकंप विज्ञान]] उदाहरण: बड़े भूकंपों के लिए भूकंपीय कठिन परिस्थिति का स्पर्शोन्मुख पॉइसन मॉडल।{{r|Lomnitz1994|p=}}
* [[भूकंप भूकंप विज्ञान]] उदाहरण: बड़े भूकंपों के लिए भूकंपीय कठिन परिस्थिति का स्पर्शोन्मुख पॉइसन मॉडल।{{r|Lomnitz1994|p=}}
* [[रेडियोधर्मिता]] उदाहरण: रेडियोधर्मी नमूने में निश्चित समय अंतराल में क्षय की संख्या।
* [[रेडियोधर्मिता]] उदाहरण: रेडियोधर्मी प्रतिरूप में निश्चित समय अंतराल में क्षय की संख्या।
* [[प्रकाशिकी]] उदाहरण: लेजर पल्स में उत्सर्जित फोटॉन की संख्या। यह अधिकांश [[क्वांटम कुंजी वितरण]] प्रोटोकॉल के लिए प्रमुख भेद्यता है जिसे फोटॉन नंबर स्प्लिटिंग (पीएनएस) के रूप में जाना जाता है।
* [[प्रकाशिकी]] उदाहरण: लेजर पल्स में उत्सर्जित फोटॉन की संख्या हैं। यह अधिकांश [[क्वांटम कुंजी वितरण]] प्रोटोकॉल के लिए प्रमुख भेजता है जिसे फोटॉन नंबर विभाजन (पीएनएस) के रूप में जाना जाता है।


पॉइसन वितरण पॉइसन प्रक्रियाओं के संबंध में उत्पन्न होता है। यह असतत गुणों की विभिन्न घटनाओं पर प्रयुक्त होता है (अर्थात्, जो किसी निश्चित अवधि के समय या किसी दिए गए क्षेत्र में 0, 1, 2, 3, ... बार घटित हो सकती हैं) जब भी घटना के घटित होने की संभावना समय में स्थिर होती है या [[अंतरिक्ष]]घटनाओं के उदाहरण जिन्हें पॉइसन वितरण के रूप में तैयार किया जा सकता है, उनमें सम्मिलित हैं:
पॉइसन वितरण पॉइसन प्रक्रियाओं के संबंध में उत्पन्न होता है। यह असतत गुणों की विभिन्न घटनाओं पर प्रयुक्त होता है (अर्थात्, जो किसी निश्चित अवधि के समय या किसी दिए गए क्षेत्र में 0, 1, 2, 3, ... बार घटित हो सकती हैं) और जब भी घटना के घटित होने की संभावना समय में स्थिर होती है या इसमें [[अंतरिक्ष]] घटनाओं के उदाहरण जिन्हें पॉइसन वितरण के रूप में तैयार किया जा सकता है, यह उनमें सम्मिलित होते हैं|
* [[प्रशिया]] की घुड़सवार सेना में प्रत्येक कोर में हर साल घोड़े की लात से मारे गए सैनिकों की संख्या। इस उदाहरण का उपयोग लैडिस्लॉस बोर्टकिविज़ (1868-1931) की पुस्तक में किया गया था।{{r|vonBortkiewitsch1898|p=23-25}}
* [[प्रशिया]] की घुड़सवार सेना में प्रत्येक कोर में हर साल घोड़े की लात से मारे गए सैनिकों की संख्या कितनी होती हैं| इस उदाहरण का उपयोग लैडिस्लॉस बोर्टकिविज़ (1868-1931) की पुस्तक में किया गया था।{{r|vonBortkiewitsch1898|p=23-25}}
* [[गिनीज]] बियर बनाते समय उपयोग की जाने वाली यीस्ट कोशिकाओं की संख्या। इस उदाहरण का उपयोग [[विलियम सीली गॉसेट|विलियम सीली गॉसमुच्चय]] (1876-1937) द्वारा किया गया था।{{r|Student1907}}{{r|Boland1984}}
* [[गिनीज]] बियर बनाते समय उपयोग की जाने वाली यीस्ट कोशिकाओं की संख्या। इस उदाहरण का उपयोग [[विलियम सीली गॉसेट]] (1876-1937) द्वारा किया गया था।{{r|Student1907}}{{r|Boland1984}}  
* एक मिनट के अंदर [[कॉल सेंटर]] पर आने वाली फ़ोन कॉल की संख्या। इस उदाहरण का वर्णन एग्नर क्ररुप एरलांग|ए.के. द्वारा किया गया था। एरलांग (1878-1929){{r|Erlang1909}}
*किसी [[कॉल सेंटर]] पर मिनट के भीतर आने वाली फ़ोन कॉल की संख्या। इस उदाहरण का वर्णन ए.के. द्वारा किया गया था। एर्लांग (1878-1929)|{{r|Erlang1909}}
* इंटरनेट ट्रैफिक.
* इंटरनेट ट्रैफिक.
* दो प्रतिस्पर्धी टीमों से जुड़े खेलों में लक्ष्यों की संख्या।{{r|Hornby2014}}
* दो प्रतिस्पर्धी टीमों से जुड़े खेलों में लक्ष्यों की संख्या होती हैं।{{r|Hornby2014}}
* किसी दिए गए आयु वर्ग में प्रति वर्ष होने वाली मौतबं की संख्या।
*किसी दिए गए आयु वर्ग में प्रति वर्ष होने वाली मौत की संख्या होती हैं।
* एक निश्चित समय अंतराल में स्टॉक मूल्य में उछाल की संख्या।
* एक निश्चित समय अंतराल में भंडार मूल्य में उछाल की संख्या होता हैं।
* पॉइसन प्रक्रियायासजातीय की धारणा के अनुसार, प्रति मिनट [[वेब सर्वर]] तक पहुंचने की संख्या।
* पॉइसन प्रक्रिया या सजातीय की धारणा के अनुसार, प्रति मिनट [[वेब सर्वर]] तक पहुंचने की संख्या को कहते हैं।
* विकिरण की निश्चित मात्रा के पश्चात् डीएनए के निश्चित विस्तार में [[उत्परिवर्तन]] की संख्या।
* विकिरण की निश्चित मात्रा के पश्चात् डीएनए के निश्चित विस्तार में [[उत्परिवर्तन]] की संख्या होती हैं।
* कोशिकाओं (जीव विज्ञान) का अनुपात जो संक्रमण की दी गई बहुलता पर संक्रमित होगा।
* कोशिकाओं (जीव विज्ञान) का अनुपात जो संक्रमण की दी गई बहुलता पर संक्रमित होता हैं।
* द्रव की निश्चित मात्रा में जीवाणुओं की संख्या।{{r|Koyama2016}}
* इसमें द्रव की निश्चित मात्रा में जीवाणुओं की संख्या होती हैं।{{r|Koyama2016}}
* एक निश्चित रोशनी और निश्चित समय अवधि में पिक्सेल परिपथ पर फोटॉन का आगमन।
* एक निश्चित रोशनी और निश्चित समय अवधि में पिक्सेल परिपथ पर फोटॉन का आगमन होता हैं।
* द्वितीय विश्व युद्ध के समय लंदन पर वी-1 उड़ने वाले बमों को निशाना बनाने की जांच 1946 में आर. डी. क्लार्क द्वारा की गई।{{r|Clarke1946}}
* द्वितीय विश्व युद्ध के समय लंदन पर वी-1 उड़ने वाले बमों को निशाना बनाने की जांच 1946 में आर. डी. क्लार्क द्वारा की गई हैं| {{r|Clarke1946}}
पैट्रिक एक्स. गैलाघेर ने 1976 में दिखाया कि छोटे अंतरालों में [[अभाज्य संख्या]]ओं की गिनती पॉइसन वितरण का पालन करती है{{r|Gallagher1976}} अप्रमाणित दूसरे हार्डी-लिटलवुड अनुमान का निश्चित संस्करण प्रदान किया गया | हार्डी-लिटलवुड का प्राइम आर-टुपल अनुमान{{r|Hardy1923}} क्या सच है।
 
गैलाघेर ने 1976 में दिखाया कि छोटे अंतरालों में [[अभाज्य संख्या|अभाज्य संख्याओ]] की गिनती पॉइसन वितरण का पालन करती है|{{r|Gallagher1976}} परंतु हार्डी-लिटलवुड के अप्रमाणित अभाज्य आर-ट्यूपल अनुमान का मानों निश्चित संस्करण सत्य होता हैं|{{r|Hardy1923}}


=== दुर्लभ घटनाओं का नियम ===
=== दुर्लभ घटनाओं का नियम ===
{{main|Poisson limit theorem}}
{{main|पॉइसन सीमा प्रमेय}}
[[File:Binomial versus poisson.svg|right|upright=1.5|thumb |पॉइसन वितरण (काली रेखाएं) और द्विपद वितरण की तुलना {{nobr| {{mvar|n}} {{=}} 10 }} (लाल घेरे), {{nobr| {{mvar|n}} {{=}} 20 }} (नीले घेरे), {{nobr| {{mvar|n}} {{=}} 1000 }} (हरे घेरे). सभी वितरणों का माध्य 5 है। क्षैतिज अक्ष घटनाओं की संख्या दर्शाता है{{mvar|k}}. जैसा {{mvar|n}} बड़ा हो जाता है, पॉइसन वितरण समान माध्य के साथ द्विपद वितरण के लिए तेजी से उत्तम सन्निकटन बन जाता है।]]किसी घटना की दर किसी छोटे उपअंतराल (समय, सम्मिस्ट या अन्य) में घटित होने वाली घटना की संभावना से संबंधित होती है। पॉइसन वितरण के स्थितियों में, कोई यह मानता है कि छोटा पर्याप्त उपअंतराल उपस्थित है जिसके लिए किसी घटना के दो बार घटित होने की संभावना नगण्य है। इस धारणा के साथ कोई भी द्विपद वितरण से पॉइसन वितरण प्राप्त कर सकता है, केवल पूरे अंतराल में कुल घटनाओं की अपेक्षित संख्या की जानकारी दी गई है।
[[File:Binomial versus poisson.svg|right|upright=1.5|thumb |पॉइसन वितरण (काली रेखाएं) और द्विपद वितरण की तुलना {{nobr| {{mvar|n}} {{=}} 10 }} (लाल वृत्त), {{nobr| {{mvar|n}} {{=}} 20 }} (नीले वृत्त), {{nobr| {{mvar|n}} {{=}} 1000 }} (हरे वृत्त). सभी वितरणों का माध्य 5 है। क्षैतिज अक्ष घटनाओं की संख्या दर्शाता है{{mvar|k}}. जैसा {{mvar|n}} बड़ा हो जाता है, पॉइसन वितरण समान माध्य के साथ द्विपद वितरण के लिए तेजी से उत्तम सन्निकटन बन जाता है।


मान लीजिए कि पूरे अंतराल में घटनाओं की कुल संख्या को निरूपित किया जाता है <math>\lambda.</math> पूरे अंतराल को इसमें विभाजित करें <math>n</math> उपअंतराल <math>I_1,\dots,I_n</math> समान आकार का, ऐसा कि <math>n > \lambda</math> (चूँकि हम अंतराल के केवल बहुत छोटे हिस्से में रुचि रखते हैं, यह धारणा सार्थक है)। इसका कारण है कि प्रत्येक में घटनाओं की अपेक्षित संख्या {{mvar|n}} उपअंतराल समान है <math>\lambda/n.</math>
]]किसी घटना की दर किसी छोटे उपअंतराल (समय, सम्मिस्ट या अन्य) में घटित होने वाली घटना की संभावना से संबंधित होती है। पॉइसन वितरण के स्थितियों में, कोई यह मानता है कि छोटा पर्याप्त उपअंतराल उपस्थित है जिसके लिए किसी घटना के दो बार घटित होने की संभावना नगण्य है। इस धारणा के साथ कोई भी द्विपद वितरण से पॉइसन वितरण प्राप्त कर सकता है, सिर्फ पूरे अंतराल में कुल घटनाओं की अपेक्षित संख्या की जानकारी दी गई है।
अब हम यह मान लेते हैं कि पूरे अंतराल में किसी घटना के घटित होने को क्रम के रूप में देखा जा सकता है {{mvar|n}} [[बर्नौली परीक्षण]], जहां <math>i</math>-वां बर्नौली परीक्षण यह देखने से मेल खाता है कि क्या कोई घटना उप-अंतराल पर होती है <math>I_i</math> संभाव्यता के साथ <math>\lambda/n.</math> कुल घटनाओं की अपेक्षित संख्या <math>n</math> ऐसे परीक्षण होंगे <math>\lambda,</math> पूरे अंतराल में कुल घटनाओं की अपेक्षित संख्या। इसलिए अंतराल के प्रत्येक उपखंड के लिए हमने बर्नौली प्रक्रिया के रूप में घटना की घटना का अनुमान लगाया है <math>\textrm{B}(n,\lambda/n).</math> जैसा कि हमने पहले नोट किया है, हम केवल बहुत छोटे उपअंतरालों पर विचार करना चाहते हैं। इसलिए, हम सीमा को इस प्रकार लेते हैं <math>n</math> अनंत तक जाता है.
 
मान लीजिए कि पूरे अंतराल में घटनाओं की कुल संख्या को <math>\lambda.</math> द्वारा दर्शाया गया है, पूरे अंतराल को समान आकार के <math>n</math> उपअंतराल <math>I_1,\dots,I_n</math> में विभाजित करें, जैसे कि <math>n > \lambda</math> (चूँकि हम अंतराल के सिर्फ बहुत छोटे भागो में रुचि रखते हैं) यह धारणा सार्थक है)। इसका कारण यह है कि प्रत्येक {{mvar|n}} उपअंतराल में घटनाओं की अपेक्षित संख्या <math>\lambda/n.</math> के समान है| अब हम मान लेते हैं कि पूरे अंतराल में किसी घटना की घटना को {{mvar|n}} [[बर्नौली परीक्षण]] के अनुक्रम के रूप में देखा जा सकता है, जहां <math>i</math>-वें बर्नौली परीक्षण यह देखने से मेल खाता है कि क्या कोई घटना उपअंतराल <math>I_i</math> पर संभाव्यता के साथ होती है <math>\lambda/n.</math> ऐसे परीक्षणों में {{mvar|n}} कुल घटनाओं की अपेक्षित संख्या <math>\lambda,</math> होगी पूरे अंतराल में कुल घटनाओं की अपेक्षित संख्या। इसलिए अंतराल के प्रत्येक उप-अंतराल के लिए हमने घटना की घटना को रूप की बर्नौली प्रक्रिया के रूप में अनुमानित किया है <math>\textrm{B}(n,\lambda/n).</math> जैसा कि हमने पहले नोट किया है, हम सिर्फ बहुत छोटे उप-अंतराल पर विचार करना चाहते हैं। इसलिए, हम सीमा लेते हैं चूँकि {{mvar|n}} अनंत तक जाता है।


इस स्थितियों में द्विपद वितरण [[पॉइसन सीमा प्रमेय]] द्वारा पॉइसन वितरण के रूप में जाना जाता है।
इस स्थितियों में द्विपद वितरण [[पॉइसन सीमा प्रमेय]] द्वारा पॉइसन वितरण के रूप में जाना जाता है।


उपरोक्त अनेक उदाहरणों में - जैसे, डीएनए के दिए गए अनुक्रम में उत्परिवर्तन की संख्या - गिनाई जा रही घटनाएं वास्तव में अलग-अलग परीक्षणों के परिणाम हैं, और अधिक स्पष्ट रूप से द्विपद वितरण का उपयोग करके मॉडलिंग की जाएगी, अर्थात
उपरोक्त अनेक उदाहरणों में - जैसे, डीएनए के दिए गए अनुक्रम में उत्परिवर्तन की संख्या - गिनाई जा रही घटनाएं वास्तव में यह अलग-अलग परीक्षणों के परिणाम होता हैं, और इसमें अधिक स्पष्ट रूप से द्विपद वितरण का उपयोग करके मॉडलिंग की जाती हैं, जो अर्थात इस प्रकार हैं|
<math display="block">X \sim \textrm{B}(n,p).</math>
<math display="block">X \sim \textrm{B}(n,p).</math>
इस तरह के स्थितियों में {{mvar|n}} बहुत बड़ा है और {{mvar|p}} बहुत छोटा है (और इसलिए अपेक्षा भी {{mvar|n p}} मध्यवर्ती परिमाण का है)। तब वितरण का अनुमान कम बोझिल पॉइसन वितरण द्वारा लगाया जा सकता है <math display="block">X \sim \textrm{Pois}(np).</math>
इस प्रकार के स्थितियों में {{mvar|n}} बहुत बड़ा है और {{mvar|p}} बहुत छोटा है (और इसलिए {{mvar|n p}} अपेक्षा भी मध्यवर्ती परिमाण का है)। तब वितरण का अनुमान कुछ भारी पॉइसन वितरण द्वारा लगाया जा सकता है  
इस सन्निकटन को कभी-कभी दुर्लभ घटनाओं के नियम के रूप में जाना जाता है,{{r|Cameron1998|p=5}} प्रत्येक के पश्चात् से {{mvar|n}} व्यक्तिगत [[बर्नौली वितरण]] संभवतः ही कभी होता है।
 
<math display="block">X \sim \textrm{Pois}(np).</math>  
 
 
 
इस सन्निकटन को कभी-कभी दुर्लभ घटनाओं के नियम के रूप में जाना जाता है,{{r|Cameron1998|p=5}} चूँकि प्रत्येक {{mvar|n                                                                                                           }} व्यक्तिगत [[बर्नौली वितरण]] संभवतः ही कभी भी हो सकता है।


दुर्लभ घटनाओं का नाम नियम भ्रामक हो सकता है क्योंकि पॉइसन प्रक्रिया में सफलता की घटनाओं की कुल गिनती दुर्लभ होने की आवश्यकता नहीं है यदि पैरामीटर {{mvar|n p}} छोटा नहीं है. उदाहरण के लिए, घंटे में व्यस्त स्विचबोर्ड पर टेलीफोन कॉल की संख्या पॉइसन वितरण के अनुसार होती है, जिसमें घटनाएँ ऑपरेटर को बार-बार दिखाई देती हैं, किंतु वे जनसंख्या के औसत सदस्य के दृष्टिकोण से दुर्लभ हैं, जो करने की बहुत संभावना नहीं है उस घंटे में उस स्विचबोर्ड पर कॉल।
इस प्रकार "दुर्लभ घटनाओं का नियम" नाम भ्रामक हो सकता है चूँकि यदि पैरामीटर {{mvar|n p}} छोटा नहीं है| तब पॉइसन प्रक्रिया में सफलता की घटनाओं की कुल संख्या दुर्लभ होने की आवश्यकता नहीं होती है। उदाहरण के लिए,मानों घंटे में मानों व्यस्त स्विचबोर्ड पर टेलीफोन कॉल की संख्या पॉइसन वितरण के अनुसार होती है, जिसमें घटनाएँ प्रचालक को बार-बार दिखाई देती हैं, किंतु वे जनसंख्या के औसत सदस्य के दृष्टिकोण से दुर्लभ होते हैं,जिसे करने की बहुत संभावना नहीं होती है| और उस घंटे में उस स्विचबोर्ड पर मानों कॉल आती रहती हैं।


द्विपद वितरण का प्रसरण पॉइसन वितरण का 1 - पी गुना है, इसलिए जब पी बहुत छोटा है तब लगभग समान है।
द्विपद वितरण का प्रसरण पॉइसन वितरण का 1 - ''p'' गुना होता है, इसलिए जब P बहुत छोटा होता है तब वह लगभग समान होता है।


नियम शब्द का प्रयोग कभी-कभी संभाव्यता वितरण के पर्याय के रूप में किया जाता है, और नियम में अभिसरण का अर्थ वितरण में अभिसरण है। तदनुसार, पॉइसन वितरण को कभी-कभी छोटी संख्याओं का नियम कहा जाता है क्योंकि यह किसी घटना की घटनाओं की संख्या का संभाव्यता वितरण है जो संभवतः ही कभी घटित होती है किंतु जिसके घटित होने के बहुत अधिक अवसर होते हैं। द लॉ ऑफ़ स्मॉल नंबर्स पॉइसन वितरण के बारे में लैडिस्लॉस बोर्टकिविज़ की पुस्तक है, जो 1898 में प्रकाशित हुई थी।{{r|vonBortkiewitsch1898}}{{r|Edgeworth1913}}
नियम शब्द का प्रयोग कभी-कभी संभाव्यता वितरण के पर्याय के रूप में किया जाता है, और नियम में अभिसरण का अर्थ वितरण में अभिसरण है। तदनुसार, पॉइसन वितरण को कभी-कभी छोटी संख्याओं का नियम कहा जाता है चूँकि यह किसी घटना की घटनाओं की संख्या का संभाव्यता वितरण है जो संभवतः ही कभी घटित होती है किंतु जिसके घटित होने के बहुत अधिक अवसर होते हैं। द लॉ ऑफ़ स्मॉल नंबर्स पॉइसन वितरण के बारे में लैडिस्लॉस बोर्टकिविज़ की पुस्तक है, जो 1898 में प्रकाशित हुई थी।{{r|vonBortkiewitsch1898}}{{r|Edgeworth1913}}


=== पॉइसन बिंदु प्रक्रिया ===
=== पॉइसन बिंदु प्रक्रिया ===


{{Main|Poisson point process}}
{{Main|पॉइसन बिंदु प्रक्रिया}}


पॉइसन वितरण किसी परिमित क्षेत्र में स्थित [[पॉइसन बिंदु प्रक्रिया]] के बिंदुओं की संख्या के रूप में उत्पन्न होता है। अधिक विशेष रूप से, यदि D कुछ क्षेत्रीय सम्मिस्ट है, उदाहरण के लिए यूक्लिडियन सम्मिस्ट 'R'<sup>d</sup>, जिसके लिए |D|, क्षेत्र, आयतन या, अधिक सामान्यतः, क्षेत्र का लेबेस्ग माप सीमित है, और यदि {{nobr| {{math|''N''(''D'')}} }} फिर, डी में अंकों की संख्या को दर्शाता है
पॉइसन वितरण किसी परिमित क्षेत्र में स्थित [[पॉइसन बिंदु प्रक्रिया]] के बिंदुओं की संख्या के रूप में उत्पन्न होता है। अधिक विशेष रूप से, यदि D कुछ क्षेत्रीय सम्मिस्ट है, उदाहरण के लिए यूक्लिडियन सम्मिस्ट 'R'<sup>d</sup>, जिसके लिए |D|, क्षेत्र, आयतन या, अधिक सामान्यतः, क्षेत्र का लेबेस्ग माप सीमित है, और यदि {{nobr| {{math|''N''(''D'')}} }} फिर, ''D'', में अंकों की संख्या को दर्शाता है


: <math> P(N(D)=k)=\frac{(\lambda|D|)^k e^{-\lambda|D|}}{k!} .</math>
: <math> P(N(D)=k)=\frac{(\lambda|D|)^k e^{-\lambda|D|}}{k!} .</math>




=== [[पॉइसन प्रतिगमन]] और [[नकारात्मक द्विपद]] प्रतिगमन ===
=== [[पॉइसन प्रतिगमन]] और [[नकारात्मक द्विपद|ऋणात्मक द्विपद]] प्रतिगमन ===


पॉइसन प्रतिगमन और नकारात्मक द्विपद प्रतिगमन उन विश्लेषणों के लिए उपयोगी हैं जहां आश्रित (प्रतिक्रिया) चर गिनती है {{nobr| (0, 1, 2, ... ) }} किसी अंतराल में घटनाओं या घटनाओं की संख्या।
पॉइसन प्रतिगमन और ऋणात्मक द्विपद प्रतिगमन उन विश्लेषणों के लिए उपयोगी हैं जहां आश्रित (प्रतिक्रिया) चर अंतराल में घटनाओं या घटनाओं की संख्या की गिनती{{nobr| (0, 1, 2, ... ) }}हैं|


=== विज्ञान में अन्य अनुप्रयोग ===
=== विज्ञान में अन्य अनुप्रयोग ===


पॉइसन प्रक्रिया में, देखी गई घटनाओं की संख्या इसके माध्य के बारे में उतार-चढ़ाव करती है {{mvar|λ}} [[मानक विचलन]] के साथ <math>\sigma_k =\sqrt{\lambda}.</math> इन उतार-चढ़ावों को पॉइसन ध्वनि या (विशेष रूप से [[विद्युत प्रवाह]]) शॉट ध्वनि के रूप में दर्शाया जाता है।
पॉइसन प्रक्रिया में, देखी गई घटनाओं की संख्या मानक विचलन के साथ इसके माध्य {{mvar|λ                                                                                                            }} के बारे में उतार-चढ़ाव करती है| और इसके <math>\sigma_k =\sqrt{\lambda}.</math> इन उतार-चढ़ाव को पॉइसन ध्वनि या (विशेष रूप से इलेक्ट्रॉनिक्स में) शॉट ध्वनि के रूप में दर्शाया जाता है।
 
स्वतंत्र असतत घटनाओं की गणना में माध्य और मानक विचलन का सहसंबंध वैज्ञानिक रूप से उपयोगी होता है। इसमें माध्य संकेत के साथ उतार-चढ़ाव कैसे भिन्न होता है, इसकी देख-रेख करके, कोई मानों घटना के योगदान का अनुमान लगा सकता है, भले ही वह योगदान सामान्यतः पता लगाने के लिए बहुत छोटा होता हैं। उदाहरण के लिए, इलेक्ट्रॉन पर आवेश ''e'' का अनुमान विद्युत धारा के परिमाण को उसके शॉट ध्वनि के साथ सहसंबंधित करके लगाया जा सकता है। यदि N इलेक्ट्रॉन किसी दिए गए निश्चित समय t में औसतन बिंदु से गुजरते हैं, इस प्रकार तब औसत वर्तमान विद्युत धारा <math>I=eN/t</math> होती है| चूँकि वर्तमान उतार-चढ़ाव क्रम <math>\sigma_I = e\sqrt{N}/t</math> का होना चाहिए (अर्थात्, पॉइसन प्रक्रिया का मानक विचलन), आवेश <math>e                                                                                                                                                                                                                                  </math> अनुपात <math>t\sigma_I^2/I.</math> से अनुमान लगाया जा सकता है|
 
इसका प्रतिदिन का उदाहरण वह दानेदार पन होता है| जो तस्वीरों को बड़ा करने पर दिखाई देता है|और दानेदार पन कुछ चांदी के दानों की संख्या में पॉइसन के उतार-चढ़ाव के कारण होता है, न कि व्यक्तिगत दानों के कारण होता हैं। वृद्धि की डिग्री के साथ दानेदारता को सहसंबंधित करके, व्यक्तिगत दाने के योगदान का अनुमान लगाया जा सकता है| (जो अन्यथा बिना सहायता के देखे जाने के लिए बहुत छोटा होता है|)। और पॉइसन ध्वनि के अनेक अन्य आणविक अनुप्रयोग विकसित किए गए हैं| उदाहरण के लिए, [[कोशिका झिल्ली]] में [[रिसेप्टर (जैव रसायन)]] अणुओं की संख्या घनत्व का अनुमान लगाना भी होता हैं।


स्वतंत्र असतत घटनाओं की गणना में माध्य और मानक विचलन का सहसंबंध वैज्ञानिक रूप से उपयोगी है। माध्य संकेत के साथ उतार-चढ़ाव कैसे भिन्न होता है, इसकी निगरानी करके, कोई घटना के योगदान का अनुमान लगा सकता है, तथापि वह योगदान सीधे तौर पर पता लगाने के लिए बहुत छोटा हो। उदाहरण के लिए, इलेक्ट्रॉन पर चार्ज ई का अनुमान विद्युत धारा के परिमाण को उसके शॉट ध्वनि के साथ सहसंबंधित करके लगाया जा सकता है। यदि N इलेक्ट्रॉन किसी निश्चित समय t में औसतन बिंदु से गुजरते हैं, तब औसत विद्युत धारा होती है <math>I=eN/t</math>; चूँकि वर्तमान उतार-चढ़ाव क्रम का होना चाहिए <math>\sigma_I = e\sqrt{N}/t</math> (अर्थात्, पॉइसन प्रक्रिया का मानक विचलन), आवेश <math>e</math> अनुपात से अनुमान लगाया जा सकता है <math>t\sigma_I^2/I.</math>


इसका रोजमर्रा का उदाहरण वह दानेदारपन है जो तस्वीरों को बड़ा करने पर दिखाई देता है; दानेदारपन कम चांदी के दानों की संख्या में पॉइसन के उतार-चढ़ाव के कारण होता है, न कि व्यक्तिगत दानों के कारण। वृद्धि की डिग्री के साथ दानेदारता को सहसंबंधित करके, व्यक्तिगत दाने के योगदान का अनुमान लगाया जा सकता है (जो अन्यथा बिना सहायता के देखे जाने के लिए बहुत छोटा है)। पॉइसन ध्वनि के अनेक अन्य आणविक अनुप्रयोग विकसित किए गए हैं, उदाहरण के लिए, [[कोशिका झिल्ली]] में [[रिसेप्टर (जैव रसायन)]] अणुओं की संख्या घनत्व का अनुमान लगाना।
: <math> \Pr(N_t=k) = f(k;\lambda t) = \frac{(\lambda t)^k e^{-\lambda t}}{k!}.</math>
: <math> \Pr(N_t=k) = f(k;\lambda t) = \frac{(\lambda t)^k e^{-\lambda t}}{k!}.</math>
कारण समुच्चय सिद्धांत में स्पेसटाइम के अलग-अलग तत्व वॉल्यूम में पॉइसन वितरण का पालन करते हैं।
इस प्रकार कारण समुच्चय सिद्धांत में समिस्ट टाइम के अलग-अलग तत्व वॉल्यूम में पॉइसन वितरण का पालन करते हैं।


==कम्प्यूटेशनल तरीके==
==कुछ्प्यूटेशनल विधियों==


पॉइसन वितरण समर्पित सॉफ़्टवेयर पुस्तकालयों के लिए दो अलग-अलग फलन प्रस्तुत करता है: वितरण का मूल्यांकन करना <math>P(k;\lambda)</math>, और उस वितरण के अनुसार यादृच्छिक संख्याएँ बनाना।
पॉइसन वितरण समर्पित सॉफ़्टवेयर पुस्तकालयों के लिए दो अलग-अलग फलन प्रस्तुत करता है: वितरण <math>P(k;\lambda)</math> का मूल्यांकन करना, और उस वितरण के अनुसार यादृच्छिक संख्याएँ बनाना भी होता हैं।


=== पॉइसन वितरण का मूल्यांकन ===
=== पॉइसन वितरण का मूल्यांकन ===
कम्प्यूटिंग <math>P(k;\lambda)</math> माफ़ कर दिया <math>k</math> और <math>\lambda</math> तुच्छ फलन है जिसे की मानक परिभाषा का उपयोग करके पूरा किया जा सकता है <math>P(k;\lambda)</math> घातांकीय, शक्ति और तथ्यात्मक फलनों के संदर्भ में। चूँकि, पॉइसन वितरण की पारंपरिक परिभाषा में दो शब्द सम्मिलित हैं जो कंप्यूटर पर आसानी से बह सकते हैं: {{mvar|λ}}<sup>{{mvar|k}}</sup>और {{math|''k''!}}. का अंश {{mvar|λ}}<sup>{{mvar|k}}</sup>को {{mvar|k}}! पूर्णांकन त्रुटि भी उत्पन्न हो सकती है जो ई की तुलना में बहुत बड़ी है<sup>{{mvar|λ}}</sup>, और इसलिए ग़लत परिणाम दें। इसलिए संख्यात्मक स्थिरता के लिए पॉइसन संभाव्यता द्रव्यमान फलन का मूल्यांकन इस प्रकार किया जाना चाहिए
दिए गए <math>k</math> और <math>\lambda</math> के लिए <math>P(k;\lambda)</math> की गणना करना मानों छोटे फलन होते है जिसे घातीय, शक्ति और तथ्यात्मक कार्यों के संदर्भ में <math>P(k;\lambda)</math> की मानक परिभाषा का उपयोग करके पूरा किया जा सकता है। चूँकि, पॉइसन वितरण की पारंपरिक परिभाषा में दो शब्द सम्मिलित हैं जो कंप्यूटर पर सरल विधि से प्रवाहित हो सकते हैं| और वह {{mvar|λ}}<sup>{{mvar|k}}</sup> और {{math|''k''!}} हैं। जिनमे {{mvar|λ}}<sup>{{mvar|k}}</sup> से {{math|''k''!}} का अंश भी पूर्णांकन त्रुटि उत्पन्न कर सकता है| जो ''e<sup>{{mvar|λ}}</sup>'' की तुलना में बहुत बड़ी होती है, और इसलिए मानों '''गलत''' परिणाम देता है। इसलिए संख्यात्मक स्थिरता के लिए पॉइसन संभाव्यता द्रव्यमान फलन का मूल्यांकन इस प्रकार किया जाना चाहिए|
:<math>\!f(k; \lambda)= \exp \left[ k\ln \lambda  - \lambda  - \ln \Gamma (k+1) \right],</math>
:<math>\!f(k; \lambda)= \exp \left[ k\ln \lambda  - \lambda  - \ln \Gamma (k+1) \right],</math>
जो गणितीय रूप से समतुल्य है किंतु संख्यात्मक रूप से स्थिर है। [[गामा फ़ंक्शन|गामा]] फलन का प्राकृतिक लघुगणक का उपयोग करके प्राप्त किया जा सकता है <code>lgamma</code> C (प्रोग्रामिंग भाषा) मानक लाइब्रेरी (C99 संस्करण) या R (प्रोग्रामिंग भाषा) में फलन <code>gammaln</code> [[MATLAB]] या [[SciPy]] में फलन, या <code>log_gamma</code> [[फोरट्रान]] 2008 और पश्चात् में फलन।
जो गणितीय रूप से समतुल्य है किंतु संख्यात्मक रूप से स्थिर है। [[गामा फ़ंक्शन|गामा]] फलन का प्राकृतिक लघुगणक C मानक लाइब्रेरी (C99 संस्करण) या R में <code>lgamma</code> फलन, [[MATLAB|कारण]] या [[SciPy]] में <code>gammaln</code> फलन, या [[फोरट्रान]] 2008 और बाद में <code>log_gamma</code>फलन का उपयोग करके प्राप्त किया जा सकता है।


कुछ कंप्यूटिंग भाषाएं पॉइसन वितरण का मूल्यांकन करने के लिए अंतर्निहित फलन प्रदान करती हैं
कुछ कंप्यूटिंग भाषाएं पॉइसन वितरण का मूल्यांकन करने के लिए अंतर्निहित फलन प्रदान करती हैं
* आर (प्रोग्रामिंग भाषा): फलन <code>dpois(x, lambda)</code>;
* आर (प्रोग्रामिंग भाषा): फलन <code>dpois(x, lambda)</code>;
* [[ Microsoft Excel ]]: फलन <code>POISSON( x, mean, cumulative)</code>, संचयी वितरण को निर्दिष्ट करने के लिए ध्वज के साथ;
* [[ Microsoft Excel ]]: फलन <code>POISSON( x, mean, cumulative)</code>, संचयी वितरण को निर्दिष्ट करने के लिए निशान के साथ होता हैं|
* गणितज्ञ: अविभाज्य पॉइसन वितरण के रूप में <code>PoissonDistribution[<math>\lambda</math>]</code>,<ref name="WLPoissonRefPage">{{cite web |url = http://reference.wolfram.com/language/ref/PoissonDistribution.html |title = Wolfram Language: PoissonDistribution reference page |website = wolfram.com |access-date = 2016-04-08 }}</ref> द्विचर पॉइसन वितरण के रूप में <code>MultivariatePoissonDistribution[<math>\theta_{12},</math>{ <math>\theta_1 - \theta_{12},</math> <math>\theta_2 - \theta_{12}</math>}]</code>,.<ref name="WLMvPoissonRefPage">{{cite web |url = http://reference.wolfram.com/language/ref/MultivariatePoissonDistribution.html |title = Wolfram Language: MultivariatePoissonDistribution reference page |website = wolfram.com |access-date = 2016-04-08 }}</ref>
* गणितज्ञ: अविभाज्य पॉइसन वितरण के रूप में <code>PoissonDistribution[<math>\lambda</math>]</code>,<ref name="WLPoissonRefPage">{{cite web |url = http://reference.wolfram.com/language/ref/PoissonDistribution.html |title = Wolfram Language: PoissonDistribution reference page |website = wolfram.com |access-date = 2016-04-08 }}</ref> द्विचर पॉइसन वितरण के रूप में <code>MultivariatePoissonDistribution[<math>\theta_{12},</math>{ <math>\theta_1 - \theta_{12},</math> <math>\theta_2 - \theta_{12}</math>}]</code>,.<ref name="WLMvPoissonRefPage">{{cite web |url = http://reference.wolfram.com/language/ref/MultivariatePoissonDistribution.html |title = Wolfram Language: MultivariatePoissonDistribution reference page |website = wolfram.com |access-date = 2016-04-08 }}</ref>




=== यादृच्छिक भिन्न पीढ़ी ===
=== यादृच्छिक भिन्न पीढ़ी ===
{{further|Non-uniform random variate generation}}
{{further|गैर-समान यादृच्छिक विविधता पीढ़ी}}


कम तुच्छ फलन दिए गए पॉइसन वितरण से पूर्णांक यादृच्छिक चर निकालना है <math>\lambda.</math>
इसमें कुछ छोटे फलन दिए गए <math>\lambda.</math> के साथ पॉइसन वितरण से पूर्णांक यादृच्छिक चर निकालना रहता है|
समाधान इनके द्वारा प्रदान किए जाते हैं:
 
इनके द्वारा इसमें समाधान प्रदान किए जाते हैं|
* आर (प्रोग्रामिंग भाषा): फलन <code>rpois(n, lambda)</code>;
* आर (प्रोग्रामिंग भाषा): फलन <code>rpois(n, lambda)</code>;
* [[जीएनयू वैज्ञानिक पुस्तकालय]] (जीएसएल): फलन [https://www.gnu.org/software/gsl/doc/html/randist.html#the-poisson-distribution gsl_ran_poisson]
* [[जीएनयू वैज्ञानिक पुस्तकालय]] (जीएसएल): फलन [https://www.gnu.org/software/gsl/doc/html/randist.html#the-poisson-distribution gsl_ran_poisson]


[[डोनाल्ड नुथ]] द्वारा यादृच्छिक पॉइसन-वितरित संख्याएं ([[छद्म-यादृच्छिक संख्या नमूनाकरण]]) उत्पन्न करने के लिए सरल एल्गोरिदम दिया गया है:{{r|Knuth1997|p=137-138}}
यादृच्छिक पॉइसन-वितरित संख्याएं ([[छद्म-यादृच्छिक संख्या नमूनाकरण|छद्म-यादृच्छिक संख्या प्रतिरूपकरण]]) उत्पन्न करने के लिएमानोंसरल एल्गोरिदम [[डोनाल्ड नुथ]] द्वारा दिया गया है|
'''algorithm''' ''poisson random number (Knuth)'':
    '''init''':
        '''Let''' L ← ''e''<sup>−λ</sup>, k ← 0 and p ← 1.
    '''do''':
        k ← k + 1.
        Generate uniform random number u in [0,1] and '''let''' p ← p × u.
    '''while''' p > L.
    '''return''' k − 1.लौटाए गए मान {{mvar|k}}, में जटिलता रैखिक होता है, जो औसतन {{mvar|λ                                                                                                                    }} है। इसे सुधारने के लिए अनेक अन्य एल्गोरिदम हैं। अन्य अहरेंस और डाइटर में दिए गए हैं, जिन्हें नीचे {{slink||संदर्भ}} देखा जा सकता हैं|


एल्गोरिथम ''पॉइसन यादृच्छिक संख्या (नुथ)'':
इसमें {{mvar|λ                                                                                                }} के बड़े मानों के लिए, {{mvar|L}}= e<sup>−{{mvar|λ}}</sup> का मान इतना छोटा हो सकता है कि इसका प्रतिनिधित्व करना कठिन होता है। इसके एल्गोरिदम में परिवर्तन करके हल किया जा सकता है जो मानों अतिरिक्त पैरामीटर STEP का उपयोग करता है जैसे कि ''e''<sup>−STEP</sup> कुछ प्रवाहित नहीं होता है| [उद्धरण वांछित]  
  इस में:
  मान लीजिए L ← ''e''<sup>−λ</sup>, k ← 0 और p ← 1.
  करना:
  क ← क + 1.
  [0,1] में समान यादृच्छिक संख्या यू उत्पन्न करें और पी ← पी × यू दें।
  जबकि पी > एल.
  वापसी क − 1.


लौटाए गए मान में जटिलता रैखिक है {{mvar|k}}, जो है {{mvar|λ}} औसत पर। इसे सुधारने के लिए अनेक अन्य एल्गोरिदम हैं। कुछ अहरेंस और डाइटर में दिए गए हैं, देखें {{slink||References}} नीचे।
  '''algorithm''' ''poisson random number (Junhao, based on Knuth)'':
    '''init''':
        '''Let''' {{mvar|λ}}Left ← {{mvar|λ}}, k ← 0 and p ← 1.
    '''do''':
        k ← k + 1.
        Generate uniform random number u in (0,1) and '''let''' p ← p × u.
        '''while''' p < 1 and {{mvar|λ}}Left > 0:
            '''if''' {{mvar|λ}}Left > STEP:
                p ← p × ''e''<sup>STEP</sup>
                {{mvar|λ}}Left ← {{mvar|λ}}Left − STEP
            '''else''':
                p ← p × ''e''<sup>{{mvar|λ}}Left</sup>
                {{mvar|λ}}Left ← 0
    '''while''' p > 1.
    '''return''' k − 1.


के बड़े मूल्यों के लिए {{mvar|λ}}, का मान है {{mvar|L}} = और<sup>−{{mvar|λ}}</sup>इतना छोटा हो सकता है कि उसका प्रतिनिधित्व करना कठिन हो। इसे एल्गोरिदम में बदलाव करके हल किया जा सकता है जो अतिरिक्त पैरामीटर STEP का उपयोग करता है जैसे कि ई<sup>−STEP</sup> कम प्रवाहित नहीं होता:
इस प्रकार STEP का चुनाव अतिप्रवाह की सीमा पर निर्भर करता है। दोहरे परिशुद्धता फ़्लोटिंग पॉइंट प्रारूप के लिए सीमा ''e''<sup>700</sup> के समीप होता है, इसलिए 500 मानों सुरक्षित कदम होना चाहिए।{{r|Devroye1986|p=505}}


एल्गोरिथम ''पॉइसन यादृच्छिक संख्या (जुनहाओ, नुथ पर आधारित)'':
इसमें {{mvar|λ                                                                                                         }} के बड़े मानों के लिए अन्य समाधान में [[अस्वीकृति नमूनाकरण|अस्वीकृति प्रतिरूपकरण]] और गाऊसी सन्निकटन का उपयोग करना सम्मिलित होता हैं ।
  इस में:
  होने देना {{mvar|λ}}बाएं ← {{mvar|λ}}, k ← 0 और p ← 1.
  करना:
  क ← क + 1.
  (0,1) में समान यादृच्छिक संख्या u उत्पन्न करें और p ← p × u दें।
  जबकि पी <1 और {{mvar|λ}}बाएं > 0:
  यदि {{mvar|λ}}बाएं > चरण:
  पी ← पी × ई<sup>कदम</sup>
{{mvar|λ}}बाएं ← {{mvar|λ}}बाएँ - कदम
  अन्य:
  पी ← पी × ''ई''<sup>{{mvar|λ}}बाएं</sup>
{{mvar|λ}}बाएं ← 0
  जबकि पी > 1.
  वापसी क − 1.


STEP का चुनाव अतिप्रवाह की सीमा पर निर्भर करता है। दोहरे परिशुद्धता फ़्लोटिंग पॉइंट प्रारूप के लिए सीमा '''' के करीब है<sup>700</sup>, इसलिए 500 सुरक्षित कदम होना चाहिए।
इसमें {{mvar|λ                                                                                                              }} छोटे मानों के लिए [[व्युत्क्रम परिवर्तन नमूनाकरण|व्युत्क्रम परिवर्तन प्रतिरूपकरण]] सरल और कुशल है, और इसमें प्रति प्रतिरूप सिर्फ समान यादृच्छिक संख्या ''u'' की आवश्यकता होती है। और इस प्रकार संचयी संभावनाओं की बारी-बारी से जांच की जाती है| जब तक कि कोई ''u'' से अधिक नही होता हैं।<syntaxhighlight>
algorithm Poisson generator based upon the inversion by sequential search:[64]: 505 
    init:
        Let x ← 0, p ← e−λ, s ← p.
        Generate uniform random number u in [0,1].
    while u > s do:
        x ← x + 1.
        p ← p × λ / x.
        s ← s + p.
    return x.
</syntaxhighlight>


के बड़े मूल्यों के लिए अन्य समाधान {{mvar|λ}} [[अस्वीकृति नमूनाकरण]] और गाऊसी सन्निकटन का उपयोग करना सम्मिलित करें।
[[Category:Articles with hatnote templates targeting a nonexistent page]]
 
[[Category:CS1]]
छोटे मानों के लिए [[व्युत्क्रम परिवर्तन नमूनाकरण]] सरल और कुशल है {{mvar|λ}}, और प्रति नमूने केवल समान यादृच्छिक संख्या यू की आवश्यकता होती है। संचयी संभावनाओं की बारी-बारी से जांच की जाती है जब तक कि कोई यू से अधिक न हो जाए।
[[Category:CS1 Deutsch-language sources (de)]]
 
[[Category:CS1 Latina-language sources (la)]]
अनुक्रमिक खोज द्वारा व्युत्क्रम पर आधारित 'एल्गोरिदम' पॉइसन जनरेटर:{{r|Devroye1986|p=505}}
[[Category:CS1 dansk-language sources (da)]]
  इस में:
[[Category:CS1 français-language sources (fr)]]
  मान लीजिए x ← 0, p ← ''e''<sup>−λ</sup>, s ← p.
[[Category:Collapse templates]]
  [0,1] में समान यादृच्छिक संख्या यू उत्पन्न करें।
[[Category:Created On 07/07/2023]]
  जबकि आप ऐसा करते हैं:
[[Category:Lua-based templates]]
  एक्स ← एक्स + 1.
[[Category:Machine Translated Page]]
  पी ← पी × {{mvar|λ}} / एक्स।
[[Category:Multi-column templates]]
  s ← s + p.
[[Category:Navigational boxes| ]]
  वापसी एक्स.
[[Category:Navigational boxes without horizontal lists]]
[[Category:Pages using div col with small parameter]]
[[Category:Pages with maths render errors]]
[[Category:Pages with script errors]]
[[Category:Pages with syntax highlighting errors]]
[[Category:Short description with empty Wikidata description]]
[[Category:Sidebars with styles needing conversion]]
[[Category:Template documentation pages|Documentation/doc]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates generating microformats]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that are not mobile friendly]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:Templates using under-protected Lua modules]]
[[Category:Wikipedia fully protected templates|Div col]]
[[Category:Wikipedia metatemplates]]


== यह भी देखें ==
== यह भी देखें ==
Line 502: Line 534:
* गामा वितरण
* गामा वितरण
* हर्मिट वितरण
* हर्मिट वितरण
* फैलाव का सूचकांक
* बिखराव का सूचकांक
* नकारात्मक द्विपद वितरण
* ऋणात्मक द्विपद वितरण
* [[पॉइज़न क्लंपिंग]]
* [[पॉइज़न क्लंपिंग]]
* पॉइसन बिंदु प्रक्रिया
* पॉइसन बिंदु प्रक्रिया
* पॉइसन प्रतिगमन
* पॉइसन प्रतिगमन
* [[पॉइसन नमूनाकरण]]
* [[पॉइसन प्रतिरूप ]]
* [[पॉइसन वेवलेट]]
* [[पॉइसन वेवलेट]]
* [[कतारबद्ध सिद्धांत]]
* [[पंक्तिबद्ध सिद्धांत]]
* [[नवीकरण सिद्धांत]]
* [[नवीकरण सिद्धांत]]
* [[रॉबिन्स लेम्मा]]
* [[रॉबिन्स लेम्मा]]
Line 1,138: Line 1,170:
{{refend}}
{{refend}}


{{-}}
{{-}}{{Authority control}}
{{ProbDistributions|discrete-infinite}}
 
{{Authority control}}
 
श्रेणी:पॉइसन वितरण
श्रेणी: उदाहरण छद्मकोड वाले लेख
श्रेणी:पूर्व वितरणों को संयुग्मित करें
श्रेणी:कारकीय और द्विपद विषय
श्रेणी:असीम रूप से विभाज्य संभाव्यता वितरण
 


[[Category: Machine Translated Page]]
[[Category:Articles with hatnote templates targeting a nonexistent page]]
[[Category:CS1]]
[[Category:CS1 Deutsch-language sources (de)]]
[[Category:CS1 Latina-language sources (la)]]
[[Category:CS1 dansk-language sources (da)]]
[[Category:CS1 français-language sources (fr)]]
[[Category:Collapse templates]]
[[Category:Created On 07/07/2023]]
[[Category:Created On 07/07/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Multi-column templates]]
[[Category:Navigational boxes| ]]
[[Category:Navigational boxes without horizontal lists]]
[[Category:Pages using div col with small parameter]]
[[Category:Pages with maths render errors]]
[[Category:Pages with script errors]]
[[Category:Pages with syntax highlighting errors]]
[[Category:Sidebars with styles needing conversion]]
[[Category:Template documentation pages|Documentation/doc]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates generating microformats]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that are not mobile friendly]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:Templates using under-protected Lua modules]]
[[Category:Wikipedia fully protected templates|Div col]]
[[Category:Wikipedia metatemplates]]

Latest revision as of 13:38, 8 September 2023

संभाव्यता सिद्धांत और आंकड़ों में, पॉइसन वितरण असतत संभाव्यता वितरण है जो समय या सम्मिस्ट के निश्चित अंतराल में होने वाली घटनाओं की दी गई संख्या की संभावना को व्यक्त करता है यदि ये घटनाएं ज्ञात निरंतर औसत दर के साथ और स्वतंत्र रूप से समय से घटित होती हैं। अंतिम घटना[1] इसका नाम फ्रांसीसी गणितज्ञ शिमोन डेनिस पॉइसन (/ˈpwɑːsɒn/; French pronunciation: ​[pwasɔ̃]) के नाम पर रखा गया है। पॉइसन वितरण का उपयोग अन्य निर्दिष्ट अंतराल प्रकारों जैसे दूरी, क्षेत्र या आयतन में घटनाओं की संख्या के लिए भी किया जा सकता है। यह असतत-स्थिर वितरण के लिए महत्वपूर्ण भूमिका निभाता है।

उदाहरण के लिए, कॉल सेंटर को प्रतिदिन 24 घंटे प्रति घंटे औसतन 180 कॉल प्राप्त होती हैं। कॉल स्वतंत्र हैं; प्राप्त करने से अगला कब आएगा इसकी संभावना नहीं बदलती है। किसी भी मिनट के समय प्राप्त कॉलों की संख्या में माध्य 3 के साथ पॉइसन संभाव्यता वितरण होता है: सबसे अधिक संभावित संख्याएं 2 और 3 हैं किंतु 1 और 4 भी संभावित हैं और इसके शून्य के समान होने की बहुत कुछ संभावना है और बहुत कुछ संभावना है यह 10 हो सकता है.

एक अन्य उदाहरण परिभाषित अवलोकन अवधि के समय रेडियोधर्मी स्रोत से होने वाली क्षय घटनाओं की संख्या होती है।

इतिहास

वितरण पहली बार शिमोन डेनिस पॉइसन (1781-1840) द्वारा प्रस्तुत किया गया था और आपराधिक और नागरिक स्थितियों में निर्णय की संभावना पर उनके फलन अनुसंधान (1837) में उनके संभाव्यता सिद्धांत के साथ प्रकाशित किया गया था।[2]: 205-207  इस फलन ने कुछ यादृच्छिक चर पर N ध्यान केंद्रित करके किसी दिए गए देश में गलत सजाओं की संख्या के बारे में सिद्धांत दिया गया है जो अन्य बातबं के अतिरिक्त दी गई लंबाई के समय-अंतराल के समय होने वाली अलग-अलग घटनाओं (कभी-कभी घटनाएँ या आगमन भी कहा जाता है) की संख्या की गणना करता है। परिणाम पहले ही 1711 में अब्राहम डी मोइवरे द्वारा डी मेन्सुरा सॉर्टिस सेउ में दिया जा चुका था; लुडिस ए कैसु फोर्टुइटो पेंडेंटिबस में डी प्रोबेबिलिटेट इवेंटम है।[3]: 219 [4]: 14-15 [5]: 193 [6]: 157  यह इसे स्टिगलर के नियम का उदाहरण बनाता है और इसने कुछ लेखकों को यह तर्क देने के लिए प्रेरित किया जाता है कि पॉइसन वितरण पर डी मोइवर का नाम होना चाहिए।[7][8]

1860 में, साइमन न्यूकॉम्ब ने अंतरिक्ष की इकाई में पाए जाने वाले तारों की संख्या के लिए पॉइसन वितरण को फिट किया गया था।[9] इस वितरण का और वास्तविक अनुप्रयोग 1898 में लैडिस्लॉस बोर्टकिविज़ द्वारा किया गया था जब उन्हें प्रशिया सेना में घोड़े की लात से दुर्घटनावश मारे गए सैनिकों की संख्या की जांच करने का काम दिया गया था;[10]: 23-25  इस प्रयोग ने पॉइसन वितरण को विश्वसनीयता इंजीनियरिंग के क्षेत्र में प्रस्तुत किया था ।

परिभाषाएँ

प्रायिकता द्रव्यमान फलन

एक असतत यादृच्छिक चर X को पॉइसन वितरण कहा जाता है पैरामीटर के साथ यदि इसमें संभाव्यता द्रव्यमान फलन दिया गया है:[11]: 60 

जहाँ

  • k घटनाओं की संख्या () है
  • eई (गणितीय स्थिरांक) यूलर की संख्या () है|
  • ! भाज्य फलन है.

धनात्मक वास्तविक संख्या λ X के अपेक्षित मान और इसके विचरण के समान है।[12]

पॉइसन वितरण को बड़ी संख्या में दुर्लभ घटनाओं वाले प्रणाली पर प्रयुक्त किया जा सकता है | इस प्रकार बड़ी संख्या में संभावित घटनाएं, जिनमें से प्रत्येक दुर्लभ है। निश्चित समय अंतराल के समय होने वाली ऐसी घटनाओं की संख्या, सही परिस्थितियों में पॉइसन वितरण के साथ यादृच्छिक संख्या होती है।

समीकरण को अनुकूलित किया जा सकता है यदि, घटनाओं की औसत संख्या के अतिरिक्त हमें वह औसत दर दी जाए जिस पर घटनाएं घटित होती हैं। फिर और:[13]


उदाहरण

Chewing gum on a sidewalk in Reykjavík.
फुटपाथ पर च्युइंग गम चबाना। में टाइल पर च्युइंग गम की संख्या लगभग पॉइसन वितरित होती है।

पॉइसन वितरण निम्नलिखित घटनाओं को मॉडल करने के लिए उपयोगी हो सकता है:

  • एक वर्ष में पृथ्वी से टकराने वाले 1 मीटर से अधिक व्यास वाले उल्कापिंडों की संख्या हैं|
  • एक विशेष समय अंतराल में डिटेक्टर से टकराने वाले लेजर फोटॉनों की संख्या होती हैं|
  • किसी परीक्षा में निम्न और उच्च अंक प्राप्त करने वाले छात्रों की संख्या हैं।

मान्यताएँ और वैधता

यदि निम्नलिखित धारणाएँ सत्य हैं तब पॉइसन वितरण उपयुक्त मॉडल होता है|[14]

  • k किसी अंतराल में किसी घटना के घटित होने की संख्या है और k मान 0, 1, 2,.. ले सकता है।
  • एक घटना के घटित होने से दूसरी घटना घटित होने की संभावना प्रभावित नहीं होती हैं। अर्थात् घटनाएँ स्वतंत्र रूप से घटित होती हैं।
  • घटनाएँ घटित होने की औसत दर किसी भी घटना से स्वतंत्र होती है। सरलता के लिए, इसे सामान्यतः स्थिर माना जाता है, किंतु व्यवहार में समय के साथ इसमें परिवर्तन हो सकता है।
  • दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं हैं| इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तब बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।

यदि ये स्थितियाँ सत्य हैं, तब k पॉइसन यादृच्छिक चर होता है, और k का वितरण पॉइसन वितरण होता है।

यदि पॉइसन वितरण भी द्विपद वितरण की सीमा (गणित) होती है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना परीक्षणों की संख्या से विभाजित λ समान होती है चूँकि परीक्षणों की संख्या अनंत तक पहुंचती है (या संबंधित वितरण देखें)।

पॉइसन वितरण के लिए संभाव्यता के उदाहरण

अंतराल में बार होने वाली घटनाएँ: का विशेष स्थितिया λ=1 और k = 0

मान लीजिए कि खगोलविदों का अनुमान है कि बड़े उल्कापिंड (एक निश्चित आकार से ऊपर) होते हैं और यहऔसतन हर 100 साल में एक बार पृथ्वी से टकराते हैं ( λ = 1 प्रति 100 वर्ष घटना), और यह कि उल्कापिंड के टकराने की संख्या पॉइसन वितरण के अनुसार होती है। अगले 100 वर्षों में k = 0 उल्कापिंड के टकराने की संभावना क्या है?

इन धारणाओं के अनुसार, संभावना है कि अगले 100 वर्षों में कोई बड़ा उल्कापिंड पृथ्वी से नहीं टकराएगा, यह लगभग 0.37 होता है। शेष 1 − 0.37 = 0.63 और इसमें अगले 100 वर्षों में 1, 2, 3 या अधिक बड़े उल्कापिंडों के टकराने की संभावना है। उपरोक्त उदाहरण में, हर 100 साल में एक बार अतिप्रवाह बाढ़ आती है और (λ = 1). इसी गणना के अनुसार, 100 वर्षों में अतिप्रवाह बाढ़ न आने की संभावना लगभग 0.37 होती थी।

सामान्यतः, यदि कोई घटना प्रति अंतराल में औसतन बार घटित होती है (λ = 1), और यह घटनाएँ पॉइसन वितरण का अनुसरण करती हैं और P(अगले अंतराल में 0 घटनाएं = 0.37. होता हैं| इसके साथ ही, P(अगले अंतराल में बिल्कुल एक घटना) = 0.37, होती हैं |जैसा कि अतिप्रवाह बाढ़ के लिए तालिका में दिखाया गया है।

उदाहरण जो पॉइसन मान्यताओं का उल्लंघन करते हैं

प्रति मिनट छात्र केंद्र पर पहुंचने वाले छात्रों की संख्या संभवतः पॉइसन वितरण का पालन नहीं करेगी, चूँकि इसकी दर स्थिर नहीं होती है और (कक्षा समय के समय कुछ दर, कक्षा समय के मध्य उच्च दर) और व्यक्तिगत छात्रों का आगमन स्वतंत्र नहीं होता है| और (छात्र समूहों में आते हैं)। इस प्रकार गैर-निरंतर आगमन दर को मिश्रित पॉइसन वितरण के रूप में और व्यक्तिगत छात्रों के अतिरिक्त समूहों के आगमन को मिश्रित पॉइसन प्रक्रिया के रूप में तैयार किया जा सकता है।

किसी देश में प्रति वर्ष 5 तीव्रता वाले भूकंपों की संख्या पॉइसन वितरण के अनुरूप नहीं हो सकती है, यदि बड़ा भूकंप समान तीव्रता के झटकों की संभावना को बढ़ा देता है।

ऐसे उदाहरण जिनमें कुछ से कुछ घटना की गारंटी होती है, और यह पॉइसन वितरित नहीं होती हैं; किंतु इसे शून्य-ट्रंकेटेड पॉइसन वितरण का उपयोग करके मॉडल को तैयार किया जा सकता है।

इस प्रकार ऐसे वितरणों की गणना करें जिनमें शून्य घटनाओं वाले अंतरालों की संख्या पॉइसन मॉडल द्वारा अनुमानित की तुलना में अधिक होती है,और शून्य-फुलाए गए मॉडल का उपयोग करके मॉडलिंग की जा सकती है।

वर्णनात्मक आँकड़े

  • पॉइसन-वितरित यादृच्छिक चर का अपेक्षित मान और विचरण दोनों λ समान होते हैं| .
  • भिन्नता का गुणांक होता है जबकि फैलाव का सूचकांक 1 है।[6]: 163 
  • माध्य के सापेक्ष माध्य निरपेक्ष विचलन होता है| [6]: 163 
  • गैर-पूर्णांक λ के साथ पॉइसन-वितरित यादृच्छिक चर का मोड (सांख्यिकी) के समान होता है जो λ इससे कुछ या इसके समान का सबसे बड़ा पूर्णांक है . इसे फर्श फलन (λ) के रूप में भी लिखा जाता है और जब λ धनात्मक पूर्णांक होता है, तब मोड λ बहुलक हैं और λ − 1 बहुलक होता हैं|
  • पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य λ के समान हैं| और वह n पॉइसन वितरण का nवां तथ्यात्मक क्षण λ n होता है|
  • पॉइसन प्रक्रिया का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है| और इस प्रकार (या सामान्यतः समय या सम्मिस्ट पर तीव्रता फलन के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।[16]

माध्यिका

माध्यिका के लिए सीमा () के वितरण ज्ञात होते हैं और यह गणितीय शब्दजाल या तीव्र होते हैं:[17]

उच्चतर क्षण

उच्च गैर-केन्द्रित क्षण (गणित), पॉइसन वितरण के mk , λ में, टचर्ड बहुपद होते हैं|

जहां ब्रेसिज़ दूसरी तरह की स्टर्लिंग संख्याओं को दर्शाते हैं।[18][1]: 6  वही बहुपदों के गुणांकों का संयोजक अर्थ होता है। और वास्तव में, जब पॉइसन वितरण का अपेक्षित मूल्य 1 के समान होता है, तब डोबिंस्की का सूत्र कहता है कि n‑वां क्षण आकार n के समुच्चय के विभाजन की संख्या के समान होता है|

और यह साधारण सीमा होती है|[19]

पॉइसन-वितरित यादृच्छिक चर का योग

यदि के लिए स्वतंत्र होते हैं, तब [20]: 65  व्युत्क्रम रायकोव का प्रमेय होता है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तब उन दो में प्रत्येक स्वतंत्र चर जैसे होते हैं तब यादृच्छिक चर भी वैसा ही होता है।[21][22]

अन्य गुण

  • पॉइसन वितरण अनंत विभाज्यता (संभावना) संभाव्यता वितरण होता हैं।[23]: 233 [6]: 164 
  • से का निर्देशित कुल्बैक-लीब्लर विचलन द्वारा दिया गया है
  • यदि पूर्णांक है,तब और को संतुष्ट करता है।[24]
  • पॉइसन यादृच्छिक चर की अंतिम संभावनाओं के लिए सीमाएं चेर्नॉफ़ बाध्य तर्क का उपयोग करके प्राप्त किया जा सकता है।
  • पॉइसन यादृच्छिक चर की अंतिम संभावनाओं की सीमाएं तर्क का उपयोग करके प्राप्त की जा सकती हैं।[[25]: 97-98 
  • अपर टेल की संभावना को निम्नानुसार (कुछ से कुछ दो के कारक द्वारा) कड़ा किया जा सकता है|[26]
    जहाँ निर्देशित कुल्बैक-लीब्लर विचलन है। जैसा कि ऊपर वर्णित हुआ है|
  • असमानताएं जो पॉइसन यादृच्छिक चर के वितरण फलन को मानक सामान्य वितरण फलन से संबंधित करती हैं वे इस प्रकार होते हैं| [26]
    जहाँ यह फिर से निर्देशित कुल्बैक-लीब्लर विचलन होता है।

पॉइसन रेस

मान लीजिए कि और स्वतंत्र यादृच्छिक चर हैं, के साथ तब हमारे पास वह है|


ऊपरी सीमा को मानक चेर्नॉफ़ बाउंड का उपयोग करके सिद्ध किया जाता है।

निचली सीमा को यह नोट करके सिद्ध किया जा सकता है किसंभावना यह है कि जहाँ होता है|

जो नीचे से घिरा है जहां सापेक्ष एन्ट्रॉपी है (विवरण के लिए द्विपद वितरण की टेल पर सीमा पर प्रविष्टि देखें) जा सकते हैं। इसके अतिरिक्त यह ध्यान में रखते हुए कि और बिना परंतु संभाव्यता पर निचली सीमा की गणना करने से परिणाम मिलता रहता है। और अधिक विवरण कामथ एट अल के परिशिष्ट में पाया जा सकता है|[27]

संबंधित वितरण

अनंत समय-चरणों के साथ द्विपद वितरण के रूप में

पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है चूँकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है| - नीचे दुर्लभ घटनाओं का नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि n पर्याप्त रूप से बड़ा होता है और p पर्याप्त रूप से छोटा होता है। यदि n कुछ से कुछ 20 है और p 0.05 से छोटा या उसके समान है, तब पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन होता है, और यदि n ≥ 100 और n p ≤ 10 है तब यहाँ उत्कृष्ट सन्निकटन होता है।[28]

सामान्य

  • यदि और स्वतंत्र होता हैं, फिर अंतर स्केलम वितरण का अनुसरण करता है।
  • यदि और स्वतंत्र हैं, तब पर परंतु का वितरण द्विपद वितरण होता है।
  • विशेष रूप से, यदि तब अधिक सामान्यतः, यदि X1, X2, ..., Xn मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर होते हैं λ1, λ2, ..., λn तब
    दिया गया यह इस प्रकार है कि वास्तव में हैं|
  • यदि और का वितरण द्विपद वितरण है, X=k तब Y का वितरण पॉइसन वितरण का अनुसरण करता है| और वास्तव में, यदि, पर परंतु बहुपद वितरण का अनुसरण करता है, तब प्रत्येक स्वतंत्र पॉइसन वितरण का अनुसरण\ करता रहता है|
  • पॉइसन वितरण सिर्फ पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या स्तूट्रिंग पॉइसन वितरण) की विशेष स्थितिया होती है। [29][30] और इस प्रकार यह असतत यौगिक पॉइसन वितरण को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण के विशेष स्थितियों में होता हैं।
  • λ, (मान लीजिए λ >1000) के पर्याप्त बड़े मानों के लिए, माध्य, λ और विचरण λ (मानक विचलन ) के साथ सामान्य वितरण पॉइसन वितरण के लिए उत्कृष्ट सन्निकटन है। और यदि λ से अधिक है, लगभग 10, तब सामान्य वितरण अच्छा सन्निकटन होता है यदि इसमें सदैव उचित निरंतरता सुधार किया जाता है, अर्थात, यदि P(Xx), जहां x गैर-ऋणात्मक पूर्णांक होता है, तब इसको P(Xx + 0.5) द्वारा प्रतिस्थापित किया जाता है|
  • विचरण-स्थिरीकरण परिवर्तन: यदि हैं तब[6]: 168 
    और[31]: 196 
    इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे बढ़ता है) और यह अपरिवर्तित चर की तुलना में कहीं अधिक तीव्र भी होते है।
  • अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध होते हैं| [6]: 168  जिनमें से यह अन्स्कोम्बे परिवर्तन है।[32] परिवर्तनों के अधिक सामान्य उपयोग के लिए डेटा परिवर्तन (सांख्यिकी) देखें।
  • यदि प्रत्येक t > 0 के लिए समय अंतराल में आगमन की संख्या [0, t] माध्य λt के साथ पॉइसन वितरण का अनुसरण करता है| इस प्रकार यह अंतर-आगमन समय का क्रम स्वतंत्र होता है और यह समान रूप से वितरित घातीय वितरण यादृच्छिक चर होते हैं जिनका माध्य 1/λ होता है| [33]: 317–319 
  • पॉइसन और ची-वर्ग वितरण के संचयी वितरण फलन निम्नलिखित विधियोंं से संबंधित हैं:[6]: 167 
    और [6]: 158 

पॉइसन सन्निकटन

मान लीजिए जहाँ तब[34] बहुपद वितरण है पर या वातानुकूलित होते हैं इसका कारण यह है[25]: 101-102 , कि अन्य बात के अतिरिक्त , किसी भी गैर-ऋणात्मक फलन के लिए यदि तब यह बहुराष्ट्रीय रूप से वितरित किया जाता है|

जहाँ

इसका कारक यदि 2 से प्रतिस्थापित किया जा सकता है यह माना जाता है कि यह नीरस रूप से बढ़ रहा है या घट रहा है।

द्विचर पॉइसन वितरण

इस वितरण को संयुक्त संभाव्यता वितरण स्थितियों तक बढ़ा दिया गया है।[35] इस वितरण के लिए जनरेटिंग फलन होते है|

और इसके साथ
यह सीमांत वितरण पॉइसन (θ1) और पॉइसन होते हैं| जो (θ2) और सहसंबंध गुणांक सीमा तक सीमित होते है|
द्विचर पॉइसन वितरण उत्पन्न करने की सरल विधि हैं यह तीन स्वतंत्र पॉइसन वितरण को माध्य के साथ लेना होता है और फिर यह द्विचर पॉइसन वितरण की संभाव्यता फलन होते है|

मुफ्त पॉइसन वितरण

जंप आकार और दर के साथ निःशुल्क पॉइसन वितरण होते हैं | [36] और यह निःशुल्क संभाव्यता सिद्धांत में बार-बार निःशुल्क कनवल्शन की सीमा के रूप में उत्पन्न होता है|

जैसा कि N → ∞. हैं|

दूसरे शब्दों में, चलो यादृच्छिक चर बनें ताकि यह मूल्य है| और यह संभाव्यता के साथ और शेष प्रायिकता के साथ मान 0 होता है। यह भी मान लें कि परिवार स्वतंत्र स्वतंत्रता होते हैं और फिर यह सीमा के रूप में के नियम का फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है| यह परिभाषा उन विधियोंं में से उनके अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है।

दूसरे शब्दों में, मान लीजिए कि यादृच्छिक चर है ताकि का मान हो और संभावना हो और शेष प्रायिकता के साथ मान 0 हैं। तब यह भी मान लें कि परिवार स्वतंत्र रूप से स्वतंत्र होते हैं। और फिर के नियम की सीमा निःशुक्ल पॉइसन नियम द्वारा पैरामीटर्स के साथ दी गई है|

निःशुल्क पॉइसन नियम से संबंधित माप जिसके द्वारा दिया गया है| [37]

जहाँ
और इसका समर्थन है यह नियम मार्चेंको-पास्टूर नियम के रूप में यादृच्छिक आव्युह सिद्धांत में भी उत्पन्न होता है। इसके निःशुल्क क्यूमुलेंट के समान होते हैं

इस नियम के कुछ परिवर्तन

हम निःशुल्क पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है A नीका और R स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में [38]

निःशुल्क पॉइसन नियम का R-रूपांतरण किसके द्वारा दिया गया है?


कॉची ट्रांसरूप (जो स्टिल्टजेस परिवर्तन का ऋणात्मक है) द्वारा दिया गया है


S-परिवर्तन द्वारा दिया गया है

उस स्थितियों में

वेइबुल और स्थिर गिनती

पॉइसन की संभाव्यता द्रव्यमान फलन वेइबुल वितरण के उत्पाद वितरण रूप और स्थिर गणना वितरण के भिन्न रूप के समान रूप में व्यक्त किया जा सकता है। चर स्थिर गणना वितरण में लेवी के स्थिरता पैरामीटर के विपरीत माना जा सकता है|


जहाँ आकृति का मानक स्थिर गणना वितरण है और आकार का मानक वेइबुल वितरण है

सांख्यिकीय अनुमान

पैरामीटर अनुमान

i = 1, ..., n,के लिए n मापे गए मानों के प्रतिरूप को देखते हुए, हम पॉइसन संख्या के पैरामीटर λ के मूल्य का अनुमान लगाना चाहते हैं, जहां से प्रतिरूप लिया गया था। अधिकतम संभावना अनुमान है| [39]

चूँकि प्रत्येक अवलोकन में अपेक्षा λ होती है, इसलिए प्रतिरूप का कारण भी होता है। इसलिए, अधिकतम संभावना अनुमान λ का निष्पक्ष अनुमानक भी है। यह कुशल अनुमानक भी है चूँकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है[40]। इसलिए यह न्यूनतम-विचरण निष्पक्ष अनुमानक है। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए प्रतिरूप का कारण है चूँकि यह योग का एक-से-एक फलन है) λ के लिए पूर्ण और पर्याप्त आँकड़ा है।

पर्याप्तता सिद्ध करने के लिए हम गुणनखंडन प्रमेय पर्याप्त आँकड़े का उपयोग कर सकते हैं। प्रतिरूप के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान फलन को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से प्रतिरूप पर निर्भर करता है (जिसे कहा जाता है)) और जो पैरामीटर और प्रतिरूप पर निर्भर करता है सिर्फ फलन के माध्यम से तब के लिए पर्याप्त आँकड़ा है

पहला पद, सिर्फ पर निर्भर करता है दूसरा पद, सिर्फ के माध्यम से प्रतिरूप पर निर्भर करता है, इस प्रकार पर्याप्त है।

पैरामीटर λ को खोजने के लिए जो पॉइसन संख्या के लिए संभाव्यता फलन को अधिकतम करता है, हम संभावना फलन के लघुगणक का उपयोग कर सकते हैं:

हम λ के संबंध में का व्युत्पन्न लेते हैं और इसकी तुलना शून्य से करते हैं:

λ को हल करने पर स्थिर बिंदु मिलता है।

इसलिए λ ki मानो का औसत है| स्थिर बिंदु पर L के दूसरे अवकलज का चिन्ह प्राप्त करने से यह निर्धारित होगा कि λ किस प्रकार का चरम मान है

स्थिर बिंदु पर दूसरे व्युत्पन्न का मूल्यांकन करने पर यह मिलता है:

जो ki के औसत के व्युत्क्रम n गुना का ऋणात्मक है औसत धनात्मक होने पर यह अभिव्यक्ति ऋणात्मक होती है। यदि यह संतुष्ट है, तब स्थिर बिंदु संभाव्यता फलन को अधिकतम करता है।

पूर्णता (सांख्यिकी) के लिए, वितरण के परिवार को पूर्ण कहा जाता है यदि और सिर्फ यदि का तात्पर्य सभी के लिए हो। यदि व्यक्ति आईआईडी हैं तब जिस वितरण की हम जांच करना चाहते हैं उसे जानने से, यह देखना सरल है कि आँकड़ा पूरा हो गया है।

इस समानता को बनाए रखने के लिए, होना चाहिए| 0 यह इस तथ्य से पता चलता है कि सभी के योग के लिए और के सभी संभावित मानों के लिए अन्य कोई भी पद 0 नहीं होगा, इसलिए, सभी के लिए का तात्पर्य है कि और आँकड़ा पूर्ण दिखाया गया है।

आत्मविश्वास अंतराल

पॉइसन वितरण के माध्य के लिए विश्वास अंतराल को पॉइसन और ची-स्क्वायर वितरण के संचयी वितरण कार्यों के बीच संबंध का उपयोग करके व्यक्त किया जा सकता है। ची-वर्ग वितरण स्वयं गामा वितरण से निकटता से संबंधित है, और यह वैकल्पिक अभिव्यक्ति की ओर ले जाता है। माध्य μ के साथ पॉइसन वितरण से अवलोकन k को देखते हुए, आत्मविश्वास स्तर 1 – α के साथ μ के लिए विश्वास अंतराल है

या समकक्ष,

जहां स्वतंत्रता की n डिग्री के साथ ची-वर्ग वितरण का क्वांटाइल फलन (निचले टेल क्षेत्र p के अनुरूप) है और आकार पैरामीटर n और स्केल पैरामीटर 1 के साथ गामा वितरण का क्वांटाइल फलन है।[6]: 176-178 [41] यह अंतराल इस अर्थ में 'स्पष्ट आँकड़े' है कि कवरेज संभावना कभी भी नाम मात्र 1 – α से कुछ नहीं होती है।

जब गामा वितरण की मात्राएँ उपलब्ध नहीं होती हैं, तब इस स्पष्ट अंतराल का स्पष्ट अनुमान प्रस्तावित किया गया है| यह (विल्सन-हिल्फ़र्टी परिवर्तन के आधार पर)होता हैं |[42]


जहां अपर टेल क्षेत्र α / 2 के साथ मानक सामान्य विचलन को दर्शाता है।

उपरोक्त के समान संदर्भ में इन फ़ार्मुलों के अनुप्रयोग के लिए (माध्य λ के साथ पॉइसन वितरण से लिए गए प्रत्येक n मापित मानों ki प्रतिरूप दिया गया है),का समुच्चय होता हैं |

μ = n λ ,के लिए अंतराल की गणना करें और फिर λ इसके लिए अंतराल प्राप्त करें |

बायेसियन अनुमान

बायेसियन अनुमान में, पॉइसन वितरण के दर पैरामीटर λ के लिए संयुग्मित पूर्व गामा वितरण होने देना है।[43]

उसे निरूपित करें कि λ को गामा संभाव्यता घनत्व g के अनुसार आकार पैरामीटर α और व्युत्क्रम स्केल पैरामीटर β के संदर्भ में वितरित किया जाता है |

फिर, पहले की तरह n मापा मानों ki का ही प्रतिरूप दिया गया है, और गामा (α, β) से पहले,पश्च वितरण होता है|

ध्यान दें कि पिछला माध्य रैखिक होता है और इसके द्वारा दिया गया है|

यह दिखाया जा सकता है कि गामा वितरण ही एकुछात्र पूर्व है जो सपरंतु माध्य की रैखिकता को प्रेरित करता है। इसके अतिरिक्त , विपरीत परिणाम उपस्थित है जो बताता है कि यदि सपरंतु माध्य दूरी में रैखिक फलन के पास होता है| तब λ के पूर्व वितरण की लेवी दूरी में गामा वितरण के पास होना चाहिए।[44]

पश्च माध्य E[λ] सीमा में के रूप में अधिकतम संभावना अनुमान तक पहुंचता है जो गामा वितरण के माध्य की सामान्य अभिव्यक्ति से तुरंत अनुसरण करता है।

एकल अतिरिक्त अवलोकन के लिए पश्च भविष्य कहने वाला वितरण ऋणात्मक द्विपद वितरण है,[45]: 53  जिसे कभी-कभी गामा-पॉइसन वितरण भी कहा जाता है।

एकाधिक पॉइसन का साथ अनुमान का अर्थ है

मान लीजिए पॉइसन वितरण के समुच्चय से स्वतंत्र यादृच्छिक चर का समुच्चय होता है, प्रत्येक पैरामीटर के साथ होता है और हम इन मापदंडों का अनुमान लगाना चाहते हैं। फिर, क्लेवेन्सन और ज़िडेक दिखाते हैं कि सामान्यीकृत वर्ग त्रुटि हानि तब, हैं| फिर सामान्य साधनों के लिए स्टीन के उदाहरण के समान, एमएलई अनुमानक स्वीफलन निर्णय नियम होता है। [46]

इस स्थिति में, किसी के लिए मिनिमैक्स अनुमानको का परिवार दिया गया है जिसे और जैसा होता हैं|

इस स्थिति में, किसी भी और के लिए मिनिमैक्स अनुमानको का परिवार दिया गया है| जैसे [47]

घटना और अनुप्रयोग

पॉइसन वितरण के अनुप्रयोग अनेक क्षेत्रों में पाए जा सकते हैं जिनमें सम्मिलित हैं|[48]

  • सामान्य रूप से डेटा की गणना करें
  • दूरसंचार उदाहरण: प्रणाली में आने वाली टेलीफोन कॉलें।
  • खगोल विज्ञान उदाहरण: दूरबीन पर आने वाले फोटॉन।
  • रसायन विज्ञान उदाहरण: सजीव पोलीमराइजेशन का दाढ़ द्रव्यमान वितरण[49]
  • जीवविज्ञान उदाहरण: प्रति इकाई लंबाई डीएनए के स्ट्रैंड पर उत्परिवर्तन की संख्या।
  • प्रबंधन उदाहरण: गणना फलक या कॉल सेंटर पर पहुंचने वाले ग्राहक।
  • वित्त और बीमा उदाहरण: किसी निश्चित समयावधि में होने वाले हानि या दावों की संख्या।
  • भूकंप भूकंप विज्ञान उदाहरण: बड़े भूकंपों के लिए भूकंपीय कठिन परिस्थिति का स्पर्शोन्मुख पॉइसन मॉडल।[50]
  • रेडियोधर्मिता उदाहरण: रेडियोधर्मी प्रतिरूप में निश्चित समय अंतराल में क्षय की संख्या।
  • प्रकाशिकी उदाहरण: लेजर पल्स में उत्सर्जित फोटॉन की संख्या हैं। यह अधिकांश क्वांटम कुंजी वितरण प्रोटोकॉल के लिए प्रमुख भेजता है जिसे फोटॉन नंबर विभाजन (पीएनएस) के रूप में जाना जाता है।

पॉइसन वितरण पॉइसन प्रक्रियाओं के संबंध में उत्पन्न होता है। यह असतत गुणों की विभिन्न घटनाओं पर प्रयुक्त होता है (अर्थात्, जो किसी निश्चित अवधि के समय या किसी दिए गए क्षेत्र में 0, 1, 2, 3, ... बार घटित हो सकती हैं) और जब भी घटना के घटित होने की संभावना समय में स्थिर होती है या इसमें अंतरिक्ष घटनाओं के उदाहरण जिन्हें पॉइसन वितरण के रूप में तैयार किया जा सकता है, यह उनमें सम्मिलित होते हैं|

  • प्रशिया की घुड़सवार सेना में प्रत्येक कोर में हर साल घोड़े की लात से मारे गए सैनिकों की संख्या कितनी होती हैं| इस उदाहरण का उपयोग लैडिस्लॉस बोर्टकिविज़ (1868-1931) की पुस्तक में किया गया था।[10]: 23-25 
  • गिनीज बियर बनाते समय उपयोग की जाने वाली यीस्ट कोशिकाओं की संख्या। इस उदाहरण का उपयोग विलियम सीली गॉसेट (1876-1937) द्वारा किया गया था।[51][52]
  • किसी कॉल सेंटर पर मिनट के भीतर आने वाली फ़ोन कॉल की संख्या। इस उदाहरण का वर्णन ए.के. द्वारा किया गया था। एर्लांग (1878-1929)|[53]
  • इंटरनेट ट्रैफिक.
  • दो प्रतिस्पर्धी टीमों से जुड़े खेलों में लक्ष्यों की संख्या होती हैं।[54]
  • किसी दिए गए आयु वर्ग में प्रति वर्ष होने वाली मौत की संख्या होती हैं।
  • एक निश्चित समय अंतराल में भंडार मूल्य में उछाल की संख्या होता हैं।
  • पॉइसन प्रक्रिया या सजातीय की धारणा के अनुसार, प्रति मिनट वेब सर्वर तक पहुंचने की संख्या को कहते हैं।
  • विकिरण की निश्चित मात्रा के पश्चात् डीएनए के निश्चित विस्तार में उत्परिवर्तन की संख्या होती हैं।
  • कोशिकाओं (जीव विज्ञान) का अनुपात जो संक्रमण की दी गई बहुलता पर संक्रमित होता हैं।
  • इसमें द्रव की निश्चित मात्रा में जीवाणुओं की संख्या होती हैं।[55]
  • एक निश्चित रोशनी और निश्चित समय अवधि में पिक्सेल परिपथ पर फोटॉन का आगमन होता हैं।
  • द्वितीय विश्व युद्ध के समय लंदन पर वी-1 उड़ने वाले बमों को निशाना बनाने की जांच 1946 में आर. डी. क्लार्क द्वारा की गई हैं| [56]

गैलाघेर ने 1976 में दिखाया कि छोटे अंतरालों में अभाज्य संख्याओ की गिनती पॉइसन वितरण का पालन करती है|[57] परंतु हार्डी-लिटलवुड के अप्रमाणित अभाज्य आर-ट्यूपल अनुमान का मानों निश्चित संस्करण सत्य होता हैं|[58]

दुर्लभ घटनाओं का नियम

पॉइसन वितरण (काली रेखाएं) और द्विपद वितरण की तुलना n = 10 (लाल वृत्त), n = 20 (नीले वृत्त), n = 1000 (हरे वृत्त). सभी वितरणों का माध्य 5 है। क्षैतिज अक्ष घटनाओं की संख्या दर्शाता हैk. जैसा n बड़ा हो जाता है, पॉइसन वितरण समान माध्य के साथ द्विपद वितरण के लिए तेजी से उत्तम सन्निकटन बन जाता है।

किसी घटना की दर किसी छोटे उपअंतराल (समय, सम्मिस्ट या अन्य) में घटित होने वाली घटना की संभावना से संबंधित होती है। पॉइसन वितरण के स्थितियों में, कोई यह मानता है कि छोटा पर्याप्त उपअंतराल उपस्थित है जिसके लिए किसी घटना के दो बार घटित होने की संभावना नगण्य है। इस धारणा के साथ कोई भी द्विपद वितरण से पॉइसन वितरण प्राप्त कर सकता है, सिर्फ पूरे अंतराल में कुल घटनाओं की अपेक्षित संख्या की जानकारी दी गई है।

मान लीजिए कि पूरे अंतराल में घटनाओं की कुल संख्या को द्वारा दर्शाया गया है, पूरे अंतराल को समान आकार के उपअंतराल में विभाजित करें, जैसे कि (चूँकि हम अंतराल के सिर्फ बहुत छोटे भागो में रुचि रखते हैं) यह धारणा सार्थक है)। इसका कारण यह है कि प्रत्येक n उपअंतराल में घटनाओं की अपेक्षित संख्या के समान है| अब हम मान लेते हैं कि पूरे अंतराल में किसी घटना की घटना को n बर्नौली परीक्षण के अनुक्रम के रूप में देखा जा सकता है, जहां -वें बर्नौली परीक्षण यह देखने से मेल खाता है कि क्या कोई घटना उपअंतराल पर संभाव्यता के साथ होती है ऐसे परीक्षणों में n कुल घटनाओं की अपेक्षित संख्या होगी पूरे अंतराल में कुल घटनाओं की अपेक्षित संख्या। इसलिए अंतराल के प्रत्येक उप-अंतराल के लिए हमने घटना की घटना को रूप की बर्नौली प्रक्रिया के रूप में अनुमानित किया है जैसा कि हमने पहले नोट किया है, हम सिर्फ बहुत छोटे उप-अंतराल पर विचार करना चाहते हैं। इसलिए, हम सीमा लेते हैं चूँकि n अनंत तक जाता है।

इस स्थितियों में द्विपद वितरण पॉइसन सीमा प्रमेय द्वारा पॉइसन वितरण के रूप में जाना जाता है।

उपरोक्त अनेक उदाहरणों में - जैसे, डीएनए के दिए गए अनुक्रम में उत्परिवर्तन की संख्या - गिनाई जा रही घटनाएं वास्तव में यह अलग-अलग परीक्षणों के परिणाम होता हैं, और इसमें अधिक स्पष्ट रूप से द्विपद वितरण का उपयोग करके मॉडलिंग की जाती हैं, जो अर्थात इस प्रकार हैं|

इस प्रकार के स्थितियों में n बहुत बड़ा है और p बहुत छोटा है (और इसलिए n p अपेक्षा भी मध्यवर्ती परिमाण का है)। तब वितरण का अनुमान कुछ भारी पॉइसन वितरण द्वारा लगाया जा सकता है


इस सन्निकटन को कभी-कभी दुर्लभ घटनाओं के नियम के रूप में जाना जाता है, [59]: 5  चूँकि प्रत्येक n व्यक्तिगत बर्नौली वितरण संभवतः ही कभी भी हो सकता है।

इस प्रकार "दुर्लभ घटनाओं का नियम" नाम भ्रामक हो सकता है चूँकि यदि पैरामीटर n p छोटा नहीं है| तब पॉइसन प्रक्रिया में सफलता की घटनाओं की कुल संख्या दुर्लभ होने की आवश्यकता नहीं होती है। उदाहरण के लिए,मानों घंटे में मानों व्यस्त स्विचबोर्ड पर टेलीफोन कॉल की संख्या पॉइसन वितरण के अनुसार होती है, जिसमें घटनाएँ प्रचालक को बार-बार दिखाई देती हैं, किंतु वे जनसंख्या के औसत सदस्य के दृष्टिकोण से दुर्लभ होते हैं,जिसे करने की बहुत संभावना नहीं होती है| और उस घंटे में उस स्विचबोर्ड पर मानों कॉल आती रहती हैं।

द्विपद वितरण का प्रसरण पॉइसन वितरण का 1 - p गुना होता है, इसलिए जब P बहुत छोटा होता है तब वह लगभग समान होता है।

नियम शब्द का प्रयोग कभी-कभी संभाव्यता वितरण के पर्याय के रूप में किया जाता है, और नियम में अभिसरण का अर्थ वितरण में अभिसरण है। तदनुसार, पॉइसन वितरण को कभी-कभी छोटी संख्याओं का नियम कहा जाता है चूँकि यह किसी घटना की घटनाओं की संख्या का संभाव्यता वितरण है जो संभवतः ही कभी घटित होती है किंतु जिसके घटित होने के बहुत अधिक अवसर होते हैं। द लॉ ऑफ़ स्मॉल नंबर्स पॉइसन वितरण के बारे में लैडिस्लॉस बोर्टकिविज़ की पुस्तक है, जो 1898 में प्रकाशित हुई थी।[10][60]

पॉइसन बिंदु प्रक्रिया

पॉइसन वितरण किसी परिमित क्षेत्र में स्थित पॉइसन बिंदु प्रक्रिया के बिंदुओं की संख्या के रूप में उत्पन्न होता है। अधिक विशेष रूप से, यदि D कुछ क्षेत्रीय सम्मिस्ट है, उदाहरण के लिए यूक्लिडियन सम्मिस्ट 'R'd, जिसके लिए |D|, क्षेत्र, आयतन या, अधिक सामान्यतः, क्षेत्र का लेबेस्ग माप सीमित है, और यदि N(D) फिर, D, में अंकों की संख्या को दर्शाता है


पॉइसन प्रतिगमन और ऋणात्मक द्विपद प्रतिगमन

पॉइसन प्रतिगमन और ऋणात्मक द्विपद प्रतिगमन उन विश्लेषणों के लिए उपयोगी हैं जहां आश्रित (प्रतिक्रिया) चर अंतराल में घटनाओं या घटनाओं की संख्या की गिनती (0, 1, 2, ... ) हैं|

विज्ञान में अन्य अनुप्रयोग

पॉइसन प्रक्रिया में, देखी गई घटनाओं की संख्या मानक विचलन के साथ इसके माध्य λ के बारे में उतार-चढ़ाव करती है| और इसके इन उतार-चढ़ाव को पॉइसन ध्वनि या (विशेष रूप से इलेक्ट्रॉनिक्स में) शॉट ध्वनि के रूप में दर्शाया जाता है।

स्वतंत्र असतत घटनाओं की गणना में माध्य और मानक विचलन का सहसंबंध वैज्ञानिक रूप से उपयोगी होता है। इसमें माध्य संकेत के साथ उतार-चढ़ाव कैसे भिन्न होता है, इसकी देख-रेख करके, कोई मानों घटना के योगदान का अनुमान लगा सकता है, भले ही वह योगदान सामान्यतः पता लगाने के लिए बहुत छोटा होता हैं। उदाहरण के लिए, इलेक्ट्रॉन पर आवेश e का अनुमान विद्युत धारा के परिमाण को उसके शॉट ध्वनि के साथ सहसंबंधित करके लगाया जा सकता है। यदि N इलेक्ट्रॉन किसी दिए गए निश्चित समय t में औसतन बिंदु से गुजरते हैं, इस प्रकार तब औसत वर्तमान विद्युत धारा होती है| चूँकि वर्तमान उतार-चढ़ाव क्रम का होना चाहिए (अर्थात्, पॉइसन प्रक्रिया का मानक विचलन), आवेश अनुपात से अनुमान लगाया जा सकता है|

इसका प्रतिदिन का उदाहरण वह दानेदार पन होता है| जो तस्वीरों को बड़ा करने पर दिखाई देता है|और दानेदार पन कुछ चांदी के दानों की संख्या में पॉइसन के उतार-चढ़ाव के कारण होता है, न कि व्यक्तिगत दानों के कारण होता हैं। वृद्धि की डिग्री के साथ दानेदारता को सहसंबंधित करके, व्यक्तिगत दाने के योगदान का अनुमान लगाया जा सकता है| (जो अन्यथा बिना सहायता के देखे जाने के लिए बहुत छोटा होता है|)। और पॉइसन ध्वनि के अनेक अन्य आणविक अनुप्रयोग विकसित किए गए हैं| उदाहरण के लिए, कोशिका झिल्ली में रिसेप्टर (जैव रसायन) अणुओं की संख्या घनत्व का अनुमान लगाना भी होता हैं।


इस प्रकार कारण समुच्चय सिद्धांत में समिस्ट टाइम के अलग-अलग तत्व वॉल्यूम में पॉइसन वितरण का पालन करते हैं।

कुछ्प्यूटेशनल विधियों

पॉइसन वितरण समर्पित सॉफ़्टवेयर पुस्तकालयों के लिए दो अलग-अलग फलन प्रस्तुत करता है: वितरण का मूल्यांकन करना, और उस वितरण के अनुसार यादृच्छिक संख्याएँ बनाना भी होता हैं।

पॉइसन वितरण का मूल्यांकन

दिए गए और के लिए की गणना करना मानों छोटे फलन होते है जिसे घातीय, शक्ति और तथ्यात्मक कार्यों के संदर्भ में की मानक परिभाषा का उपयोग करके पूरा किया जा सकता है। चूँकि, पॉइसन वितरण की पारंपरिक परिभाषा में दो शब्द सम्मिलित हैं जो कंप्यूटर पर सरल विधि से प्रवाहित हो सकते हैं| और वह λk और k! हैं। जिनमे λk से k! का अंश भी पूर्णांकन त्रुटि उत्पन्न कर सकता है| जो eλ की तुलना में बहुत बड़ी होती है, और इसलिए मानों गलत परिणाम देता है। इसलिए संख्यात्मक स्थिरता के लिए पॉइसन संभाव्यता द्रव्यमान फलन का मूल्यांकन इस प्रकार किया जाना चाहिए|

जो गणितीय रूप से समतुल्य है किंतु संख्यात्मक रूप से स्थिर है। गामा फलन का प्राकृतिक लघुगणक C मानक लाइब्रेरी (C99 संस्करण) या R में lgamma फलन, कारण या SciPy में gammaln फलन, या फोरट्रान 2008 और बाद में log_gammaफलन का उपयोग करके प्राप्त किया जा सकता है।

कुछ कंप्यूटिंग भाषाएं पॉइसन वितरण का मूल्यांकन करने के लिए अंतर्निहित फलन प्रदान करती हैं

  • आर (प्रोग्रामिंग भाषा): फलन dpois(x, lambda);
  • Microsoft Excel : फलन POISSON( x, mean, cumulative), संचयी वितरण को निर्दिष्ट करने के लिए निशान के साथ होता हैं|
  • गणितज्ञ: अविभाज्य पॉइसन वितरण के रूप में PoissonDistribution[],[61] द्विचर पॉइसन वितरण के रूप में MultivariatePoissonDistribution[{ }],.[62]


यादृच्छिक भिन्न पीढ़ी

इसमें कुछ छोटे फलन दिए गए के साथ पॉइसन वितरण से पूर्णांक यादृच्छिक चर निकालना रहता है|

इनके द्वारा इसमें समाधान प्रदान किए जाते हैं|

यादृच्छिक पॉइसन-वितरित संख्याएं (छद्म-यादृच्छिक संख्या प्रतिरूपकरण) उत्पन्न करने के लिएमानोंसरल एल्गोरिदम डोनाल्ड नुथ द्वारा दिया गया है|

algorithm poisson random number (Knuth):
    init:
        Let L ← e−λ, k ← 0 and p ← 1.
    do:
        k ← k + 1.
        Generate uniform random number u in [0,1] and let p ← p × u.
    while p > L.
    return k − 1.लौटाए गए मान k, में जटिलता रैखिक होता है, जो औसतन λ                                                                                                                     है। इसे सुधारने के लिए अनेक अन्य एल्गोरिदम हैं। अन्य अहरेंस और डाइटर में दिए गए हैं, जिन्हें नीचे § संदर्भ देखा जा सकता हैं|

इसमें λ के बड़े मानों के लिए, L= eλ का मान इतना छोटा हो सकता है कि इसका प्रतिनिधित्व करना कठिन होता है। इसके एल्गोरिदम में परिवर्तन करके हल किया जा सकता है जो मानों अतिरिक्त पैरामीटर STEP का उपयोग करता है जैसे कि e−STEP कुछ प्रवाहित नहीं होता है| [उद्धरण वांछित]

 algorithm poisson random number (Junhao, based on Knuth):
    init:
        Let λLeft ← λ, k ← 0 and p ← 1.
    do:
        k ← k + 1.
        Generate uniform random number u in (0,1) and let p ← p × u.
        while p < 1 and λLeft > 0:
            if λLeft > STEP:
                p ← p × eSTEP
                λLeft ← λLeft − STEP
            else:
                p ← p × eλLeft
                λLeft ← 0
    while p > 1.
    return k − 1.

इस प्रकार STEP का चुनाव अतिप्रवाह की सीमा पर निर्भर करता है। दोहरे परिशुद्धता फ़्लोटिंग पॉइंट प्रारूप के लिए सीमा e700 के समीप होता है, इसलिए 500 मानों सुरक्षित कदम होना चाहिए।[63]: 505 

इसमें λ के बड़े मानों के लिए अन्य समाधान में अस्वीकृति प्रतिरूपकरण और गाऊसी सन्निकटन का उपयोग करना सम्मिलित होता हैं ।

इसमें λ छोटे मानों के लिए व्युत्क्रम परिवर्तन प्रतिरूपकरण सरल और कुशल है, और इसमें प्रति प्रतिरूप सिर्फ समान यादृच्छिक संख्या u की आवश्यकता होती है। और इस प्रकार संचयी संभावनाओं की बारी-बारी से जांच की जाती है| जब तक कि कोई u से अधिक नही होता हैं।

algorithm Poisson generator based upon the inversion by sequential search:[64]: 505 
    init:
        Let x ← 0, p ← e−λ, s ← p.
        Generate uniform random number u in [0,1].
    while u > s do:
        x ← x + 1.
        p ← p × λ / x.
        s ← s + p.
    return x.

यह भी देखें

संदर्भ

उद्धरण

  1. 1.0 1.1 Haight, Frank A. (1967). Handbook of the Poisson Distribution. New York, NY, US: John Wiley & Sons. ISBN 978-0-471-33932-8.
  2. Poisson, Siméon D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilités [Research on the Probability of Judgments in Criminal and Civil Matters] (in français). Paris, France: Bachelier.
  3. de Moivre, Abraham (1711). "De mensura sortis, seu, de probabilitate eventuum in ludis a casu fortuito pendentibus" [On the Measurement of Chance, or, on the Probability of Events in Games Depending Upon Fortuitous Chance]. Philosophical Transactions of the Royal Society (in Latina). 27 (329): 213–264. doi:10.1098/rstl.1710.0018.
  4. de Moivre, Abraham (1718). The Doctrine of Chances: Or, A Method of Calculating the Probability of Events in Play. London, Great Britain: W. Pearson. ISBN 9780598843753.
  5. de Moivre, Abraham (1721). "Of the Laws of Chance". In Motte, Benjamin (ed.). The Philosophical Transactions from the Year MDCC (where Mr. Lowthorp Ends) to the Year MDCCXX. Abridg'd, and Dispos'd Under General Heads (in Latina). Vol. I. London, Great Britain: R. Wilkin, R. Robinson, S. Ballard, W. and J. Innys, and J. Osborn. pp. 190–219.
  6. 6.0 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 Johnson, Norman L.; Kemp, Adrienne W.; Kotz, Samuel (2005). "Poisson Distribution". Univariate Discrete Distributions (3rd ed.). New York, NY, US: John Wiley & Sons, Inc. pp. 156–207. doi:10.1002/0471715816. ISBN 978-0-471-27246-5.
  7. Stigler, Stephen M. (1982). "Poisson on the Poisson Distribution". Statistics & Probability Letters. 1 (1): 33–35. doi:10.1016/0167-7152(82)90010-4.
  8. Hald, Anders; de Moivre, Abraham; McClintock, Bruce (1984). "A. de Moivre: 'De Mensura Sortis' or 'On the Measurement of Chance'". International Statistical Review / Revue Internationale de Statistique. 52 (3): 229–262. doi:10.2307/1403045. JSTOR 1403045.
  9. Newcomb, Simon (1860). "Notes on the theory of probabilities". The Mathematical Monthly. 2 (4): 134–140.
  10. 10.0 10.1 10.2 von Bortkiewitsch, Ladislaus (1898). Das Gesetz der kleinen Zahlen [The law of small numbers] (in Deutsch). Leipzig, Germany: B.G. Teubner. pp. 1, 23–25.
    On page 1, Bortkiewicz presents the Poisson distribution.
    On pages 23–25, Bortkiewitsch presents his analysis of "4. Beispiel: Die durch Schlag eines Pferdes im preußischen Heere Getöteten." [4. Example: Those killed in the Prussian army by a horse's kick.]
  11. Yates, Roy D.; Goodman, David J. (2014). Probability and Stochastic Processes: A Friendly Introduction for Electrical and Computer Engineers (2nd ed.). Hoboken, NJ: Wiley. ISBN 978-0-471-45259-1.
  12. For the proof, see: Proof wiki: expectation and Proof wiki: variance
  13. Kardar, Mehran (2007). कणों का सांख्यिकीय भौतिकी. Cambridge University Press. p. 42. ISBN 978-0-521-87342-0. OCLC 860391091.
  14. Koehrsen, William (2019-01-20). The Poisson Distribution and Poisson Process Explained. Towards Data Science. Retrieved 2019-09-19.
  15. Ugarte, M.D.; Militino, A.F.; Arnholt, A.T. (2016). Probability and Statistics with R (2nd ed.). Boca Raton, FL, US: CRC Press. ISBN 978-1-4665-0439-4.
  16. Helske, Jouni (2017). "KFAS: Exponential Family State Space Models in R". Journal of Statistical Software. 78 (10). arXiv:1612.01907. doi:10.18637/jss.v078.i10. S2CID 14379617.
  17. Choi, Kwok P. (1994). "On the medians of gamma distributions and an equation of Ramanujan". Proceedings of the American Mathematical Society. 121 (1): 245–251. doi:10.2307/2160389. JSTOR 2160389.
  18. Riordan, John (1937). "Moment Recurrence Relations for Binomial, Poisson and Hypergeometric Frequency Distributions" (PDF). Annals of Mathematical Statistics. 8 (2): 103–111. doi:10.1214/aoms/1177732430. JSTOR 2957598.
  19. D. Ahle, Thomas (2022). "द्विपद और पॉइसन वितरण के कच्चे क्षणों के लिए तीव्र और सरल सीमाएं". Statistics & Probability Letters. 182: 109306. arXiv:2103.17027. doi:10.1016/j.spl.2021.109306.
  20. Lehmann, Erich Leo (1986). Testing Statistical Hypotheses (2nd ed.). New York, NJ, US: Springer Verlag. ISBN 978-0-387-94919-2.
  21. Raikov, Dmitry (1937). "On the decomposition of Poisson laws". Comptes Rendus de l'Académie des Sciences de l'URSS. 14: 9–11.
  22. von Mises, Richard (1964). Mathematical Theory of Probability and Statistics. New York, NJ, US: Academic Press. doi:10.1016/C2013-0-12460-9. ISBN 978-1-4832-3213-3.
  23. Laha, Radha G.; Rohatgi, Vijay K. (1979). Probability Theory. New York, NJ, US: John Wiley & Sons. ISBN 978-0-471-03262-5.
  24. Mitzenmacher, Michael (2017). Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis. Eli Upfal (2nd ed.). Cambridge, UK. Exercise 5.14. ISBN 978-1-107-15488-9. OCLC 960841613.{{cite book}}: CS1 maint: location missing publisher (link)
  25. 25.0 25.1 Mitzenmacher, Michael; Upfal, Eli (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-83540-4.
  26. 26.0 26.1 Short, Michael (2013). "Improved Inequalities for the Poisson and Binomial Distribution and Upper Tail Quantile Functions". ISRN Probability and Statistics. 2013: 412958. doi:10.1155/2013/412958.
  27. Kamath, Govinda M.; Şaşoğlu, Eren; Tse, David (14–19 June 2015). Optimal haplotype assembly from high-throughput mate-pair reads. 2015 IEEE International Symposium on Information Theory (ISIT). Hong Kong, China. pp. 914–918. arXiv:1502.01975. doi:10.1109/ISIT.2015.7282588. S2CID 128634.
  28. Prins, Jack (2012). "6.3.3.1. Counts Control Charts". e-Handbook of Statistical Methods. NIST/SEMATECH. Retrieved 2019-09-20.
  29. Zhang, Huiming; Liu, Yunxiao; Li, Bo (2014). "Notes on discrete compound Poisson model with applications to risk theory". Insurance: Mathematics and Economics. 59: 325–336. doi:10.1016/j.insmatheco.2014.09.012.
  30. Zhang, Huiming; Li, Bo (2016). "Characterizations of discrete compound Poisson distributions". Communications in Statistics - Theory and Methods. 45 (22): 6789–6802. doi:10.1080/03610926.2014.901375. S2CID 125475756.
  31. McCullagh, Peter; Nelder, John (1989). Generalized Linear Models. Monographs on Statistics and Applied Probability. Vol. 37. London, UK: Chapman and Hall. ISBN 978-0-412-31760-6.
  32. Anscombe, Francis J. (1948). "The transformation of Poisson, binomial and negative binomial data". Biometrika. 35 (3–4): 246–254. doi:10.1093/biomet/35.3-4.246. JSTOR 2332343.
  33. Ross, Sheldon M. (2010). Introduction to Probability Models (10th ed.). Boston, MA: Academic Press. ISBN 978-0-12-375686-2.
  34. "1.7.7 – Relationship between the Multinomial and Poisson | STAT 504".
  35. Loukas, Sotirios; Kemp, C. David (1986). "The Index of Dispersion Test for the Bivariate Poisson Distribution". Biometrics. 42 (4): 941–948. doi:10.2307/2530708. JSTOR 2530708.
  36. Free Random Variables by D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992
  37. Alexandru Nica, Roland Speicher: Lectures on the Combinatorics of Free Probability. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.
  38. Lectures on the Combinatorics of Free Probability by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006
  39. Paszek, Ewa. "Maximum likelihood estimation – examples". cnx.org.
  40. Van Trees, Harry L. (2013). पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 978-1-299-66515-6. OCLC 851161356.{{cite book}}: CS1 maint: location missing publisher (link)
  41. Garwood, Frank (1936). "Fiducial Limits for the Poisson Distribution". Biometrika. 28 (3/4): 437–442. doi:10.1093/biomet/28.3-4.437. JSTOR 2333958.
  42. Breslow, Norman E.; Day, Nick E. (1987). Statistical Methods in Cancer Research. Vol. 2 — The Design and Analysis of Cohort Studies. Lyon, France: International Agency for Research on Cancer. ISBN 978-92-832-0182-3. Archived from the original on 2018-08-08. Retrieved 2012-03-11.
  43. Fink, Daniel (1997). A Compendium of Conjugate Priors.
  44. Dytso, Alex; Poor, H. Vincent (2020). "Estimation in Poisson noise: Properties of the conditional mean estimator". IEEE Transactions on Information Theory. 66 (7): 4304–4323. doi:10.1109/TIT.2020.2979978. S2CID 207853178.
  45. Gelman; Carlin, John B.; Stern, Hal S.; Rubin, Donald B. (2003). Bayesian Data Analysis (2nd ed.). Boca Raton, FL, US: Chapman & Hall/CRC. ISBN 1-58488-388-X.
  46. Clevenson, M. Lawrence; Zidek, James V. (1975). "Simultaneous estimation of the means of independent Poisson laws". Journal of the American Statistical Association. 70 (351): 698–705. doi:10.1080/01621459.1975.10482497. JSTOR 2285958.
  47. Berger, James O. (1985). Statistical Decision Theory and Bayesian Analysis. Springer Series in Statistics (2nd ed.). New York, NY: Springer-Verlag. Bibcode:1985sdtb.book.....B. doi:10.1007/978-1-4757-4286-2. ISBN 978-0-387-96098-2.
  48. Rasch, Georg (1963). The Poisson Process as a Model for a Diversity of Behavioural Phenomena (PDF). 17th International Congress of Psychology. Vol. 2. Washington, DC: American Psychological Association. doi:10.1037/e685262012-108.
  49. Flory, Paul J. (1940). "Molecular Size Distribution in Ethylene Oxide Polymers". Journal of the American Chemical Society. 62 (6): 1561–1565. doi:10.1021/ja01863a066.
  50. Lomnitz, Cinna (1994). Fundamentals of Earthquake Prediction. New York, NY: John Wiley & Sons. ISBN 0-471-57419-8. OCLC 647404423.
  51. a student (1907). "On the error of counting with a haemacytometer". Biometrika. 5 (3): 351–360. doi:10.2307/2331633. JSTOR 2331633.
  52. Boland, Philip J. (1984). "A biographical glimpse of William Sealy Gosset". The American Statistician. 38 (3): 179–183. doi:10.1080/00031305.1984.10483195. JSTOR 2683648.
  53. Erlang, Agner K. (1909). "Sandsynlighedsregning og Telefonsamtaler" [Probability Calculation and Telephone Conversations]. Nyt Tidsskrift for Matematik (in dansk). 20 (B): 33–39. JSTOR 24528622.
  54. Hornby, Dave (2014). "Football Prediction Model: Poisson Distribution". Sports Betting Online. Retrieved 2014-09-19.
  55. Koyama, Kento; Hokunan, Hidekazu; Hasegawa, Mayumi; Kawamura, Shuso; Koseki, Shigenobu (2016). "Do bacterial cell numbers follow a theoretical Poisson distribution? Comparison of experimentally obtained numbers of single cells with random number generation via computer simulation". Food Microbiology. 60: 49–53. doi:10.1016/j.fm.2016.05.019. PMID 27554145.
  56. Clarke, R. D. (1946). "An application of the Poisson distribution" (PDF). Journal of the Institute of Actuaries. 72 (3): 481. doi:10.1017/S0020268100035435.
  57. Gallagher, Patrick X. (1976). "On the distribution of primes in short intervals". Mathematika. 23 (1): 4–9. doi:10.1112/s0025579300016442.
  58. Hardy, Godfrey H.; Littlewood, John E. (1923). "On some problems of "partitio numerorum" III: On the expression of a number as a sum of primes". Acta Mathematica. 44: 1–70. doi:10.1007/BF02403921.
  59. Cameron, A. Colin; Trivedi, Pravin K. (1998). Regression Analysis of Count Data. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-63567-7.
  60. Edgeworth, F.Y. (1913). "On the use of the theory of probabilities in statistics relating to society". Journal of the Royal Statistical Society. 76 (2): 165–193. doi:10.2307/2340091. JSTOR 2340091.
  61. "Wolfram Language: PoissonDistribution reference page". wolfram.com. Retrieved 2016-04-08.
  62. "Wolfram Language: MultivariatePoissonDistribution reference page". wolfram.com. Retrieved 2016-04-08.
  63. Devroye, Luc (1986). "Discrete univariate distributions" (PDF). Non-Uniform Random Variate Generation. New York, NY: Springer-Verlag. pp. 485–553. doi:10.1007/978-1-4613-8643-8_10. ISBN 978-1-4613-8645-2.
Cite error: <ref> tag with name "Knuth1997" defined in <references> is not used in prior text.


स्रोत