पॉसों वितरण: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 46: Line 46:
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तब बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।
* दो घटनाएँ बिल्कुल ही क्षण में घटित नहीं हो सकतीं; इसके अतिरिक्त , प्रत्येक बहुत छोटे उप-अंतराल पर, या तब बिल्कुल घटना घटती है, या कोई घटना नहीं घटती है।


यदि ये स्थितियाँ सत्य हैं, तब {{mvar|k}} पॉइसन यादृच्छिक चर है, और {{mvar|k}} का वितरण पॉइसन वितरण है।
यदि ये स्थितियाँ सत्य हैं, तब {{mvar|k}} पॉइसन यादृच्छिक चर है, और {{mvar|k}} का वितरण पॉइसन वितरण है।


पॉइसन वितरण भी [[द्विपद वितरण]] की [[सीमा (गणित)]] है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना परीक्षणों की संख्या से विभाजित {{mvar|λ}} समान होती है क्योंकि परीक्षणों की संख्या अनंत तक पहुंचती है (या संबंधित वितरण देखें)।
पॉइसन वितरण भी [[द्विपद वितरण]] की [[सीमा (गणित)]] है, जिसके लिए प्रत्येक परीक्षण की सफलता की संभावना परीक्षणों की संख्या से विभाजित {{mvar|λ}} समान होती है क्योंकि परीक्षणों की संख्या अनंत तक पहुंचती है (या संबंधित वितरण देखें)।


==== पॉइसन वितरण के लिए संभाव्यता के उदाहरण ====
==== पॉइसन वितरण के लिए संभाव्यता के उदाहरण ====
Line 143: Line 143:
* भिन्नता का गुणांक <math display="inline"> \lambda^{-1/2},</math>है जबकि [[फैलाव का सूचकांक]] 1 है।{{r|Johnson2005|p=163}}
* भिन्नता का गुणांक <math display="inline"> \lambda^{-1/2},</math>है जबकि [[फैलाव का सूचकांक]] 1 है।{{r|Johnson2005|p=163}}
* माध्य के सापेक्ष माध्य निरपेक्ष विचलन है{{r|Johnson2005|p=163}} <math display="block">\operatorname{E}[\ |X-\lambda|\ ]= \frac{2 \lambda^{\lfloor\lambda\rfloor + 1} e^{-\lambda}}{\lfloor\lambda\rfloor!}.</math>
* माध्य के सापेक्ष माध्य निरपेक्ष विचलन है{{r|Johnson2005|p=163}} <math display="block">\operatorname{E}[\ |X-\lambda|\ ]= \frac{2 \lambda^{\lfloor\lambda\rfloor + 1} e^{-\lambda}}{\lfloor\lambda\rfloor!}.</math>
* गैर-पूर्णांक {{mvar|λ}} के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]] <math>\lfloor \lambda \rfloor,</math> के समान है जो {{mvar|λ}} इससे कम या इसके समान का सबसे बड़ा पूर्णांक है . इसे [[फर्श समारोह|फर्श फलन]] ({{mvar|λ}}) के रूप में भी लिखा जाता है जब {{mvar|λ}} धनात्मक पूर्णांक है, तो मोड {{mvar|λ}} बहुलक हैं और {{mvar|λ}} − 1 बहुलक हैं|   
* गैर-पूर्णांक {{mvar|λ}} के साथ पॉइसन-वितरित यादृच्छिक चर का [[मोड (सांख्यिकी)]] <math>\lfloor \lambda \rfloor,</math> के समान है जो {{mvar|λ}} इससे कम या इसके समान का सबसे बड़ा पूर्णांक है . इसे [[फर्श समारोह|फर्श फलन]] ({{mvar|λ}}) के रूप में भी लिखा जाता है जब {{mvar|λ}} धनात्मक पूर्णांक है, तब मोड {{mvar|λ}} बहुलक हैं और {{mvar|λ}} − 1 बहुलक हैं|   
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य {{mvar|λ}} के समान हैं. वह {{mvar|n}} पॉइसन वितरण का {{mvar|n}}वां [[तथ्यात्मक क्षण]] {{mvar|λ}}{{sup| {{mvar|n}} }} है|
* पॉइसन वितरण के सभी संचयक अपेक्षित मूल्य {{mvar|λ}} के समान हैं. वह {{mvar|n}} पॉइसन वितरण का {{mvar|n}}वां [[तथ्यात्मक क्षण]] {{mvar|λ}}{{sup| {{mvar|n}} }} है|
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या सम्मिस्ट पर तीव्रता फलन के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}}
* [[पॉइसन प्रक्रिया]] का अपेक्षित मूल्य कभी-कभी तीव्रता और एक्सपोज़र के उत्पाद में विघटित हो जाता है (या सामान्यतः समय या सम्मिस्ट पर तीव्रता फलन के अभिन्न अंग के रूप में व्यक्त किया जाता है, जिसे कभी-कभी एक्सपोज़र के रूप में वर्णित किया जाता है)।{{r|Helske2017}}
Line 158: Line 158:
\left(\frac{k}{\log(k/\lambda+1)}\right)^k \le \lambda^k \exp\left(\frac{k^2}{2\lambda}\right).</math>
\left(\frac{k}{\log(k/\lambda+1)}\right)^k \le \lambda^k \exp\left(\frac{k^2}{2\lambda}\right).</math>
=== पॉइसन-वितरित यादृच्छिक चर का योग ===
=== पॉइसन-वितरित यादृच्छिक चर का योग ===
यदि <math>i=1,\dotsc,n</math> के लिए <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> स्वतंत्र हैं, तब <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तब उन दो में प्रत्येक स्वतंत्र हैं तो यादृच्छिक चर भी वैसा ही होता है।{{r|Raikov1937}}{{r|vonMises1964|p=}}
यदि <math>i=1,\dotsc,n</math> के लिए <math>X_i \sim \operatorname{Pois}(\lambda_i)</math> स्वतंत्र हैं, तब <math display="inline">\sum_{i=1}^n X_i \sim \operatorname{Pois}\left(\sum_{i=1}^n \lambda_i\right).</math>{{r|Lehmann1986|p=65}} व्युत्क्रम रायकोव का प्रमेय है, जो कहता है कि यदि दो स्वतंत्र यादृच्छिक चर का योग पॉइसन-वितरित है, तब उन दो में प्रत्येक स्वतंत्र हैं तब यादृच्छिक चर भी वैसा ही होता है।{{r|Raikov1937}}{{r|vonMises1964|p=}}


=== अन्य गुण ===
=== अन्य गुण ===
Line 167: Line 167:
*पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> की अंतिम संभावनाओं की सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> तर्क का उपयोग करके प्राप्त की जा सकती हैं।[{{r|Mitzenmacher2005|p=97-98}}<math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math>
*पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> की अंतिम संभावनाओं की सीमाएं <math> X \sim \operatorname{Pois}(\lambda)</math> तर्क का उपयोग करके प्राप्त की जा सकती हैं।[{{r|Mitzenmacher2005|p=97-98}}<math display="block">P(X \geq x) \leq \frac{(e \lambda)^x e^{-\lambda}}{x^x}, \text{ for } x > \lambda,</math> <math display="block">P(X \leq x) \leq \frac{(e \lambda)^x e^{-\lambda} }{x^x}, \text{ for } x < \lambda.</math>
* अप्पेर टेल की संभावना को निम्नानुसार (कम से कम दो के कारक द्वारा) कड़ा किया जा सकता है|{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> निर्देशित कुल्बैक-लीब्लर विचलन है। जैसा कि ऊपर वर्णित है|
* अप्पेर टेल की संभावना को निम्नानुसार (कम से कम दो के कारक द्वारा) कड़ा किया जा सकता है|{{r|Short2013}} <math display="block">P(X \geq x) \leq \frac{e^{-\operatorname{D}_{\text{KL}}(x\mid\lambda)}}{\max{(2, \sqrt{4\pi\operatorname{D}_{\text{KL}}(x\mid\lambda)}})}, \text{ for } x > \lambda,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(x\mid\lambda)</math> निर्देशित कुल्बैक-लीब्लर विचलन है। जैसा कि ऊपर वर्णित है|
* असमानताएं जो पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> के वितरण फलन को [[मानक सामान्य वितरण]] फलन <math> \Phi(x) </math> से संबंधित करती हैं वे इस प्रकार हैं| {{r|Short2013}} <math display="block"> \Phi\left(\operatorname{sign}(k-\lambda)\sqrt{2\operatorname{D}_{\text{KL}}(k\mid\lambda)}\right) < P(X \leq k) < \Phi\left(\operatorname{sign}(k-\lambda+1)\sqrt{2\operatorname{D}_{\text{KL}}(k+1\mid\lambda)}\right), \text{ for } k > 0,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(k\mid\lambda)</math> यह फिर से निर्देशित कुल्बैक-लीब्लर विचलन है।
* असमानताएं जो पॉइसन यादृच्छिक चर <math> X \sim \operatorname{Pois}(\lambda)</math> के वितरण फलन को [[मानक सामान्य वितरण]] फलन <math> \Phi(x) </math> से संबंधित करती हैं वे इस प्रकार हैं| {{r|Short2013}} <math display="block"> \Phi\left(\operatorname{sign}(k-\lambda)\sqrt{2\operatorname{D}_{\text{KL}}(k\mid\lambda)}\right) < P(X \leq k) < \Phi\left(\operatorname{sign}(k-\lambda+1)\sqrt{2\operatorname{D}_{\text{KL}}(k+1\mid\lambda)}\right), \text{ for } k > 0,</math> जहाँ <math>\operatorname{D}_{\text{KL}}(k\mid\lambda)</math> यह फिर से निर्देशित कुल्बैक-लीब्लर विचलन है।


=== पॉइसन दौड़ ===
=== पॉइसन दौड़ ===
Line 173: Line 173:
होने देना <math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर बनें, साथ में <math> \lambda < \mu,</math> तब वह हमारे पास है
होने देना <math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर बनें, साथ में <math> \lambda < \mu,</math> तब वह हमारे पास है


मान लीजिए कि<math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर हैं,<math> \lambda < \mu,</math> के साथ तो हमारे पास वह है<math display="block">
मान लीजिए कि<math>X \sim \operatorname{Pois}(\lambda)</math> और <math>Y \sim \operatorname{Pois}(\mu)</math> स्वतंत्र यादृच्छिक चर हैं,<math> \lambda < \mu,</math> के साथ तब हमारे पास वह है<math display="block">
  \frac{e^{-(\sqrt{\mu} -\sqrt{\lambda})^2  }}{(\lambda + \mu)^2} - \frac{e^{-(\lambda + \mu)}}{2\sqrt{\lambda \mu}} - \frac{e^{-(\lambda + \mu)}}{4\lambda \mu} \leq P(X - Y \geq 0) \leq e^{- (\sqrt{\mu} -\sqrt{\lambda})^2}
  \frac{e^{-(\sqrt{\mu} -\sqrt{\lambda})^2  }}{(\lambda + \mu)^2} - \frac{e^{-(\lambda + \mu)}}{2\sqrt{\lambda \mu}} - \frac{e^{-(\lambda + \mu)}}{4\lambda \mu} \leq P(X - Y \geq 0) \leq e^{- (\sqrt{\mu} -\sqrt{\lambda})^2}
</math>
</math>
Line 187: Line 187:


=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में ===
=== अनंत समय-चरणों के साथ द्विपद वितरण के रूप में ===
पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है क्योंकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है - नीचे दुर्लभ घटनाओं का नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। यदि n कम से कम 20 है और p 0.05 से छोटा या उसके समान है, तो पॉइसन वितरण द्विपद वितरण का एक अच्छा सन्निकटन है, और यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10 है तो एक उत्कृष्ट सन्निकटन है।{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math>
पॉइसन वितरण को द्विपद वितरण के लिए सीमित स्थितियों के रूप में प्राप्त किया जा सकता है क्योंकि परीक्षणों की संख्या अनंत हो जाती है और सफलताओं की अपेक्षित मूल्य संख्या निश्चित रहती है - नीचे दुर्लभ घटनाओं का नियम देखें। इसलिए, इसका उपयोग द्विपद वितरण के सन्निकटन के रूप में किया जा सकता है यदि {{mvar|n}} पर्याप्त रूप से बड़ा है और p पर्याप्त रूप से छोटा है। यदि n कम से कम 20 है और p 0.05 से छोटा या उसके समान है, तब पॉइसन वितरण द्विपद वितरण का अच्छा सन्निकटन है, और यदि {{mvar|n}} ≥ 100 और {{mvar|n p}} ≤ 10 है तब उत्कृष्ट सन्निकटन है।{{r|NIST2006}} <math display="block">F_\mathrm{Binomial}(k;n, p) \approx F_\mathrm{Poisson}(k;\lambda=np)</math>
===सामान्य===
===सामान्य===
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर अंतर <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है।
* यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math> स्वतंत्र हैं, फिर अंतर <math> Y = X_1 - X_2</math> [[स्केलम वितरण]] का अनुसरण करता है।
*यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math>स्वतंत्र हैं, तब <math>X_1+X_2</math> पर सशर्त <math>X_1</math> का वितरण एक द्विपद वितरण है।
*यदि <math>X_1 \sim \mathrm{Pois}(\lambda_1)\,</math> और <math>X_2 \sim \mathrm{Pois}(\lambda_2)\,</math>स्वतंत्र हैं, तब <math>X_1+X_2</math> पर सशर्त <math>X_1</math> का वितरण द्विपद वितरण है।
* विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math> अधिक सामान्यतः, यदि ''X''<sub>1</sub>, ''X''<sub>2</sub>, ..., ''X''<sub>n</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब
* विशेष रूप से, यदि <math>X_1+X_2=k,</math> तब <math>X_1| X_1+X_2=k\sim \mathrm{Binom}(k, \lambda_1/(\lambda_1+\lambda_2)).</math> अधिक सामान्यतः, यदि ''X''<sub>1</sub>, ''X''<sub>2</sub>, ..., ''X''<sub>n</sub> मापदंडों के साथ स्वतंत्र पॉइसन यादृच्छिक चर हैं {{mvar|λ}}<sub>1</sub>, {{mvar|λ}}<sub>2</sub>, ..., {{mvar|λ}}<sub>{{mvar|n}}</sub> तब
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math>
*: दिया गया <math>\sum_{j=1}^n X_j=k,</math> यह इस प्रकार है कि <math>X_i\Big|\sum_{j=1}^n X_j=k \sim \mathrm{Binom}\left(k, \frac{\lambda_i}{\sum_{j=1}^n \lambda_j}\right).</math> वास्तव में, <math>\{X_i\} \sim \mathrm{Multinom}\left(k, \left\{\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right\}\right).</math>
*यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math>और <math>Y</math> का वितरण एक द्विपद वितरण है, X={{mvar|k}} तो Y का वितरण एक पॉइसन वितरण का अनुसरण करता है <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> वास्तव में, यदि, <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> <math>\{X = k\},</math> <math>\{Y_i\}</math> पर सशर्त एक बहुपद वितरण का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> तो प्रत्येक <math>Y_i</math> एक स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math>
*यदि <math>X \sim \mathrm{Pois}(\lambda)\,</math>और <math>Y</math> का वितरण द्विपद वितरण है, X={{mvar|k}} तब Y का वितरण पॉइसन वितरण का अनुसरण करता है <math>Y \mid (X = k) \sim \mathrm{Binom}(k, p),</math> वास्तव में, यदि, <math>Y \sim \mathrm{Pois}(\lambda \cdot p).</math> <math>\{X = k\},</math> <math>\{Y_i\}</math> पर सशर्त बहुपद वितरण का अनुसरण करता है, <math>\{Y_i\} \mid (X = k) \sim \mathrm{Multinom}\left(k, p_i\right),</math> तब प्रत्येक <math>Y_i</math> स्वतंत्र पॉइसन वितरण का अनुसरण करता है <math>Y_i \sim \mathrm{Pois}(\lambda \cdot p_i), \rho(Y_i, Y_j) = 0.</math>
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या स्तूट्रिंग पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण के विशेष स्थितियों हैं।
* पॉइसन वितरण केवल पैरामीटर के साथ असतत यौगिक पॉइसन वितरण (या स्तूट्रिंग पॉइसन वितरण) का [[विशेष मामला|विशेष स्थितिया]] है।{{r|Zhang2013|Zhang2016}} असतत [[यौगिक पॉइसन वितरण]] को अविभाज्य बहुपद वितरण के सीमित वितरण से निकाला जा सकता है। यह यौगिक पॉइसन वितरण के विशेष स्थितियों हैं।
* {{mvar|λ}}, (मान लीजिए {{mvar|λ}} >1000) के पर्याप्त बड़े मूल्यों के लिए, माध्य, {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) के साथ [[सामान्य वितरण]] पॉइसन वितरण के लिए उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} से अधिक है, लगभग 10, तब सामान्य वितरण अच्छा सन्निकटन है यदि उचित [[निरंतरता सुधार]] किया जाता है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, को {{math|P(''X'' ≤ ''x'' + 0.5)}} द्वारा प्रतिस्थापित किया जाता है . <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math>
* {{mvar|λ}}, (मान लीजिए {{mvar|λ}} >1000) के पर्याप्त बड़े मूल्यों के लिए, माध्य, {{mvar|λ}} और विचरण {{mvar|λ}} (मानक विचलन <math>\sqrt{\lambda}</math>) के साथ [[सामान्य वितरण]] पॉइसन वितरण के लिए उत्कृष्ट सन्निकटन है। यदि {{mvar|λ}} से अधिक है, लगभग 10, तब सामान्य वितरण अच्छा सन्निकटन है यदि उचित [[निरंतरता सुधार]] किया जाता है, अर्थात, यदि {{math|P(''X'' ≤ ''x'')}}, जहां x गैर-ऋणात्मक पूर्णांक है, को {{math|P(''X'' ≤ ''x'' + 0.5)}} द्वारा प्रतिस्थापित किया जाता है . <math display="block">F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)</math>
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तीव्र होते है।
* [[विचरण-स्थिरीकरण परिवर्तन]]: यदि <math>X \sim \mathrm{Pois}(\lambda),</math> तब{{r|Johnson2005|p=168}} <math display="block">Y = 2 \sqrt{X} \approx \mathcal{N}(2\sqrt{\lambda};1),</math> और{{r|McCullagh1989|p=196}} <math display="block">Y = \sqrt{X} \approx \mathcal{N}(\sqrt{\lambda};1/4).</math> इस परिवर्तन के अनुसार, सामान्यता की ओर अभिसरण (जैसे <math>\lambda</math> बढ़ता है) अपरिवर्तित चर की तुलना में कहीं अधिक तीव्र होते है।
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन|अन्स्कोम्बे परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें।
*अन्य, थोड़े अधिक जटिल, विचरण को स्थिर करने वाले परिवर्तन उपलब्ध हैं,{{r|Johnson2005|p=168}} जिनमें से [[Anscombe परिवर्तन|अन्स्कोम्बे परिवर्तन]] है।{{r|Anscombe1948}} परिवर्तनों के अधिक सामान्य उपयोग के लिए [[डेटा परिवर्तन (सांख्यिकी)]] देखें।
Line 202: Line 202:
=== पॉइसन सन्निकटन ===
=== पॉइसन सन्निकटन ===


मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson &#124; STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है <math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातो के अतिरिक्त , किसी भी गैर-ऋणात्मक फलन के लिए <math>f(x_1, x_2, \dots, x_n),</math> यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है|
मान लीजिए <math>X_1\sim\operatorname{Pois}(\lambda_1), X_2\sim\operatorname{Pois}(\lambda_2), \dots, X_n\sim\operatorname{Pois}(\lambda_n)</math> जहाँ <math>\lambda_1 + \lambda_2 + \dots + \lambda_n=1,</math> तब<ref>{{Cite web | url=https://newonlinecourses.science.psu.edu/stat504/node/48/ | title=1.7.7 – Relationship between the Multinomial and Poisson &#124; STAT 504}}</ref> <math>(X_1, X_2, \dots, X_n)</math> बहुपद वितरण है <math>(X_1, X_2, \dots, X_n) \sim \operatorname{Mult}(N, \lambda_1, \lambda_2, \dots, \lambda_n)</math> पर वातानुकूलित <math>N = X_1 + X_2 + \dots X_n.</math> इसका कारण यह है{{r|Mitzenmacher2005|p=101-102}}, अन्य बातब के अतिरिक्त , किसी भी गैर-ऋणात्मक फलन के लिए <math>f(x_1, x_2, \dots, x_n),</math> यदि <math>(Y_1, Y_2, \dots, Y_n)\sim\operatorname{Mult}(m, \mathbf{p})</math> तब बहुराष्ट्रीय रूप से वितरित किया जाता है|
<math display="block">
<math display="block">
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)]
\operatorname{E}[f(Y_1, Y_2, \dots, Y_n)] \le e\sqrt{m}\operatorname{E}[f(X_1, X_2, \dots, X_n)]
Line 213: Line 213:
इस वितरण को [[संयुक्त संभाव्यता वितरण]] स्थितियों तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] फलन है|
इस वितरण को [[संयुक्त संभाव्यता वितरण]] स्थितियों तक बढ़ा दिया गया है।{{r|Loukas1986}} इस वितरण के लिए [[जनरेटिंग फ़ंक्शन|जनरेटिंग]] फलन है|
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math>
<math display="block"> g( u, v ) = \exp[ ( \theta_1 - \theta_{12} )( u - 1 ) + ( \theta_2 - \theta_{12} )(v - 1) + \theta_{12} ( uv - 1 ) ] </math>
'''साथ''' <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math>
साथ <math display="block"> \theta_1, \theta_2 > \theta_{ 12 } > 0 </math>
सीमांत वितरण पॉइसन(θ) हैं<sub>1</sub>) और पॉइसन(i<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है
सीमांत वितरण पॉइसन (θ<sub>1</sub>) और पॉइसन हैं) (θ<sub>2</sub>) और सहसंबंध गुणांक सीमा तक सीमित है
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math>
<math display="block"> 0 \le \rho \le \min\left\{ \sqrt{ \frac{ \theta_1 }{ \theta_2 } }, \sqrt{ \frac{ \theta_2 }{ \theta_1 } } \right\}</math>
द्विचर पॉइसन वितरण उत्पन्न करने का सरल विधि <math>X_1,X_2</math> तीन स्वतंत्र पॉइसन वितरण लेना है <math>Y_1,Y_2,Y_3</math> साधन के साथ <math>\lambda_1,\lambda_2,\lambda_3</math> और फिर समुच्चय करें <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math> द्विचर पॉइसन वितरण का संभाव्यता फलन है
द्विचर पॉइसन वितरण <math>X_1,X_2</math> उत्पन्न करने का सरल विधि तीन स्वतंत्र पॉइसन वितरण <math>Y_1,Y_2,Y_3</math> को माध्य <math>\lambda_1,\lambda_2,\lambda_3</math> के साथ लेना है और फिर <math>X_1 = Y_1 + Y_3, X_2 = Y_2 + Y_3.</math>द्विचर पॉइसन वितरण की संभाव्यता फलन है|<math display="block">
<math display="block">
\Pr(X_1=k_1,X_2=k_2) =  
\Pr(X_1=k_1,X_2=k_2) =  
\exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k
\exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k
</math>
</math>
===मुफ्त पॉइसन वितरण===
===मुफ्त पॉइसन वितरण===
निःशुल्क पॉइसन वितरण<ref>Free Random Variables by D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992</ref> छलांग के आकार के साथ <math>\alpha</math> और दर <math>\lambda</math> मुक्त संभाव्यता सिद्धांत में बार-बार [[मुक्त कनवल्शन]] की सीमा के रूप में उत्पन्न होता है
जंप आकार <math>\alpha</math>और दर <math>\lambda</math> के साथ निःशुल्कपॉइसन वितरण <ref>Free Random Variables by D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992</ref> निःशुल्कसंभाव्यता सिद्धांत में बार-बार [[मुक्त कनवल्शन|निःशुल्ककनवल्शन]] की सीमा के रूप में उत्पन्न होता है
<math display="block">\left( \left(1-\frac{\lambda}{N}\right)\delta_0 + \frac{\lambda}{N}\delta_\alpha\right)^{\boxplus N}</math>
<math display="block">\left( \left(1-\frac{\lambda}{N}\right)\delta_0 + \frac{\lambda}{N}\delta_\alpha\right)^{\boxplus N}</math>
जैसा {{math|''N'' → ∞}}.
जैसा {{math|''N'' → ∞}}.


दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के नियम का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है <math>\lambda,\alpha.</math>
दूसरे शब्दों में, चलो <math>X_N</math> यादृच्छिक चर बनें ताकि <math>X_N</math> मूल्य है <math>\alpha</math> संभाव्यता के साथ <math display="inline">\frac{\lambda}{N}</math> और शेष प्रायिकता के साथ मान 0 है। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> [[स्वतंत्र स्वतंत्रता]] हैं. फिर सीमा के रूप में <math>N \to \infty</math> के नियम का <math>X_1 + \cdots +X_N</math> फ्री पॉइसन नियम द्वारा मापदंडों के साथ दिया गया है <math>\lambda,\alpha.</math> यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है।
यह परिभाषा उन तरीकों में से के अनुरूप है जिसमें मौलिक पॉइसन वितरण (मौलिक) पॉइसन प्रक्रिया से प्राप्त किया जाता है।


मुक्त पॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref>
दूसरे शब्दों में, मान लीजिए कि <math>X_N</math> यादृच्छिक चर है ताकि <math>X_N</math> का मान <math>\alpha</math> हो और संभावना <math display="inline">\frac{\lambda}{N}</math> हो और शेष प्रायिकता के साथ मान 0 हैं। यह भी मान लें कि परिवार <math>X_1, X_2, \ldots</math> स्वतंत्र रूप से स्वतंत्र हैं। फिर<math>X_1 + \cdots +X_N</math> के नियम की सीमा <math>N \to \infty</math> निःशुक्ल पॉइसन कानून द्वारा पैरामीटर्स <math>\lambda,\alpha.</math> के साथ दी गई है
 
निःशुल्कपॉइसन नियम से संबंधित माप किसके द्वारा दिया गया है?<ref>Alexandru Nica, Roland Speicher: [https://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability]. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.</ref>
<math display="block">\mu=\begin{cases}
<math display="block">\mu=\begin{cases}
(1-\lambda) \delta_0 + \nu,& \text{if } 0\leq \lambda \leq 1 \\
(1-\lambda) \delta_0 + \nu,& \text{if } 0\leq \lambda \leq 1 \\
Line 237: Line 235:
\end{cases}</math>
\end{cases}</math>
जहाँ  <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math>
जहाँ  <math display="block">\nu = \frac{1}{2\pi\alpha t}\sqrt{4\lambda \alpha^2 - ( t - \alpha (1+\lambda))^2} \, dt</math> और समर्थन है <math>[\alpha (1-\sqrt{\lambda})^2,\alpha (1+\sqrt{\lambda})^2].</math>
यह नियम मार्चेंको-पास्टूर नियम के रूप में [[यादृच्छिक मैट्रिक्स|यादृच्छिक आव्युह]] सिद्धांत में भी उत्पन्न होता है। इसके CumulantयाFree Cumulant समान होते हैं <math>\kappa_n=\lambda\alpha^n.</math>
यह कानून मार्चेंको-पास्टूर कानून के रूप में [[यादृच्छिक मैट्रिक्स|यादृच्छिक आव्युह]] सिद्धांत में भी उत्पन्न होता है। इसके निःशुल्क क्यूमुलेंट<math>\kappa_n=\lambda\alpha^n.</math> के समान होते हैं
====इस नियम के कुछ परिवर्तन====
हम निःशुल्क पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है A नीका और R स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में <ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref>
 
निःशुल्क पॉइसन नियम का R-रूपांतरण किसके द्वारा दिया गया है?
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math>




====इस नियम के कुछ परिवर्तन====
कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का ऋणात्मक है) द्वारा दिया गया है
हम मुक्त पॉइसन नियम के कुछ महत्वपूर्ण परिवर्तनों के मूल्य देते हैं; गणना उदाहरण के लिए पाई जा सकती है ए. नीका और आर. स्पीचर द्वारा लिखित पुस्तक लेक्चर्स ऑन द कॉम्बिनेटरिक्स ऑफ फ्री प्रोबेबिलिटी में<ref>[http://rolandspeicher.com/literature/nica-speicher/ Lectures on the Combinatorics of Free Probability] by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006</ref>
मुक्त पॉइसन नियम का आर-रूपांतरण किसके द्वारा दिया गया है?
<math display="block">R(z)=\frac{\lambda \alpha}{1-\alpha z}. </math>
कॉची ट्रांसफॉर्म (जो [[स्टिल्टजेस परिवर्तन]] का नकारात्मक है) द्वारा दिया गया है
<math display="block">
<math display="block">
G(z) = \frac{ z + \alpha - \lambda \alpha - \sqrt{ (z-\alpha (1+\lambda))^2 - 4 \lambda \alpha^2}}{2\alpha z}
G(z) = \frac{ z + \alpha - \lambda \alpha - \sqrt{ (z-\alpha (1+\lambda))^2 - 4 \lambda \alpha^2}}{2\alpha z}
</math>
</math>
एस-परिवर्तन द्वारा दिया गया है
 
 
S-परिवर्तन द्वारा दिया गया है
<math display="block">S(z) = \frac{1}{z+\lambda}</math>
<math display="block">S(z) = \frac{1}{z+\lambda}</math>
उस स्थितियों में <math>\alpha = 1.</math>
उस स्थितियों में <math>\alpha = 1.</math>
===वेइबुल और स्थिर गिनती===
===वेइबुल और स्थिर गिनती===


पॉइसन की संभाव्यता द्रव्यमान फलन <math> f(k; \lambda)</math> [[वेइबुल वितरण]] के उत्पाद वितरण के समान रूप और स्थिर गणना वितरण के भिन्न रूप में व्यक्त किया जा सकता है।
पॉइसन की संभाव्यता द्रव्यमान फलन <math> f(k; \lambda)</math> [[वेइबुल वितरण]] के उत्पाद वितरण रूप और स्थिर गणना वितरण के भिन्न रूप के समान रूप में व्यक्त किया जा सकता है। चर <math> (k+1) </math> स्थिर गणना वितरण में लेवी के स्थिरता पैरामीटर के विपरीत माना जा सकता है|<math display="block">
परिवर्तनशील <math> (k+1) </math> स्थिर गणना वितरण में लेवी के स्थिरता पैरामीटर के विपरीत माना जा सकता है:
<math display="block">
     f(k; \lambda) =
     f(k; \lambda) =
         \displaystyle\int_0^\infty \frac{1}{u} \, W_{k+1}(\frac{\lambda}{u})  
         \displaystyle\int_0^\infty \frac{1}{u} \, W_{k+1}(\frac{\lambda}{u})  
         \left[ \left(k+1\right) u^k \, \mathfrak{N}_{\frac{1}{k+1}}\left(u^{k+1}\right) \right] \, du ,
         \left[ \left(k+1\right) u^k \, \mathfrak{N}_{\frac{1}{k+1}}\left(u^{k+1}\right) \right] \, du ,
</math>
</math>
जहाँ <math>\mathfrak{N}_{\alpha}(\nu)</math> आकृति का मानक स्थिर गणना वितरण है <math> \alpha = 1/\left(k+1\right),</math> और <math>W_{k+1}(x)</math> आकार का मानक वेइबुल वितरण है <math>k+1.</math>




जहाँ <math>\mathfrak{N}_{\alpha}(\nu)</math> आकृति का मानक स्थिर गणना वितरण है <math> \alpha = 1/\left(k+1\right),</math> और <math>W_{k+1}(x)</math> आकार का मानक वेइबुल वितरण <math>k+1.</math> है
==सांख्यिकीय अनुमान ==
==सांख्यिकीय अनुमान ==
{{See also|Poisson regression}}
{{See also|पॉइसन प्रतिगमन}}


=== पैरामीटर अनुमान ===
=== पैरामीटर अनुमान ===
का नमूना दिया गया है {{mvar|n}} माप मूल्यों <math>k_i \in \{0,1,\dots\},</math> के लिए {{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}} हम पैरामीटर के मान का अनुमान लगाना चाहते हैं {{mvar|λ}} पॉइसन जनसंख्या का जिससे नमूना लिया गया था। अधिकतम संभावना अनुमान है <ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref>
{{nobr| {{math|''i'' {{=}} 1, ..., ''n''}},}}के लिए {{mvar|n}} मापे गए मानों <math>k_i \in \{0,1,\dots\},</math> के प्रतिरूप को देखते हुए, हम पॉइसन संख्या के पैरामीटर {{mvar|λ}} के मूल्य का अनुमान लगाना चाहते हैं, जहां से प्रतिरूप लिया गया था। अधिकतम संभावना अनुमान है<ref>{{cite web |last=Paszek |first=Ewa |title=Maximum likelihood estimation – examples |website=cnx.org |url = http://cnx.org/content/m13500/latest/?collection=col10343/latest}}</ref>
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math>
:<math>\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i\ .</math>
चूँकि प्रत्येक अवलोकन में अपेक्षा होती है {{mvar|λ}} तब नमूने का कारण है। इसलिए, अधिकतम संभावना अनुमान निष्पक्ष अनुमानक है {{mvar|λ}}. यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है | न्यूनतम-विचरण निष्पक्ष। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए नमूना का कारण है क्योंकि यह योग का एक-से-एक फलन है) पूर्ण और पर्याप्त आँकड़ा है {{mvar|λ}}.
चूँकि प्रत्येक अवलोकन में अपेक्षा λ होती है, इसलिए प्रतिरूप का कारण भी होता है। इसलिए, अधिकतम संभावना अनुमान {{mvar|λ}} का निष्पक्ष अनुमानक भी है। यह कुशल अनुमानक भी है क्योंकि इसका विचरण क्रैमर-राव निचली सीमा (सीआरएलबी) को प्राप्त करता है<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=पता लगाने का अनुमान और मॉड्यूलेशन सिद्धांत।|date=2013|others=Kristine L. Bell, Zhi Tian |isbn=978-1-299-66515-6|edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref>इसलिए यह [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] है। यह भी सिद्ध किया जा सकता है कि योग (और इसलिए प्रतिरूप का कारण है क्योंकि यह योग का एक-से-एक फलन है) {{mvar|λ}} के लिए पूर्ण और पर्याप्त आँकड़ा है।
 
पर्याप्तता सिद्ध करने के लिए हम गुणनखंडन प्रमेय '''पर्याप्त आँकड़े''' का उपयोग कर सकते हैं। प्रतिरूप के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान फलन को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से प्रतिरूप <math>\mathbf{x}</math> पर निर्भर करता है (जिसे <math>h(\mathbf{x})</math> कहा जाता है)) और जो पैरामीटर <math>\lambda</math> और प्रतिरूप <math>\mathbf{x}</math> पर निर्भर करता है केवल फलन <math>T(\mathbf{x}).</math> के माध्यम से <math>T(\mathbf{x}).</math> तब <math>\lambda.</math> के लिए पर्याप्त आँकड़ा है


पर्याप्तता सिद्ध करने के लिए हम पर्याप्त आँकड़े का उपयोग कर सकते हैं। नमूने के लिए संयुक्त पॉइसन वितरण की संभाव्यता द्रव्यमान फलन को दो भागों में विभाजित करने पर विचार करें: जो पूरी तरह से नमूने पर निर्भर करता है <math>\mathbf{x}</math> (बुलाया <math>h(\mathbf{x})</math>) और जो पैरामीटर पर निर्भर करता है <math>\lambda</math> और नमूना <math>\mathbf{x}</math> केवल फलन के माध्यम से <math>T(\mathbf{x}).</math> तब <math>T(\mathbf{x})</math> के लिए पर्याप्त आँकड़ा है <math>\lambda.</math>
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math>
: <math> P(\mathbf{x})=\prod_{i=1}^n\frac{\lambda^{x_i} e^{-\lambda}}{x_i!}=\frac{1}{\prod_{i=1}^n x_i!} \times \lambda^{\sum_{i=1}^n x_i}e^{-n\lambda} </math>
पहला पद, <math>h(\mathbf{x},</math> पर ही निर्भर करता है <math>\mathbf{x}.</math> दूसरा फलनकाल, <math>g(T(\mathbf{x})|\lambda),</math> के माध्यम से ही नमूने पर निर्भर करता है <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math> इस प्रकार, <math>T(\mathbf{x})</math> अधिक है।
पहला पद, <math>h(\mathbf{x},</math> केवल <math>\mathbf{x}.</math> पर निर्भर करता है दूसरा पद,<math>g(T(\mathbf{x})|\lambda),</math> केवल <math display="inline">T(\mathbf{x})=\sum_{i=1}^n x_i.</math>के माध्यम से प्रतिरूप पर निर्भर करता है, इस प्रकार <math>T(\mathbf{x})</math>पर्याप्त है।


पैरामीटर खोजने के लिए {{mvar|λ}} जो पॉइसन जनसंख्या के लिए संभाव्यता फलन को अधिकतम करता है, हम संभावना फलन के लघुगणक का उपयोग कर सकते हैं:
पैरामीटर {{mvar|λ}} को खोजने के लिए जो पॉइसन संख्या के लिए संभाव्यता फलन को अधिकतम करता है, हम संभावना फलन के लघुगणक का उपयोग कर सकते हैं:


: <math> \begin{align}
: <math> \begin{align}
Line 284: Line 282:
& = -n\lambda + \left(\sum_{i=1}^n k_i\right) \ln(\lambda) - \sum_{i=1}^n \ln(k_i!).
& = -n\lambda + \left(\sum_{i=1}^n k_i\right) \ln(\lambda) - \sum_{i=1}^n \ln(k_i!).
\end{align} </math>
\end{align} </math>
हम इसका व्युत्पन्न लेते हैं <math>\ell</math> इसके संबंध में {{mvar|λ}} और इसकी तुलना शून्य से करें:
हम λ के संबंध में <math>\ell</math> का व्युत्पन्न लेते हैं और इसकी तुलना शून्य से करते हैं:


: <math>\frac{\mathrm{d}}{\mathrm{d}\lambda} \ell(\lambda) = 0 \iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!</math>
: <math>\frac{\mathrm{d}}{\mathrm{d}\lambda} \ell(\lambda) = 0 \iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!</math>
के लिए समाधान {{mvar|λ}} स्थिर बिंदु देता है।
λ को हल करने पर स्थिर बिंदु मिलता है।


: <math> \lambda = \frac{\sum_{i=1}^n k_i}{n}</math>
: <math> \lambda = \frac{\sum_{i=1}^n k_i}{n}</math>
इसलिए {{mvar|λ}} का औसत है {{mvar|k}}<sub>''i''</sub> मूल्य. स्थिर बिंदु पर L के दूसरे अवकलज का चिन्ह प्राप्त करने से यह निर्धारित होगा कि किस प्रकार का चरम मान है {{mvar|λ}} है।
इसलिए {{mvar|λ}} {{mvar|k}}<sub>''i''</sub> मानो का औसत है| स्थिर बिंदु पर L के दूसरे अवकलज का चिन्ह प्राप्त करने से यह निर्धारित होगा कि {{mvar|λ}} किस प्रकार का चरम मान है


: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = -\lambda^{-2}\sum_{i=1}^n k_i </math>
: <math>\frac{\partial^2 \ell}{\partial \lambda^2} = -\lambda^{-2}\sum_{i=1}^n k_i </math>
Line 296: Line 294: