बीटा वितरण

संभाव्यता सिद्धांत और सांख्यिकी में, बीटा वितरण के दो धनात्मक सांख्यिकीय मापदंड होते है  इसके संदर्भ में अंतराल [0,1] पर परिभाषित निरंतर संभाव्यता वितरण का परिवार है, जिसे 'अल्फा' (α) और  बीटा (β)  द्वारा दर्शाया गया है। जो वेरिएबल  के घातांक और क्रमशः 1 के पूरक के रूप में दिखाई देते हैं, और वितरण के आकार मापदंड को नियंत्रित करते हैं।

विभिन्न प्रकार के विषयों में परिमित लंबाई के अंतराल तक सीमित यादृच्छिक वेरिएबल है जिन्हें उनके व्यवहार को मॉडल करने के लिए बीटा वितरण के रूप में प्रयुक्त किया गया है। बीटा वितरण प्रतिशत और अनुपात के यादृच्छिक व्यवहार के लिए उपयुक्त मॉडल है।

बायेसियन अनुमान में, बीटा वितरण बर्नौली वितरण, द्विपद वितरण, ऋणात्मक द्विपद वितरण और ज्यामितीय वितरण वितरण के लिए संयुग्मित पूर्व वितरण है।

यहां चर्चा किए गए बीटा वितरण के सूत्रीकरण को पहली तरह के बीटा वितरण के रूप में भी जाना जाता है, जबकि दूसरी तरह का बीटा वितरण बीटा प्राइम वितरण का वैकल्पिक नाम है। अनेक वेरिएबलों के सामान्यीकरण को डिरिचलेट वितरण कहा जाता है।

संभाव्यता घनत्व फलन
प्रायिकता घनत्व फलन (पीडीएफ) बीटा वितरण के लिए 0 ≤ x ≤ 1, और आकार मापदंड α, β > 0, वेरिएबल x और उसके प्रतिबिंब सूत्र का (1 − x) शक्ति कार्य है  निम्नलिखित नुसार:



\begin{align} f(x;\alpha,\beta) & = \mathrm{constant}\cdot x^{\alpha-1}(1-x)^{\beta-1} \\[3pt] & = \frac{x^{\alpha-1}(1-x)^{\beta-1}}{\displaystyle \int_0^1 u^{\alpha-1} (1-u)^{\beta-1}\, du} \\[6pt] & = \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\, x^{\alpha-1}(1-x)^{\beta-1} \\[6pt] & = \frac{1}{\Beta(\alpha,\beta)} x^{\alpha-1}(1-x)^{\beta-1} \end{align} $$ जहां Γ(z) गामा फलन है। बीटा फलन, $$\Beta$$, यह सुनिश्चित करने के लिए सामान्यीकरण स्थिरांक है कि कुल संभाव्यता 1 है। उपरोक्त समीकरणों में x यादृच्छिक वेरिएबल X का अहसास (संभावना) है—एक प्रेक्षित मान जो वास्तव में हुआ है।

इस परिभाषा में दोनों छोर सम्मिलित हैं  x = 0 और x = 1, जो संभाव्यता वितरण की अन्य सूची के लिए परिभाषाओं के अनुरूप है, जो बीटा वितरण के विशेष स्तिथियाँ हैं, उदाहरण के लिए आर्क्सिन वितरण, और अनेक लेखकों के साथ संगत है, जैसे |एन। एल. जॉनसन और एस. कोटज़। चूंकि, x = 0 और x = 1  का समावेश α, β < 1 के लिए काम नहीं करता है ; तदनुसार, विलियम फेलर सहित अनेक अन्य लेखक | डब्ल्यू।,  x = 0 और x = 1, फलेर सिरों को बाहर करना चुनें (जिससे दो छोर वास्तव में घनत्व फलन के डोमेन का भाग  न हों) और इसके अतिरिक्त       0 < x < 1 पर विचार करें.

नॉर्मन लॉयड जॉनसन सहित अनेक लेखक एन. एल. जॉनसन और सैमुअल कोट्ज़ (एस. कोटज़), बीटा वितरण के आकार मापदंडों के लिए प्रतीकों p और q (α और β के अतिरिक्त) का उपयोग करें,तथा यह पारंपरिक रूप से बर्नौली वितरण के मापदंडों के लिए उपयोग किए जाने वाले प्रतीकों की याद दिलाते हैं, क्योंकि बीटा वितरण सीमा में बर्नौली वितरण तक पहुंचता है जब दोनों आकार मापदंड α और β शून्य के मान तक पहुंचते हैं।

निम्नलिखित में, मापदंड α और β के साथ यादृच्छिक वेरिएबल X बीटा-वितरित द्वारा निरूपित किया जाएगा:


 * $$X \sim \operatorname{Beta}(\alpha, \beta)$$

सांख्यिकीय साहित्य में प्रयुक्त बीटा-वितरित यादृच्छिक वेरिएबल के लिए अन्य अंकन  $$X \sim \mathcal{B}e(\alpha, \beta)$$ और $$X \sim \beta_{\alpha, \beta}$$ हैं.

संचयी वितरण फलन
संचयी वितरण फलन है


 * $$F(x;\alpha,\beta) = \frac{\Beta{}(x;\alpha,\beta)}{\Beta{}(\alpha,\beta)} = I_x(\alpha,\beta)

$$ जहाँ $$\Beta(x;\alpha,\beta)$$ बीटा फलन है और  $$I_x(\alpha,\beta)$$ अधूरा बीटा फलन नियमित अधूरा बीटा फलन है।

माध्य और प्रतिरूप आकार
बीटा वितरण को इसके औसत μ(0 < μ < 1) और दो आकार के मापदंडों का योग ν = α + β > 0( पी 83). के संदर्भ में भी पुनर्मूल्यांकित किया जा सकता है α पोस्टीरियर और β पोस्टीरियर द्वारा पोस्टीरियर बीटा डिस्ट्रीब्यूशन के शेप मापदंड्स को अस्वीकार करना, जिसके परिणाम स्वरूप बेयस प्रमेय को द्विपदीय संभावना फलन और पूर्व संभावना पर प्रयुक्त किया जाता है, प्रतिरूप आकार होने के लिए दोनों आकार मापदंडों के जोड़ की व्याख्या = ν = α·पोस्टीरियर + β· हाल्डेन पूर्व संभाव्यता बीटा (0,0) के लिए केवल पश्च भाग ही सही है। विशेष रूप से, बेयस (यूनिफ़ॉर्म) पूर्व बीटा (1,1) के लिए सही व्याख्या प्रतिरूप आकार = α·पोस्टीरियर + β पोस्टीरियर - 2, या ν = (प्रतिरूप आकार) + 2 होगी। 2 से बहुत बड़े सैंपल आकार के लिए, इन दो पूर्वों के मध्य का अंतर नगण्य हो जाता है। (अधिक विवरण के लिए अनुभाग या बायेसियन अनुमान देखें।) ν = α + β को बीटा वितरण के प्रतिरूप आकार के रूप में संदर्भित किया जाता है, किन्तु किसी को यह याद रखना चाहिए कि यह सख्ती से बोलना,जरुरी है तथा  द्विपदीय संभावना फलन का प्रतिरूप आकार केवल उपयोग करते समय बेज़ प्रमेय से पहले हाल्डेन बीटा (0,0) होता है ।

यह पैरामीट्रिजेशन बायेसियन मापदंड आकलन में उपयोगी हो सकता है। उदाहरण के लिए, कोई व्यक्ति अनेक व्यक्तियों को परीक्षण दे सकता है। यदि यह मान लिया जाए कि प्रत्येक व्यक्ति का स्कोर (0 ≤ θ ≤ 1) संख्या -स्तर बीटा वितरण से लिया गया है, तब महत्वपूर्ण आँकड़ा इस संख्या -स्तर वितरण का माध्य है। माध्य और प्रतिरूप आकार मापदंड आकार मापदंड α और β के माध्यम से संबंधित हैं


 * α = μν, β = (1 - μ)ν

इस सांख्यिकीय मापदंड के अनुसार है, जिसको प्रतिरूप आकार के लिए धनात्मक  वास्तविकताओं पर माध्य पर अनौपचारिक पूर्व संभावना, और अस्पष्ट पूर्व संभावना (जैसे घातीय या गामा वितरण) रख सकते हैं, यदि वे स्वतंत्र हैं, और पूर्व डेटा या विश्वासियें है तो इसे सही ठहराते हैं।

मोड और एकाग्रता
अवतल कार्य बीटा वितरण जिनके $$\alpha,\beta>1$$ पास है मोड और एकाग्रता के संदर्भ में पैरामीट्रिज्ड किया जा सकता है। साधन, $$\omega=\frac{\alpha-1}{\alpha+\beta-2}$$, और एकाग्रता, $$\kappa = \alpha + \beta$$, का उपयोग सामान्य आकार के मापदंडों को निम्नानुसार परिभाषित करने के लिए किया जा सकता है:
 * $$\begin{align}

\alpha &= \omega (\kappa - 2) + 1\\ \beta &= (1 - \omega)(\kappa - 2) + 1 \end{align}$$ मोड के लिए, $$0<\omega<1$$, अच्छी तरह से परिभाषित होने के लिए, हमें $$\alpha,\beta>1$$, या समकक्ष $$\kappa>2$$. की आवश्यकता है यदि इसके अतिरिक्त हम एकाग्रता को $$c=\alpha+\beta-2$$  के रूप में परिभाषित करते हैं तो स्थिति $$c>0$$ सरल हो जाती है  और  $$\alpha=1+c\omega$$ और $$\beta=1+c(1-\omega)$$ पर बीटा घनत्व पर इस प्रकार  लिखा जा सकता है:

f(x;\omega,c) = \frac{x^{c\omega}(1-x)^{c(1-\omega)}}{\Beta\bigl(1+c\omega,1+c(1-\omega)\bigr)} $$ जहाँ $$c$$ सीधे पर्याप्त आँकड़ों $$\log(x)$$और $$\log(1-x)$$. को मापता है, यह भी ध्यान दें कि सीमा में, $$c\to0$$, वितरण सपाट हो जाता है।

माध्य और विचरण
उपरोक्त वर्गों में दिए गए (युग्मित) समीकरणों की प्रणाली को माध्य के समीकरणों के रूप में हल करना और मूल मापदंडों α और β के संदर्भ में बीटा वितरण का विचरण, माध्य के संदर्भ में α और β मापदंडों को व्यक्त कर सकता है ( μ) और विचरण (var):


 * $$ \begin{align}

\nu &= \alpha + \beta = \frac{\mu(1-\mu)}{\mathrm{var}}-1, \text{ where }\nu =(\alpha + \beta) >0,\text{ therefore: }\text{var}< \mu(1-\mu)\\ \alpha&= \mu \nu =\mu \left(\frac{\mu(1-\mu)}{\text{var}}-1\right), \text{ if } \text{var}< \mu(1-\mu)\\ \beta &= (1 - \mu) \nu = (1 - \mu)\left(\frac{\mu(1-\mu)}{\text{var}}-1\right), \text{ if }\text{var}< \mu(1-\mu). \end{align}

$$ बीटा वितरण का यह सांख्यिकीय मापदंड मूल मापदंड α और β के आधार पर से अधिक सहज ज्ञान युक्त समझ उत्पन्न कर सकता है। उदाहरण के लिए, माध्य और विचरण के संदर्भ में मोड, विषमता, अतिरिक्त कुर्टोसिस और अंतर एन्ट्रापी को व्यक्त करके:



चार मापदंड्स
दो आकार मापदंड α और β के साथ बीटा वितरण श्रेणी [0,1] या (0,1) पर समर्थित है। न्यूनतम, a, और अधिकतम c(c> a), वितरण के मूल्यों का प्रतिनिधित्व करने वाले दो और मापदंड प्रस्तुत करके वितरण के स्थान और पैमाने को बदलना संभव है, गैर-आयामी वेरिएबल  को प्रतिस्थापित करने वाले रैखिक परिवर्तन द्वारा x नए वेरिएबल y के संदर्भ में  (समर्थन [a, c] या (a, c) के साथ) और मापदंड a और c होंगे  :


 * $$y = x(c-a) + a, \text{ therefore    }x = \frac{y-a}{c-a}.$$

चार मापदंड बीटा वितरण का प्रायिकता घनत्व फलन दो मापदंड वितरण के सामान्तर है, जिसे रेंज (c-a) द्वारा स्केल किया गया है, (जिससेघनत्व वक्र के अंतर्गत कुल क्षेत्रफल की संभावना के सामान्तर हो), और y वेरिएबल के साथ शिफ्ट हो गया और निम्नानुसार स्केल किया गया:
 * $$f(y; \alpha, \beta, a, c) = \frac{f(x;\alpha,\beta)}{c-a} =\frac{\left(\frac{y-a}{c-a}\right)^{\alpha-1} \left (\frac{c-y}{c-a} \right)^{\beta-1} }{(c-a)B(\alpha, \beta)}=\frac{ (y-a)^{\alpha-1} (c-y)^{\beta-1} }{(c-a)^{\alpha+\beta-1}B(\alpha, \beta)}.

$$ यह कि यादृच्छिक वेरिएबल Y को चार मापदंड α, β, a, और c हैं बीटा-वितरित है जिसे निम्न द्वारा दर्शाया गया है |


 * $$Y \sim \operatorname{Beta}(\alpha, \beta, a, c).$$

केंद्रीय स्थान के कुछ उपायों को स्केल किया गया है (द्वारा (सी-ए)) और स्थानांतरित (ए द्वारा), निम्नानुसार है:


 * $$ \begin{align}

\mu_Y &= \mu_X(c-a) + a = \left(\frac{\alpha}{\alpha+\beta}\right)(c-a) + a = \frac{\alpha c+ \beta a}{\alpha+\beta} \\ \text{mode}(Y) &=\text{mode}(X)(c-a) + a = \left(\frac{\alpha - 1}{\alpha+\beta - 2}\right)(c-a) + a = \frac{(\alpha-1) c+(\beta-1) a}{\alpha+\beta-2}\ ,\qquad \text{ if } \alpha, \beta>1 \\ \text{median}(Y) &= \text{median}(X)(c-a) + a = \left (I_{\frac{1}{2}}^{[-1]}(\alpha,\beta) \right )(c-a)+a \\ \end{align} $$ नोट: ज्यामितीय माध्य और हार्मोनिक माध्य को रेखीय परिवर्तन द्वारा रूपांतरित नहीं किया जा सकता है, जिस तरह से माध्य, माध्यिका और मोड कर सकते हैं।

Y के आकार के मापदंडों को इसके माध्य और विचरण के रूप में लिखा जा सकता है


 * $$ \begin{align}

\alpha &= \frac{(a - \mu_Y)(a \, c - a \, \mu_Y - c \, \mu_Y + \mu_Y^2 + \sigma_Y^2)}{\sigma_Y^2(c-a)} \\ \beta &= -\frac{(c - \mu_Y)(a \, c - a \, \mu_Y - c \, \mu_Y + \mu_Y^2 + \sigma_Y^2)}{\sigma_Y^2(c-a)} \\ \end{align} $$ सांख्यिकीय फैलाव उपायों को बढ़ाया जाता है (उन्हें स्थानांतरित करने की आवश्यकता नहीं है क्योंकि वे पहले से ही माध्य पर केंद्रित हैं) सीमा (सी-ए) द्वारा, औसत विचलन के लिए रैखिक रूप से और भिन्नता के लिए गैर-रैखिक रूप से:


 * $$\text{(mean deviation around mean)}(Y)=$$
 * $$(\text{(mean deviation around mean)}(X))(c-a) =\frac{2 \alpha^{\alpha} \beta^{\beta}}{\Beta(\alpha,\beta)(\alpha + \beta)^{\alpha + \beta + 1}}(c-a)$$
 * $$ \text{var}(Y) =\text{var}(X)(c-a)^2 =\frac{\alpha\beta (c-a)^2}{(\alpha+\beta)^2(\alpha+\beta+1)}.$$

चूँकि विषमता और अतिरिक्त कर्टोसिस गैर-आयामी मात्राएँ हैं (जैसा कि क्षण (गणित) माध्य पर केंद्रित है और मानक विचलन द्वारा सामान्यीकृत है), वे मापदंड a और c से स्वतंत्र हैं, और इसलिए ऊपर दिए गए भावों के सामान्तर हैं x (समर्थन के साथ [0,1] या (0,1)):


 * $$ \text{skewness}(Y) =\text{skewness}(X) = \frac{2 (\beta - \alpha) \sqrt{\alpha + \beta + 1} }{(\alpha + \beta + 2) \sqrt{\alpha \beta}}.$$
 * $$ \text{kurtosis excess}(Y) =\text{kurtosis excess}(X)=\frac{6[(\alpha - \beta)^2 (\alpha +\beta + 1) - \alpha \beta (\alpha + \beta + 2)]}

{\alpha \beta (\alpha + \beta + 2) (\alpha + \beta + 3)} $$

मोड
α, β> 1 के साथ बीटा वितरित रैंडम वेरिएबल X का मोड (सांख्यिकी) वितरण का सबसे संभावित मान है (PDF में शिखर के अनुरूप), और निम्नलिखित अभिव्यक्ति द्वारा दिया गया है:
 * $$\frac{\alpha - 1} {\alpha + \beta - 2} .$$

जब दोनों मापदंड (α, β <1) से कम होते हैं, तब यह एंटी-मोड होता है: प्रायिकता घनत्व वक्र का निम्नतम बिंदु।

Α = β देने पर, मोड के लिए अभिव्यक्ति 1/2 तक सरल हो जाती है, यह दिखाते हुए कि α = β> 1 के लिए मोड (प्रतिक्रिया विरोधी मोड जब α, β < 1), वितरण के केंद्र में है: यह उन स्थितियों में सममित है। α और β के इच्छानुसार मानों के लिए मोड स्थितियों की पूरी सूची के लिए इस आलेख में बीटा वितरण या आकार अनुभाग देखें, । इनमें से अनेक स्थितियों के लिए, घनत्व फलन का अधिकतम मान या दोनों सिरों पर होता है। कुछ स्थितियों में अंत में होने वाले घनत्व फलन का (अधिकतम) मान परिमित होता है। उदाहरण के लिए, α = 2, β = 1 (या α = 1, β = 2) के स्तिथियों में, घनत्व फलन त्रिकोणीय बंटन बन जाता है। समकोण-त्रिकोण वितरण जो दोनों सिरों पर परिमित है। अनेक अन्य स्थितियों में छोर पर गणितीय विलक्षणता होती है, जहां घनत्व फलन का मान अनंत तक पहुंचता है। उदाहरण के लिए, स्तिथियों में α = β = 1/2, बीटा वितरण आर्सेन वितरण बनने के लिए सरल हो जाता है। इनमें से कुछ स्थितियों को लेकर गणितज्ञों के मध्य बहस है और क्या छोरों (x = 0, और x = 1) को बहुलक कहा जा सकता है या नहीं। क्या सिरे घनत्व फलन के फलन के डोमेन का भाग हैं
 * क्या गणितीय विलक्षणता को कभी भी विधा कहा जा सकता है
 * क्या दो मैक्सिमा वाले स्थितियों को बिमॉडल कहा जाना चाहिए

मध्य
इसमें बीटा वितरण का माध्य अद्वितीय वास्तविक संख्या $$x = I_{\frac{1}{2}}^{[-1]}(\alpha,\beta)$$ है जिसके लिए नियमित अधूरा बीटा फलन $$I_x(\alpha,\beta) = \tfrac{1}{2} $$. α और β के इच्छानुसार मूल्यों के लिए बीटा वितरण के माध्यिका के लिए कोई सामान्य विवृत  -रूप अभिव्यक्ति नहीं है। मापदंडों α और β के विशेष मूल्यों के लिए विवृत -रूप अभिव्यक्ति का पालन करें:


 * सममित स्थितियों के लिए α = β, माध्यिका = 1/2।
 * α = 1 और β > 0 के लिए माध्यिका $$ =1-2^{-\frac{1}{\beta}}$$ (यह केस दर्पण छवि  है | पावर फलन  [0,1] डिस्ट्रीब्यूशन की मिरर-इमेज)
 * α > 0 और β = 1 के लिए माध्यिका = $$2^{-\frac{1}{\alpha}}$$ (यह स्तिथि पावर फलन [0,1] वितरण है
 * α = 3 और β = 2 के लिए माध्यिका = 0.6142724318676105..., चतुर्थक फलन 1 − 8x3 + 6x4 = 0 का वास्तविक समाधान, जो [0,1] में है।
 * α = 2 और β = 3 के लिए, माध्य = 0.38572756813238945... = 1−माध्यिका (बीटा (3, 2))

एक मापदंड परिमित (गैर-शून्य) के साथ निम्नलिखित सीमाएँ हैं और दूसरी इन सीमाओं तक पहुँच रही हैं:


 * $$ \begin{align}

\lim_{\beta \to 0} \text{median}= \lim_{\alpha \to \infty} \text{median} = 1,\\ \lim_{\alpha\to 0} \text{median}= \lim_{\beta \to  \infty} \text{median} = 0. \end{align}$$ α और β दोनों के लिए से अधिक या सामान्तर, बीटा वितरण के माध्यिका के मूल्य का उचित सन्निकटन सूत्र द्वारा दिया गया है


 * $$\text{median} \approx \frac{\alpha - \tfrac{1}{3}}{\alpha + \beta - \tfrac{2}{3}} \text{ for } \alpha, \beta \ge 1.$$

जब α, β ≥ 1, इस सन्निकटन में सापेक्ष त्रुटि (माध्यिका द्वारा विभाजित सन्निकटन त्रुटि) 4% से कम है और α ≥ 2 और β ≥ 2 दोनों के लिए यह 1% से कम है। माध्य और मोड के मध्य के अंतर से विभाजित सन्निकटन त्रुटि समान रूप से छोटी है:



मीन === दो मापदंड α और β के साथ बीटा वितरण यादृच्छिक वेरिएबल X का अपेक्षित मान (माध्य) (μ) इन मापदंडों के केवल β/α का फलन है:


 * $$ \begin{align}

\mu = \operatorname{E}[X] &= \int_0^1 x f(x;\alpha,\beta)\,dx \\ &= \int_0^1 x \,\frac{x^{\alpha-1}(1-x)^{\beta-1}}{\Beta(\alpha,\beta)}\,dx \\ &= \frac{\alpha}{\alpha + \beta} \\ &= \frac{1}{1 + \frac{\beta}{\alpha}} \end{align}$$ उपरोक्त अभिव्यक्ति में α = β देने पर μ = 1/2 प्राप्त करता है α = β माध्य वितरण के केंद्र में है: यह सममित है। साथ ही, उपरोक्त अभिव्यक्ति से निम्नलिखित सीमाएँ प्राप्त की जा सकती हैं:


 * $$ \begin{align}

\lim_{\frac{\beta}{\alpha} \to 0} \mu = 1\\ \lim_{\frac{\beta}{\alpha} \to \infty} \mu = 0 \end{align}$$ इसलिए, β/α → 0, या α/β → ∞ के लिए, माध्य दाहिने छोर पर स्थित है, x = 1. इन सीमा अनुपातबं के लिए, बीटा वितरण डिराक डेल्टा फलन के साथ एक-बिंदु पतित वितरण बन जाता है, दाहिने छोर पर स्पाइक,  x = 1, प्रायिकता 1 के साथ, और हर स्थान पर  शून्य प्रायिकता पाई जाती है । 100% संभावना (पूर्ण निश्चितता) x = 1 सही छोर पर केंद्रित है|.

\lim_{\beta \to 0} \mu = \lim_{\alpha \to  \infty} \mu = 1\\ \lim_{\alpha\to 0} \mu = \lim_{\beta \to  \infty} \mu = 0 \end{align}$$

जबकि ठेठ एकरूप वितरण के लिए (केंद्रीय रूप से स्थित मोड के साथ, मोड के दोनों किनारों पर नतिकरण बिंदु, और लंबी टेल ) (बीटा (α, β) के साथ जैसे कि α, β > 2) यह ज्ञात है कि प्रतिरूप माध्य (स्थान के अनुमान के रूप में) प्रतिरूप माध्यिका के रूप में शक्तिशाली आँकड़े नहीं है, इसके विपरीत वर्दी या यू-आकार के बिमोडल वितरण (बीटा (α, β) के साथ) के स्तिथियों में है α, β ≤ 1), वितरण के अंत में स्थित मोड के साथ। मोस्टेलर और टुकी टिप्पणी के रूप में ( पी। 207) दो वेरिएबल म अवलोकनों का औसत सभी प्रतिरूप जानकारी का उपयोग करता है। यह दर्शाता है कि कैसे लघु-टेल  वितरण के लिए, वेरिएबल म प्रेक्षणों को अधिक भार मिलना चाहिए। इसके विपरीत, यह वितरण के किनारे पर मोड के साथ यू-आकार के बिमोडल वितरण का माध्यिका है (बीटा (α, β) के साथ जैसे कि α, β ≤ 1) शक्तिशाली  नहीं है, क्योंकि प्रतिरूप माध्यिका अत्यधिक प्रतिरूप टिप्पणियों को विचार से हटा देती है। इसका व्यावहारिक अनुप्रयोग उदाहरण के लिए यादृच्छिक चाल के लिए होता है, क्योंकि रैंडम वॉक में मूल स्थान पर अंतिम विज़िट के समय की संभावना आर्क्सिन वितरण बीटा (1/2, 1/2) के रूप में वितरित की जाती है:  एक यादृच्छिक चलने की अनेक प्राप्ति (संभावना) का कारणऔसत से अधिक शक्तिशाली  अनुमानक है (जो इस स्तिथियों में अनुचित प्रतिरूप माप अनुमान है)।

ज्यामितीय माध्य
यादृच्छिक वेरिएबल X के साथ वितरण का ज्यामितीय माध्य GX का लघुगणक   ln(X) का अंकगणितीय माध्य है, या, समतुल्य, इसका अपेक्षित मान है
 * $$\ln G_X = \operatorname{E}[\ln X]$$

बीटा वितरण के लिए, अपेक्षित मान अभिन्न देता है:


 * $$\begin{align}

\operatorname{E}[\ln X] &= \int_0^1 \ln x\, f(x;\alpha,\beta)\,dx \\[4pt] &= \int_0^1 \ln x \,\frac{ x^{\alpha-1}(1-x)^{\beta-1}}{\Beta(\alpha,\beta)}\,dx \\[4pt] &= \frac{1}{\Beta(\alpha,\beta)} \, \int_0^1 \frac{\partial x^{\alpha-1}(1-x)^{\beta-1}}{\partial \alpha}\,dx \\[4pt] &= \frac{1}{\Beta(\alpha,\beta)} \frac{\partial}{\partial \alpha} \int_0^1 x^{\alpha-1}(1-x)^{\beta-1}\,dx \\[4pt] &= \frac{1}{\Beta(\alpha,\beta)} \frac{\partial \Beta(\alpha,\beta)}{\partial \alpha} \\[4pt] &= \frac{\partial \ln \Beta(\alpha,\beta)}{\partial \alpha} \\[4pt] &= \frac{\partial \ln \Gamma(\alpha)}{\partial \alpha} - \frac{\partial \ln \Gamma(\alpha + \beta)}{\partial \alpha} \\[4pt] &= \psi(\alpha) - \psi(\alpha + \beta) \end{align}                                                                                                                                                                         $$ जहां ψ डिगामा फलन है।

इसलिए, इसका आकार मापदंड α और β के साथ बीटा वितरण का ज्यामितीय माध्य α और β के डिगामा कार्यों का घातांक निम्नानुसार है:


 * $$G_X =e^{\operatorname{E}[\ln X]}= e^{\psi(\alpha) - \psi(\alpha + \beta)}$$

जबकि समान आकार के मापदंड α = β के साथ बीटा वितरण के लिए, यह इस प्रकार है कि विषमता = 0 और मोड = माध्य = औसत = 1/2, ज्यामितीय माध्य 1/2 से कम है: 0 < GX < 1/2. इसका कारण यह है कि लॉगरिदमिक परिवर्तन X के मूल्यों को शून्य के समीप दृढ़ता से भारित करता है, क्योंकि ln(X) दृढ़ता से ऋणात्मक अनन्तता की ओर जाता है क्योंकि X शून्य तक पहुंचता है, जबकि ln(X)  X → 1 शून्य की ओर चपटा होता है.

एक पंक्ति के साथ α = β, निम्नलिखित सीमाएँ प्रयुक्त होती हैं:


 * $$ \begin{align}

&\lim_{\alpha = \beta \to 0} G_X = 0 \\ &\lim_{\alpha = \beta \to \infty} G_X =\tfrac{1}{2} \end{align}$$ निम्नलिखित मापदंड परिमित (गैर-शून्य) के साथ सीमाएँ हैं और अन्य इन सीमाओं के समीप हैं:


 * $$ \begin{align}

\lim_{\beta \to 0} G_X = \lim_{\alpha \to  \infty} G_X = 1\\ \lim_{\alpha\to 0} G_X = \lim_{\beta \to  \infty} G_X = 0 \end{align}$$ संलग्न आलेख शून्य से 2 तक आकृति मापदंड α और β उपयोग किये जाते है जिनके लिए माध्य और ज्यामितीय माध्य के मध्य अंतर दिखाता है। इस तथ्य के अतिरिक्त कि उनके मध्य का अंतर शून्य तक पहुंच जाता है क्योंकि α और β अनंत तक पहुंचते हैं और यह अंतर α के मानों के लिए बड़ा हो जाता है और β शून्य के समीप पहुंचने वाला होता है, आकार मापदंड α और β के संबंध में ज्यामितीय माध्य की स्पष्ट विषमता देखी जा सकती है। जब कि β और α के परिमाणों का आदान-प्रदान करने की तुलना में β के संबंध में α के छोटे मानों के लिए ज्यामितीय माध्य और माध्य के मध्य का अंतर बड़ा है।

नॉर्मन लॉयड जॉनसन|(एन. एल.जॉनसन) और सैमुअल कोटज़(एस. कोटज़) डिगामा फलन ψ(α) ≈ ln(α − 1/2) के लिए लघुगणक सन्निकटन का सुझाव देते है, जिसके परिणामस्वरूप ज्यामितीय माध्य के लिए निम्नलिखित सन्निकटन होता है:


 * $$G_X \approx \frac{\alpha \, - \frac{1}{2}}{\alpha +\beta - \frac{1}{2}}\text{ if } \alpha, \beta > 1.                                                                    $$

इस सन्निकटन में सापेक्ष त्रुटि के लिए संख्यात्मक मान अनुसरण करते हैं: [(α = β = 1): 9.39%]; [(α = β = 2): 1.29%]; [(α = 2, β = 3): 1.51%];  [(α = 3, β = 2): 0.44%]; [(α = β = 3): 0.51%]; [(α = β = 4): 0.26%]; [(α = 3, β = 4): 0.55%];  [(α = 4, β = 3): 0.24%]।

इसी तरह, ज्यामितीय माध्य के सामान्तर 1/2 के लिए आवश्यक आकार मापदंडों के मान की गणना कर सकते हैं। मापदंड β के मान को देखते हुए, 1/2 के सामान्तर ज्यामितीय माध्य के लिए आवश्यक अन्य मापदंड α का मान क्या होगा?. उत्तर यह है कि (β > 1 के लिए), आवश्यक α का मान β → ∞ के रूप में β + 1/2 की ओर बढ़ता है। उदाहरण के लिए, इन सभी जोड़ों का 1/2 का समान ज्यामितीय माध्य है: [β = 1, α = 1.4427], [β = 2, α = 2.46958], [β = 3, α = 3.47943], [β = 4, α = 4.48449], [β = 5, α = 5.48756], [β = 10, α = 10.4938], [β = 100, α = 100.499]।

ज्यामितीय माध्य का मौलिक गुण है जो किसी अन्य माध्य के लिए असत्य सिद्ध हो सकता है,


 * $$G\left(\frac{X_i}{Y_i}\right) = \frac{G(X_i)}{G(Y_i)}$$

यह ज्यामितीय माध्य को एकमात्र सही माध्य बनाता है जब सामान्यीकृत परिणामों का औसत निकाला जाता है, अर्थात वे परिणाम जो संदर्भ मूल्यों के अनुपात के रूप में प्रस्तुत किए जाते हैं। यह प्रासंगिक है क्योंकि बीटा वितरण प्रतिशत के यादृच्छिक व्यवहार के लिए उपयुक्त मॉडल है और यह अनुपात के सांख्यिकीय मॉडलिंग के लिए विशेष रूप से उपयुक्त है। ज्यामितीय माध्य अधिकतम संभावना अनुमान में केंद्रीय भूमिका निभाता है,जिससे कि खंड मापदंड के अनुमान, तथा अधिकतम संभावना देखें जा सके। दरअसल, अधिकतम संभावना का अनुमान लगाते समय, यादृच्छिक वेरिएबल X के आधार पर ज्यामितीय माध्य GX के अतिरिक्त, और ज्यामितीय माध्य भी स्वाभाविक रूप से प्रकट होता है: रैखिक परिवर्तन के आधार पर ज्यामितीय माध्य--(1 − X), X की दर्पण छवि, जिसे G(1−X) द्वारा निरूपित किया जाता है:


 * $$G_{(1-X)} = e^{\operatorname{E}[\ln(1-X)] } = e^{\psi(\beta) - \psi(\alpha + \beta)}$$
 * $$G_{(1-X)} = e^{\operatorname{E}[\ln(1-X)] } = e^{\psi(\beta) - \psi(\alpha + \beta)}$$

एक पंक्ति के साथ α = β, निम्नलिखित सीमाएँ प्रयुक्त होती हैं:


 * $$ \begin{align}

&\lim_{\alpha = \beta \to 0} G_{(1-X)} =0 \\ &\lim_{\alpha = \beta \to \infty} G_{(1-X)} =\tfrac{1}{2} \end{align}$$ निम्नलिखित मापदंड परिमित (गैर-शून्य) के साथ सीमाएँ हैं और अन्य इन सीमाओं के समीप हैं:


 * $$ \begin{align}

\lim_{\beta \to 0} G_{(1-X)} = \lim_{\alpha \to  \infty} G_{(1-X)} = 0\\ \lim_{\alpha\to 0} G_{(1-X)} = \lim_{\beta \to  \infty} G_{(1-X)} = 1 \end{align}$$ इसका निम्नलिखित अनुमानित मूल्य है:


 * $$G_{(1-X)} \approx \frac{\beta - \frac{1}{2}}{\alpha+\beta-\frac{1}{2}}\text{ if } \alpha, \beta > 1.                                                                       $$

चूंकि दोनों GX और G(1−X) असममित हैं, इस स्तिथियों में इनकी दोनों की आकार मापदंड समान α = β हैं, ज्यामितीय साधन सामान्तर हैं: GX = G(1−X). यह समानता दोनों ज्यामितीय साधनों के मध्य प्रदर्शित निम्नलिखित समरूपता से होती है:




 * $$G_X (\Beta(\alpha, \beta) )=G_{(1-X)}(\Beta(\beta, \alpha) ). $$

हार्मोनिक कारण
यादृच्छिक वेरिएबल X के साथ वितरण का हार्मोनिक माध्य HX का व्युत्क्रम 1/X का अंकगणितीय माध्य है या, समतुल्य, इसका अपेक्षित मान है। इसलिए, आकार मापदंड α और β के साथ बीटा वितरण का है:
 * $$ \begin{align}

H_X &= \frac{1}{\operatorname{E}\left[\frac{1}{X}\right]} \\ &=\frac{1}{\int_0^1 \frac{f(x;\alpha,\beta)}{x}\,dx} \\ &=\frac{1}{\int_0^1 \frac{x^{\alpha-1}(1-x)^{\beta-1}}{x \Beta(\alpha,\beta)}\,dx} \\ &= \frac{\alpha - 1}{\alpha + \beta - 1}\text{ if } \alpha > 1 \text{ and } \beta > 0 \\ \end{align}                                                                                                                                                                                             $$ α <1 के साथ बीटा वितरण का हार्मोनिक माध्य (HX) अपरिभाषित है, क्योंकि इसकी परिभाषित अभिव्यक्ति एकता से कम आकार मापदंड α के लिए [0, 1] में सीमित नहीं है।

उपरोक्त व्यंजक में α = β देने से प्राप्त होता है


 * $$H_X = \frac{\alpha-1}{2\alpha-1},$$

दिखा रहा है कि α = β के लिए हार्मोनिक माध्य 0 से है, α = β = 1 के लिए, 1/2 के लिए, α = β → ∞ के लिए।

निम्नलिखित मापदंड परिमित (गैर-शून्य) के साथ सीमाएँ हैं और अन्य इन सीमाओं के समीप हैं:


 * $$ \begin{align}

&\lim_{\alpha\to 0} H_X \text{ is undefined} \\ &\lim_{\alpha\to 1} H_X = \lim_{\beta \to  \infty} H_X  =  0 \\ &\lim_{\beta \to 0} H_X = \lim_{\alpha \to  \infty} H_X = 1 \end{align}                                                                                   $$ ज्यामितीय माध्य के अतिरिक्त, हार्मोनिक माध्य चार मापदंड स्तिथियों के लिए अधिकतम संभावना अनुमान में भूमिका निभाता है। दरअसल, हार्मोनिक माध्य HX के अतिरिक्त, चार मापदंड स्तिथियों के  लिए अधिकतम संभावना अनुमान लगाते समययादृच्छिक वेरिएबल  X के आधार पर, अन्य हार्मोनिक माध्य भी स्वाभाविक रूप से प्रकट होता है: रैखिक परिवर्तन (1 − X) पर आधारित हार्मोनिक माध्य, X की दर्पण-छवि, H द्वारा निरूपित1 − X:


 * $$H_{1-X} = \frac{1}{\operatorname{E} \left[\frac 1 {1-X}\right]} = \frac{\beta - 1}{\alpha + \beta-1} \text{ if } \beta > 1, \text{ and } \alpha> 0.

$$ हार्मोनिक माध्य (एच(1 − X)β <1 के साथ बीटा वितरण अपरिभाषित है, क्योंकि इसकी परिभाषित अभिव्यक्ति [0, 1] में एकता से कम आकार मापदंड β के लिए बाध्य नहीं है।

उपरोक्त व्यंजक में α = β देने से प्राप्त होता है


 * $$H_{(1-X)} = \frac{\beta-1}{2\beta-1},$$

दिखा रहा है कि α = β के लिए हार्मोनिक माध्य 0 से है, α = β = 1 के लिए, 1/2 के लिए, α = β → ∞ के लिए।

निम्नलिखित मापदंड परिमित (गैर-शून्य) के साथ सीमाएँ हैं और अन्य इन सीमाओं के समीप हैं:


 * $$ \begin{align}

&\lim_{\beta\to 0} H_{1-X} \text{ is undefined} \\ &\lim_{\beta\to 1} H_{1-X} = \lim_{\alpha\to  \infty} H_{1-X}  =  0 \\ &\lim_{\alpha\to 0} H_{1-X} = \lim_{\beta\to \infty} H_{1-X} = 1 \end{align}$$ चूंकि दोनों HX और H1−X असममित हैं, इस स्तिथियों में α = β कि दोनों आकार मापदंड सामान्तर हैं, HX = H1−X. हार्मोनिक साधन सामान्तर हैं: यह समानता दोनों हार्मोनिक साधनों के मध्य प्रदर्शित निम्नलिखित समरूपता से होती है:


 * $$H_X (\Beta(\alpha, \beta) )=H_{1-X}(\Beta(\beta, \alpha) ) \text{ if } \alpha, \beta> 1.$$

विचरण
मापदंड α और β के साथ बीटा वितरण यादृच्छिक वेरिएबल X का विचरण  (माध्य पर केंद्रित दूसरा क्षण) है:
 * $$\operatorname{var}(X) = \operatorname{E}[(X - \mu)^2] = \frac{\alpha \beta}{(\alpha + \beta)^2(\alpha + \beta + 1)}$$

उपरोक्त व्यंजक में α = β देने से प्राप्त होता है


 * $$\operatorname{var}(X) = \frac{1}{4(2\beta + 1)},$$

दिखा रहा है कि α = β के लिए जैसे जैसे α = β बढ़ती है। वैसे वैसे विचरण नीरस रूप से घटता है समुच्चयिंग α = β = 0 इस व्यंजक में, अधिकतम प्रसरण var(X) = 1/4 मिलता है जो केवल α = β = 0. पर सीमा के निकट होता है,

बीटा वितरण को इसके माध्य μ (0 < μ < 1) और प्रतिरूप आकार ν = α + β (ν > 0) के संदर्भ में भी पैरामीट्रिज्ड किया जा सकता है (उपखंड माध्य और प्रतिरूप आकार देखें):


 * $$ \begin{align}

\alpha &= \mu \nu, \text{ where }\nu =(\alpha + \beta) >0\\ \beta &= (1 - \mu) \nu, \text{ where }\nu =(\alpha + \beta) >0. \end{align}$$ इस सांख्यिकीय मापदंड का उपयोग करते हुए, माध्य μ और प्रतिरूप आकार ν के संदर्भ में विचरण को निम्नानुसार व्यक्त किया जा सकता है:


 * $$\operatorname{var}(X) = \frac{\mu (1-\mu)}{1 + \nu}$$

तब से ν = α + β > 0, यह इस प्रकार है कि var(X) < μ(1 − μ).

एक सममित वितरण के लिए, माध्य वितरण के मध्य में है, μ = 1/2, और इसलिए:


 * $$\operatorname{var}(X) = \frac{1}{4 (1 + \nu)} \text{ if } \mu = \tfrac{1}{2}$$

साथ ही, उपरोक्त भावों से निम्नलिखित सीमाएँ प्राप्त की जा सकती हैं (केवल विख्यात वेरिएबल सीमा तक पहुँच रहे हैं):


 * $$ \begin{align}

&\lim_{\beta\to 0} \operatorname{var}(X) =\lim_{\alpha \to 0} \operatorname{var}(X) =\lim_{\beta\to \infty} \operatorname{var}(X) =\lim_{\alpha \to \infty} \operatorname{var}(X) = \lim_{\nu \to  \infty} \operatorname{var}(X) =\lim_{\mu \to  0} \operatorname{var}(X) =\lim_{\mu \to  1} \operatorname{var}(X) = 0\\ &\lim_{\nu \to 0} \operatorname{var}(X) = \mu (1-\mu) \end{align}$$



ज्यामितीय विचरण और सहप्रसरण
ज्यामितीय विचरण का लघुगणक, ln(varGX), यादृच्छिक वेरिएबल  X के साथ वितरण का X के लघुगणक का दूसरा क्षण X के ज्यामितीय माध्य  ln(GX) पर केंद्रित है,


 * $$\begin{align}

\ln \operatorname{var}_{GX} &= \operatorname{E} \left [(\ln X - \ln G_X)^2 \right ] \\ &= \operatorname{E}[(\ln X - \operatorname{E}\left [\ln X])^2 \right] \\ &= \operatorname{E}\left[(\ln X)^2 \right] - (\operatorname{E}[\ln X])^2\\ &= \operatorname{var}[\ln X] \end{align}$$ और इसलिए, ज्यामितीय विचरण है:


 * $$\operatorname{var}_{GX} = e^{\operatorname{var}[\ln X]}$$

फिशर सूचना आव्युह में, और लॉग संभावना फलन की वक्रता, प्रतिबिंब सूत्र वेरिएबल 1 − X के ज्यामितीय भिन्नता का लघुगणक और X और 1 − X के मध्य ज्यामितीय सहप्रसरण का लघुगणक प्रकट होता है:


 * $$\begin{align}

\ln \operatorname{var_{G(1-X)}} &= \operatorname{E}[(\ln (1-X) - \ln G_{1-X})^2] \\ &= \operatorname{E}[(\ln (1-X) - \operatorname{E}[\ln (1-X)])^2] \\ &= \operatorname{E}[(\ln (1-X))^2] - (\operatorname{E}[\ln (1-X)])^2\\ &= \operatorname{var}[\ln (1-X)] \\ & \\ \operatorname{var_{G(1-X)}} &= e^{\operatorname{var}[\ln (1-X)]} \\ & \\ \ln \operatorname{cov_{G{X,1-X}}} &= \operatorname{E}[(\ln X - \ln G_X)(\ln (1-X) - \ln G_{1-X})] \\ &= \operatorname{E}[(\ln X - \operatorname{E}[\ln X])(\ln (1-X) - \operatorname{E}[\ln (1-X)])] \\ &= \operatorname{E}\left[\ln X \ln(1-X)\right] - \operatorname{E}[\ln X]\operatorname{E}[\ln(1-X)]\\ &= \operatorname{cov}[\ln X, \ln(1-X)] \\ & \\ \operatorname{cov}_{G{X,(1-X)}} &= e^{\operatorname{cov}[\ln X, \ln(1-X)]} \end{align}                                                                                    $$ बीटा वितरण के लिए, दो गामा वितरणों के अनुपात के रूप में बीटा वितरण के प्रतिनिधित्व का उपयोग करके और अभिन्न के माध्यम से अंतर करके उच्च क्रम लॉगरिदमिक क्षण प्राप्त किए जा सकते हैं। उन्हें उच्च क्रम के पॉली-गामा कार्यों के संदर्भ में व्यक्त किया जा सकता है। अनुभाग देखें. लघुगणकीय वेरिएबल का प्रसरण और ln X और ln(1−X) का सहप्रसरण हैं:


 * $$\operatorname{var}[\ln X]= \psi_1(\alpha) - \psi_1(\alpha + \beta)$$
 * $$\operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta)$$
 * $$\operatorname{cov}[\ln X, \ln(1-X)] = -\psi_1(\alpha+\beta)$$

जहाँ त्रिगामा फलन, ψ1(α) निरूपित करता है, तथा बहुग्राम कार्यों का दूसरा फलन है और इसे डिगामा फलन के व्युत्पन्न के रूप में परिभाषित किया गया है:


 * $$\psi_1(\alpha) = \frac{d^2\ln\Gamma(\alpha)}{d\alpha^2}= \frac{d \, \psi(\alpha)}{d\alpha}.$$

इसलिए,


 * $$ \ln \operatorname{var}_{GX}=\operatorname{var}[\ln X]= \psi_1(\alpha) - \psi_1(\alpha + \beta) $$
 * $$ \ln \operatorname{var}_{G(1-X)} =\operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta)$$
 * $$ \ln \operatorname{cov}_{GX,1-X} =\operatorname{cov}[\ln X, \ln(1-X)] = -\psi_1(\alpha+\beta)$$

इसके साथ वाले प्लॉट लॉग ज्यामितीय प्रसरण दिखाते हैं और ज्यामितीय सहप्रसरण बनाम आकृति मापदंड α और β लॉग करते हैं। भूखंड दिखाते हैं कि लॉग ज्यामितीय संस्करण और लॉग ज्यामितीय सहप्रसरण आकार मापदंडों α और β 2 से अधिक के लिए शून्य के समीप हैं, और यह कि आकार मापदंड मान α और β एकता से कम के लिए लॉग ज्यामितीय संस्करण तेजी से मूल्य में वृद्धि करते हैं। आकार के मापदंडों के सभी मूल्यों के लिए लॉग ज्यामितीय संस्करण धनात्मक  हैं। आकार के मापदंडों के सभी मूल्यों के लिए लॉग ज्यामितीय सहप्रसरण ऋणात्मक है, और यह एकता से कम α और β के लिए बड़े ऋणात्मक  मूल्यों तक पहुंचता है।

निम्नलिखित मापदंड परिमित (गैर-शून्य) के साथ सीमाएँ हैं और अन्य इन सीमाओं के समीप हैं:


 * $$ \begin{align}

&\lim_{\alpha\to 0} \ln \operatorname{var}_{GX} =  \lim_{\beta\to  0} \ln \operatorname{var}_{G(1-X)}  =\infty \\ &\lim_{\beta \to 0} \ln \operatorname{var}_{GX} = \lim_{\alpha \to  \infty} \ln \operatorname{var}_{GX} = \lim_{\alpha \to  0} \ln \operatorname{var}_{G(1-X)} = \lim_{\beta\to  \infty} \ln \operatorname{var}_{G(1-X)} = \lim_{\alpha\to  \infty} \ln \operatorname{cov}_{GX,(1-X)} =  \lim_{\beta\to  \infty} \ln \operatorname{cov}_{GX,(1-X)} = 0\\ &\lim_{\beta \to \infty} \ln \operatorname{var}_{GX} =  \psi_1(\alpha)\\ &\lim_{\alpha\to \infty}  \ln \operatorname{var}_{G(1-X)} =  \psi_1(\beta)\\ &\lim_{\alpha\to 0} \ln \operatorname{cov}_{GX,(1-X)} = - \psi_1(\beta)\\ &\lim_{\beta\to 0}  \ln \operatorname{cov}_{GX,(1-X)} = - \psi_1(\alpha) \end{align}$$ अलग-अलग दो मापदंड वाली सीमाएँ:


 * $$ \begin{align}

&\lim_{\alpha\to \infty}( \lim_{\beta \to \infty} \ln \operatorname{var}_{GX}) = \lim_{\beta \to  \infty}( \lim_{\alpha\to  \infty} \ln \operatorname{var}_{G(1-X)}) = \lim_{\alpha\to  \infty} (\lim_{\beta \to  0} \ln \operatorname{cov}_{GX,(1-X)}) = \lim_{\beta\to  \infty}( \lim_{\alpha\to  0} \ln \operatorname{cov}_{GX,(1-X)}) =0\\ &\lim_{\alpha\to \infty} (\lim_{\beta \to  0} \ln \operatorname{var}_{GX}) = \lim_{\beta\to \infty} (\lim_{\alpha\to  0} \ln \operatorname{var}_{G(1-X)}) = \infty\\ &\lim_{\alpha\to 0} (\lim_{\beta \to  0} \ln \operatorname{cov}_{GX,(1-X)}) = \lim_{\beta\to 0} (\lim_{\alpha\to  0} \ln \operatorname{cov}_{GX,(1-X)}) = - \infty \end{align}$$ चूंकि दोनों ln(varGX) और ln(varG(1 − X)) असममित हैं, जब आकार मापदंड सामान्तर होते हैं, तब α = β, में होता है: ln(varGX) = ln(varG(1 − X). यह समानता दोनों लॉग ज्यामितीय भिन्नताओं के मध्य प्रदर्शित निम्नलिखित समरूपता से होती है:


 * $$\ln \operatorname{var}_{GX}(\Beta(\alpha, \beta))=\ln \operatorname{var}_{G(1-X)}(\Beta(\beta, \alpha)).$$

लॉग ज्यामितीय सहप्रसरण सममित है:


 * $$\ln \operatorname{cov}_{GX,(1-X)}(\Beta(\alpha, \beta) )=\ln \operatorname{cov}_{GX,(1-X)}(\Beta(\beta, \alpha))$$

माध्य के आस-पास निरपेक्ष विचलन
आकार मापदंडों α और β के साथ बीटा वितरण के लिए माध्य के आसपास औसत निरपेक्ष विचलन है: 


 * $$\operatorname{E}[|X - E[X]|] = \frac{2 \alpha^{\alpha} \beta^{\beta}}{\Beta(\alpha,\beta)(\alpha + \beta)^{\alpha + \beta + 1}} $$

माध्य के चारों ओर औसत निरपेक्ष विचलन मोड के प्रत्येक पक्ष में टेल और विभक्ति बिंदुओं के साथ बीटा वितरण के लिए मानक विचलन की तुलना में सांख्यिकीय फैलाव का अधिक शक्तिशाली  सांख्यिकी अनुमानक है, α,β > 2 के साथ बीटा(α, β) वितरण यह माध्य से वर्ग विचलन के अतिरिक्त रैखिक (पूर्ण) विचलन पर निर्भर करता है। इसलिए, माध्य से बहुत बड़े विचलन का प्रभाव उतना अधिक भारित नहीं होता है।

गामा फलन के लिए स्टर्लिंग के सन्निकटन का उपयोग करते हुए, नॉर्मन लॉयड जॉनसन|(एन.एल.जॉनसन) और सैमुअल कोटज़|(एस.कोट्ज़) एकता से अधिक आकार के मापदंडों के मूल्यों के लिए निम्नलिखित सन्निकटन प्राप्त किया (इस सन्निकटन के लिए सापेक्ष त्रुटि α = β = 1 के लिए केवल -3.5% है, और यह α → ∞, β → ∞ के रूप में शून्य हो जाती है):


 * $$ \begin{align}

\frac{\text{mean abs. dev. from mean}}{\text{standard deviation}} &=\frac{\operatorname{E}[|X - E[X]|]}{\sqrt{\operatorname{var}(X)}}\\ &\approx \sqrt{\frac{2}{\pi}} \left(1+\frac{7}{12 (\alpha+\beta)}{}-\frac{1}{12 \alpha}-\frac{1}{12 \beta} \right), \text{ if } \alpha, \beta > 1. \end{align}$$ सीमा α → ∞, β → ∞ पर, मानक विचलन (बीटा वितरण के लिए) के औसत पूर्ण विचलन का अनुपात सामान्य वितरण के लिए समान उपायों के अनुपात के सामान्तर हो जाता है: $$\sqrt{\frac{2}{\pi}}$$. α = β = 1 के लिए यह अनुपात $$\frac{\sqrt{3}}{2}$$ सामान्तर है, जिससे कि α = β = 1 से α, β → ∞ अनुपात 8.5% कम हो जाएगा। α = β = 0 के लिए मानक विचलन माध्य के चारों ओर पूर्ण विचलन के सामान्तर है। इसलिए, यह अनुपात α = β = 0 से α = β = 1 तक 15% कम हो जाता है, और α = β = 0 से α, β → ∞ तक 25% कम हो जाता है। चूंकि, विषम बीटा वितरण के लिए जैसे कि α → 0 या β → 0, मानक विचलन का औसत निरपेक्ष विचलन का अनुपात अनंत तक पहुंचता है (चूंकि उनमें से प्रत्येक, व्यक्तिगत रूप से, शून्य तक पहुंचता है) क्योंकि औसत निरपेक्ष विचलन शून्य की तुलना में तेजी से पहुंचता है मानक विचलन।

माध्य μ और प्रतिरूप आकार ν = α + β > 0 के संदर्भ में सांख्यिकीय मापदंड का उपयोग करना:


 * α = μν, β = (1−μ)ν

माध्य μ और प्रतिरूप आकार ν के संदर्भ में माध्य के चारों ओर औसत निरपेक्ष विचलन को निम्नानुसार व्यक्त किया जा सकता है:


 * $$\operatorname{E}[| X - E[X]|] = \frac{2 \mu^{\mu\nu} (1-\mu)^{(1-\mu)\nu}}{\nu \Beta(\mu \nu,(1-\mu)\nu)}$$

एक सममित वितरण के लिए, μ = 1/2, माध्य वितरण के मध्य में है,और इसलिए:


 * $$ \begin{align}

\operatorname{E}[|X - E[X]|] = \frac{2^{1-\nu}}{\nu \Beta(\tfrac{\nu}{2} ,\tfrac{\nu}{2})} &= \frac{2^{1-\nu}\Gamma(\nu)}{\nu (\Gamma(\tfrac{\nu}{2}))^2 } \\ \lim_{\nu \to 0} \left (\lim_{\mu \to \frac{1}{2}} \operatorname{E}[|X - E[X]|] \right ) &= \tfrac{1}{2}\\ \lim_{\nu \to \infty} \left (\lim_{\mu \to \frac{1}{2}} \operatorname{E}[| X - E[X]|] \right ) &= 0 \end{align}$$ साथ ही, उपरोक्त भावों से निम्नलिखित सीमाएँ प्राप्त की जा सकती हैं (केवल विख्यात वेरिएबल सीमा तक पहुँच रहे हैं):


 * $$ \begin{align}

\lim_{\beta\to 0} \operatorname{E}[|X - E[X]|] &=\lim_{\alpha \to  0} \operatorname{E}[|X - E[X]|]= 0 \\ \lim_{\beta\to \infty} \operatorname{E}[|X - E[X]|] &=\lim_{\alpha \to  \infty} \operatorname{E}[|X - E[X]|] = 0\\ \lim_{\mu \to 0} \operatorname{E}[|X - E[X]|]&=\lim_{\mu \to  1} \operatorname{E}[|X - E[X]|] = 0\\ \lim_{\nu \to 0} \operatorname{E}[|X - E[X]|] &= \sqrt{\mu (1-\mu)} \\ \lim_{\nu \to \infty} \operatorname{E}[|X - E[X]|] &= 0 \end{align}                                                                                                                                                                                                 $$

कारणपूर्ण अंतर
बीटा वितरण के लिए औसत निरपेक्ष अंतर है:


 * $$\mathrm{MD} = \int_0^1 \int_0^1 f(x;\alpha,\beta)\,f(y;\alpha,\beta)\,|x-y|\,dx\,dy = \left(\frac{4}{\alpha+\beta}\right)\frac{B(\alpha+\beta,\alpha+\beta)}{B(\alpha,\alpha)B(\beta,\beta)}$$

बीटा वितरण के लिए गिन्नी गुणांक सापेक्ष माध्य निरपेक्ष अंतर का आधा है:


 * $$\mathrm{G} = \left(\frac{2}{\alpha}\right)\frac{B(\alpha+\beta,\alpha+\beta)}{B(\alpha,\alpha)B(\beta,\beta)}$$

विषमता
विषमता (बीटा वितरण का तीसरा क्षण माध्य पर केंद्रित, विचरण की 3/2 शक्ति द्वारा सामान्यीकृत) है


 * $$\gamma_1 =\frac{\operatorname{E}[(X - \mu)^3]}{(\operatorname{var}(X))^{3/2}} = \frac{2(\beta - \alpha)\sqrt{\alpha + \beta + 1}}{(\alpha + \beta + 2) \sqrt{\alpha \beta}} .$$

उपरोक्त अभिव्यक्ति में α = β देने से γ1 = 0 प्राप्त होता है ,तथा बार फिर दिखा रहा है कि α = β के लिए वितरण सममित है और इसलिए विषमता शून्य है। α < β के लिए धनात्मक विषम (दायां-टेल), α> β के लिए ऋणात्मक विषम (बायां-टेल)।

और औसत μ और प्रतिरूप आकार ν = α + β के संदर्भ में सांख्यिकीय मापदंड का उपयोग करना:


 * $$ \begin{align}

\alpha & {} = \mu \nu ,\text{ where }\nu =(\alpha + \beta) >0\\ \beta & {} = (1 - \mu) \nu, \text{ where }\nu =(\alpha + \beta) >0. \end{align}$$ माध्य μ और प्रतिरूप आकार ν के संदर्भ में विषमता व्यक्त किया जा सकता है:


 * $$\gamma_1 =\frac{\operatorname{E}[(X - \mu)^3]}{(\operatorname{var}(X))^{3/2}} = \frac{2(1-2\mu)\sqrt{1+\nu}}{(2+\nu)\sqrt{\mu (1 - \mu)}}.$$

विषमता केवल विचरण संस्करण और माध्य μ के रूप में निम्नानुसार व्यक्त किया जा सकता है:


 * $$\gamma_1 =\frac{\operatorname{E}[(X - \mu)^3]}{(\operatorname{var}(X))^{3/2}} = \frac{2(1-2\mu)\sqrt{\text{ var }}}{ \mu(1-\mu) + \operatorname{var}}\text{ if } \operatorname{var} < \mu(1-\mu)$$

विचरण और माध्य के कार्य के रूप में विषमता के साथ की साजिश से पता चलता है कि अधिकतम विचरण  (1/4) शून्य विषमता और समरूपता की स्थिति (μ = 1/2) के साथ युग्मित है, और वह अधिकतम विषमता (धनात्मक  या ऋणात्मक  अनंत) तब होता है जब माध्य छोर या दूसरे छोर पर स्थित है, जिससे संभाव्यता वितरण का द्रव्यमान सिरों पर केंद्रित हो (न्यूनतम विचरण )।

प्रतिरूप के आकार ν = α + β और विचरण संस्करण के संदर्भ में विषमता के वर्ग के लिए निम्नलिखित अभिव्यक्ति, चार मापदंडों के क्षणों के आकलन की विधि के लिए उपयोगी है:


 * $$(\gamma_1)^2 =\frac{(\operatorname{E}[(X - \mu)^3])^2}{(\operatorname{var}(X))^3} = \frac{4}{(2+\nu)^2}\bigg(\frac{1}{\text{var}}-4(1+\nu)\bigg)$$

यह अभिव्यक्ति सही ढंग से α = β के लिए शून्य का विषमता देती है, क्योंकि उस स्तिथियाँ में (देखें ): $$\operatorname{var} = \frac{1}{4 (1 + \nu)}$$.

सममित स्तिथियाँ के लिए (α = β), विषमता = 0 पूरी सीमा पर, और निम्नलिखित सीमाएँ प्रयुक्त होती हैं:


 * $$\lim_{\alpha = \beta \to 0} \gamma_1 = \lim_{\alpha = \beta \to \infty} \gamma_1 =\lim_{\nu \to 0} \gamma_1=\lim_{\nu \to \infty} \gamma_1=\lim_{\mu \to \frac{1}{2}} \gamma_1 = 0$$

असममित स्थितियों के लिए (α ≠ β) निम्नलिखित सीमाएँ (केवल विख्यात वेरिएबल सीमा के समीप  पहुंचकर) उपरोक्त अभिव्यक्तियों से प्राप्त की जा सकती हैं:


 * $$ \begin{align}

&\lim_{\alpha\to 0} \gamma_1 =\lim_{\mu\to  0} \gamma_1 = \infty\\ &\lim_{\beta \to 0} \gamma_1  = \lim_{\mu\to  1} \gamma_1= - \infty\\ &\lim_{\alpha\to \infty} \gamma_1 = -\frac{2}{\sqrt\beta},\quad \lim_{\beta \to 0}(\lim_{\alpha\to  \infty} \gamma_1) = -\infty,\quad \lim_{\beta \to \infty}(\lim_{\alpha\to \infty} \gamma_1) = 0\\ &\lim_{\beta\to \infty} \gamma_1 = \frac{2}{\sqrt\alpha},\quad \lim_{\alpha \to  0}(\lim_{\beta \to  \infty} \gamma_1) = \infty,\quad \lim_{\alpha \to  \infty}(\lim_{\beta \to  \infty} \gamma_1) = 0\\ &\lim_{\nu \to 0} \gamma_1 = \frac{1 - 2 \mu}{\sqrt{\mu (1-\mu)}},\quad \lim_{\mu \to  0}(\lim_{\nu \to  0} \gamma_1)  = \infty,\quad \lim_{\mu \to  1}(\lim_{\nu \to  0} \gamma_1) = - \infty \end{align}$$



कुर्तबसिस
गियर के हानि का आकलन करने के लिए ध्वनिक विश्लेषण में बीटा वितरण प्रयुक्त किया गया है, क्योंकि बीटा वितरण के कर्टोसिस को गियर की स्थिति का अच्छा संकेतक बताया गया है। कर्टोसिस का उपयोग किसी व्यक्ति के कदमों से उत्पन्न भूकंपीय संकेत को अन्य संकेत से अलग करने के लिए भी किया जाता है। जैसा कि जमीन पर चलने वाले व्यक्ति या अन्य लक्ष्य भूकंपीय तरंगों के रूप में निरंतर संकेत उत्पन्न करते हैं, उनके द्वारा उत्पन्न भूकंपीय तरंगों के आधार पर विभिन्न लक्ष्यों को अलग किया जा सकता है। कर्टोसिस आवेगी संकेतबं के प्रति संवेदनशील है, इसलिए यह वाहनों, हवाओं, ध्वनि आदि द्वारा उत्पन्न अन्य संकेत की तुलना में मानव पदचिन्हों द्वारा उत्पन्न संकेतबं के प्रति अधिक संवेदनशील है। दुर्भाग्य से, ककुदता के लिए अंकन मानकीकृत नहीं किया गया है। अतिरिक्त कर्टोसिस के लिए केनी और कीपिंग में प्रतीक γ2 का प्रयोग करें, किन्तु अब्रामोवित्ज़ और स्टेगुन विभिन्न शब्दावली का प्रयोग करें। भ्रम को रोकने के लिए कर्टोसिस के मध्य (माध्य पर केंद्रित चौथा क्षण, विचरण के वर्ग द्वारा सामान्यीकृत) और अतिरिक्त कर्टोसिस, प्रतीकों का उपयोग करते समय, उन्हें निम्नानुसार लिखा जाएगा:
 * $$\begin{align}

\text{excess kurtosis} &=\text{kurtosis} - 3\\ &=\frac{\operatorname{E}[(X - \mu)^4]}-3\\ &=\frac{6[\alpha^3-\alpha^2(2\beta - 1) + \beta^2(\beta + 1) - 2\alpha\beta(\beta + 2)]}{\alpha \beta (\alpha + \beta + 2)(\alpha + \beta + 3)}\\ &=\frac{6[(\alpha - \beta)^2 (\alpha +\beta + 1) - \alpha \beta (\alpha + \beta + 2)]} {\alpha \beta (\alpha + \beta + 2) (\alpha + \beta + 3)}. \end{align}                                                                                                                                                                      $$ उपरोक्त व्यंजक में α = β देने से प्राप्त होता है


 * $$\text{excess kurtosis} =- \frac{6}{3+2\alpha} \text{ if }\alpha=\beta $$.

इसलिए, सममित बीटा वितरण के लिए, अतिरिक्त कर्टोसिस ऋणात्मक है, {α = β} → 0 के रूप में सीमा पर -2 के न्यूनतम मान से बढ़ रहा है, और शून्य के अधिकतम मान को {α = β} → ∞ के रूप में आ रहा है। तथा −2 का मान अतिरिक्त कर्टोसिस का न्यूनतम मूल्य है जिसे कोई भी वितरण (न केवल बीटा वितरण, किंतु किसी भी संभावित प्रकार का वितरण) कभी भी प्राप्त कर सकता है। यह न्यूनतम मूल्य तब प्राप्त होता है जब सभी प्रायिकता घनत्व पूरी तरह से प्रत्येक छोर x = 0 और x = 1 पर केंद्रित होते हैं, मध्य में कुछ भी नहीं होता है: प्रत्येक छोर पर समान संभावना 1/2 के साथ 2-बिंदु बर्नौली वितरण (एक सिक्का टॉस: देखें) आगे की चर्चा के लिए विषमता के वर्ग से घिरे कर्टोसिस के नीचे का खंड)। संभाव्यता वितरण के संभावित आउटलेयर (या संभावित दुर्लभ, वेरिएबल  मान) के माप के रूप में  कुकुदता  का विवरण, बीटा वितरण सहित सभी वितरणों के लिए सही है। जब दुर्लभ, वेरिएबल म मान बीटा वितरण में हो सकते हैं, तब इसका कर्टोसिस जितना अधिक होगा; अन्यथा, कर्टोसिस कम होता है। α ≠ β, विषम बीटा वितरण के लिए, अतिरिक्त कर्टोसिस असीमित धनात्मक  मूल्यों तक पहुंच सकता है (विशेष रूप से α → 0 के लिए परिमित β के लिए, या β → 0 के लिए परिमित α के लिए) क्योंकि मोड से दूर की ओर कभी-कभी चरम मान उत्पन्न होंगे। न्यूनतम कर्टोसिस तब होता है जब द्रव्यमान घनत्व प्रत्येक छोर पर समान रूप से केंद्रित होता है (और इसलिए माध्य केंद्र में होता है), और सिरों के मध्य द्रव्यमान घनत्व की कोई संभावना नहीं होती है।

औसत μ और प्रतिरूप आकार ν = α + β के संदर्भ में सांख्यिकीय मापदंड का उपयोग करना:


 * $$ \begin{align}

\alpha & {} = \mu \nu ,\text{ where }\nu =(\alpha + \beta) >0\\ \beta & {} = (1 - \mu) \nu, \text{ where }\nu =(\alpha + \beta) >0. \end{align}$$ माध्य μ और प्रतिरूप आकार ν के संदर्भ में अतिरिक्त कर्टोसिस को निम्नानुसार व्यक्त किया जा सकता है:


 * $$\text{excess kurtosis} =\frac{6}{3 + \nu}\bigg (\frac{(1 - 2 \mu)^2 (1 + \nu)}{\mu (1 - \mu) (2 + \nu)} - 1 \bigg )$$

अतिरिक्त कर्टोसिस को केवल निम्नलिखित दो मापदंडों के संदर्भ में भी व्यक्त किया जा सकता है: विचरण संस्करण, और प्रतिरूप आकार ν निम्नानुसार है:


 * $$\text{excess kurtosis} =\frac{6}{(3 + \nu)(2 + \nu)}\left(\frac{1}{\text{ var }} - 6 - 5 \nu \right)\text{ if }\text{ var }< \mu(1-\mu)$$

और, भिन्नता संस्करण और माध्य μ के संदर्भ में निम्नानुसार है:


 * $$\text{excess kurtosis} =\frac{6 \text{ var } (1 - \text{ var } - 5 \mu (1 - \mu) )}{(\text{var } + \mu (1 - \mu))(2\text{ var } + \mu (1 - \mu) )}\text{ if }\text{ var }< \mu(1-\mu)$$

विचरण और माध्य के कार्य के रूप में अतिरिक्त कर्टोसिस की साजिश से पता चलता है कि अतिरिक्त कुर्तबसिस का न्यूनतम मूल्य (−2, जो किसी भी वितरण के लिए अतिरिक्त कर्टोसिस के लिए न्यूनतम संभव मूल्य है) अंतर के अधिकतम मूल्य के साथ घनिष्ठ रूप से जुड़ा हुआ है ( 1/4) और समरूपता की स्थिति: मध्य बिंदु पर होने वाली माध्य (μ = 1/2)। यह शून्य विषमता के साथ α = β = 0 के सममित स्तिथियाँ के लिए होता है। सीमा पर, यह 2 बिंदु बर्नौली वितरण है जिसमें समान संभावना 1/2 प्रत्येक डायराक डेल्टा फलन के अंत में x = 0 और x = 1 और हर स्थान शून्य संभावना है। (एक सिक्के का उछाल: सिक्के का फलक x = 0 और दूसरा फलक x = 1 है।) प्रसरण अधिकतम है क्योंकि वितरण के दो मोडल है और प्रत्येक छोर पर दो मोड (स्पाइक्स) के मध्य कुछ भी नहीं है। अतिरिक्त कर्टोसिस न्यूनतम है:क्योंकि संभाव्यता घनत्व द्रव्यमान माध्य पर शून्य है और यह प्रत्येक छोर पर दो चोटियों पर केंद्रित है। अतिरिक्त कर्टोसिस न्यूनतम संभव मान (किसी भी वितरण के लिए) तक पहुँच जाता है जब प्रायिकता घनत्व फलन के प्रत्येक छोर पर दो स्पाइक्स होते हैं: यह द्वि-शिखर होता है। और उनके मध्य में कुछ भी नहीं होता है

दूसरी ओर, प्लॉट से पता चलता है कि अत्यधिक विषम स्थितियों के लिए, जहां माध्य या दूसरे छोर (μ = 0 या μ = 1) के पास स्थित है, विचरण शून्य के समीप  है, और अतिरिक्त कर्टोसिस तेजी से अनंत तक पहुंचता है जब बंटन का माध्य या तब अंत की ओर पहुंचता है।

वैकल्पिक रूप से, अतिरिक्त कर्टोसिस को केवल निम्नलिखित दो मापदंडों के संदर्भ में भी व्यक्त किया जा सकता है: विषमता का वर्ग, और प्रतिरूप आकार ν निम्नानुसार है:


 * $$\text{excess kurtosis} =\frac{6}{3 + \nu}\bigg(\frac{(2 + \nu)}{4} (\text{skewness})^2 - 1\bigg)\text{ if (skewness)}^2-2< \text{excess kurtosis}< \frac{3}{2} (\text{skewness})^2$$

इस अंतिम अभिव्यक्ति से, कार्ल पियर्सन द्वारा अपने पेपर में व्यावहारिक रूप से सदी पहले प्रकाशित समान सीमाएँ प्राप्त कर सकते हैं, बीटा वितरण के लिए (विषमता के वर्ग से घिरा कर्टोसिस शीर्षक वाला नीचे दिया गया अनुभाग देखें)। उपरोक्त व्यंजक में α + β= ν = 0 समुच्चय करने पर, पियर्सन की निचली सीमा प्राप्त होती है (सीमा के नीचे विषमता और अतिरिक्त कर्टोसिस के लिए मान (अतिरिक्त कर्टोसिस + 2 - विषमता2 = 0) किसी भी वितरण के लिए नहीं हो सकता है, और इसलिए कार्ल पियर्सन ने उचित रूप से इस सीमा के नीचे के क्षेत्र को असंभव क्षेत्र कहा है)। α + β = ν → ∞ की सीमा पियर्सन की ऊपरी सीमा निर्धारित करती है।


 * $$ \begin{align}

&\lim_{\nu \to 0}\text{excess kurtosis}  = (\text{skewness})^2 - 2\\ &\lim_{\nu \to \infty}\text{excess kurtosis} = \tfrac{3}{2} (\text{skewness})^2 \end{align}$$ इसलिए:


 * $$(\text{skewness})^2-2< \text{excess kurtosis}< \tfrac{3}{2} (\text{skewness})^2$$

ν = α + β के मान जैसे कि ν शून्य से अनंत तक होता है, 0 < ν < ∞, बीटा वितरण के पूरे क्षेत्र को अतिरिक्त कर्टोसिस बनाम स्क्वायर विषमता के विमान में फैलाता है।

सममित स्तिथियाँ (α = β) के लिए, निम्नलिखित सीमाएं प्रयुक्त होती हैं:


 * $$ \begin{align}

&\lim_{\alpha = \beta \to 0} \text{excess kurtosis} = - 2 \\ &\lim_{\alpha = \beta \to \infty} \text{excess kurtosis} = 0 \\ &\lim_{\mu \to \frac{1}{2}} \text{excess kurtosis} = - \frac{6}{3 + \nu} \end{align}$$ असममित स्थितियों के लिए (α ≠ β) निम्नलिखित सीमाएँ (केवल विख्यात वेरिएबल सीमा के समीप पहुंचकर) उपरोक्त अभिव्यक्तियों से प्राप्त की जा सकती हैं:


 * $$ \begin{align}

&\lim_{\alpha\to 0}\text{excess kurtosis}  =\lim_{\beta \to  0} \text{excess kurtosis}  = \lim_{\mu \to  0}\text{excess kurtosis}  = \lim_{\mu \to  1}\text{excess kurtosis}  =\infty\\ &\lim_{\alpha \to \infty}\text{excess kurtosis}  = \frac{6}{\beta},\text{    }  \lim_{\beta \to  0}(\lim_{\alpha\to  \infty} \text{excess kurtosis})  = \infty,\text{    }  \lim_{\beta \to  \infty}(\lim_{\alpha\to  \infty} \text{excess kurtosis})  = 0\\ &\lim_{\beta \to \infty}\text{excess kurtosis}  = \frac{6}{\alpha},\text{    }  \lim_{\alpha \to  0}(\lim_{\beta \to  \infty} \text{excess kurtosis})  = \infty,\text{    }  \lim_{\alpha \to  \infty}(\lim_{\beta \to  \infty} \text{excess kurtosis})  = 0\\ &\lim_{\nu \to 0} \text{excess kurtosis}  = - 6 + \frac{1}{\mu (1 - \mu)},\text{    }  \lim_{\mu \to  0}(\lim_{\nu \to  0} \text{excess kurtosis})  = \infty,\text{    }  \lim_{\mu \to  1}(\lim_{\nu \to  0} \text{excess kurtosis})  = \infty \end{align}                                                                                                                                                                                              $$



विशेषता फलन
अभिलक्षणिक फलन (संभाव्यता सिद्धांत) प्रायिकता घनत्व फलन का फूरियर रूपांतरण है। बीटा डिस्ट्रीब्यूशन का विशिष्ट कार्य कंफ्लुएंट हाइपरजियोमेट्रिक फलन है। कुमेर का कंफ्लुएंट हाइपरजियोमेट्रिक फलन  (पहली तरह का):
 * $$\begin{align}

\varphi_X(\alpha;\beta;t) &= \operatorname{E}\left[e^{itX}\right]\\ &= \int_0^1 e^{itx} f(x;\alpha,\beta) dx \\ &={}_1F_1(\alpha; \alpha+\beta; it)\!\\ &=\sum_{n=0}^\infty \frac {\alpha^{(n)} (it)^n} {(\alpha+\beta)^{(n)} n!}\\ &= 1 +\sum_{k=1}^{\infty} \left( \prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r} \right) \frac{(it)^k}{k!} \end{align}$$ जहाँ


 * $$x^{(n)}=x(x+1)(x+2)\cdots(x+n-1)$$

उभरता हुआ भाज्य है, जिसे पोचममेर प्रतीक भी कहा जाता है। t = 0 के लिए अभिलाक्षणिक फलन का मान है:


 * $$ \varphi_X(\alpha;\beta;0)={}_1F_1(\alpha; \alpha+\beta; 0) = 1 $$.

इसके अतिरिक्त, वेरिएबल टी की उत्पत्ति के संबंध में विशेषता फलन के वास्तविक और काल्पनिक भाग निम्नलिखित समरूपता का आनंद लेते हैं:


 * $$ \textrm{Re} \left [ {}_1F_1(\alpha; \alpha+\beta; it) \right ] = \textrm{Re} \left [ {}_1F_1(\alpha; \alpha+\beta; - it) \right ] $$
 * $$ \textrm{Im} \left [ {}_1F_1(\alpha; \alpha+\beta; it) \right ] = - \textrm{Im} \left [ {}_1F_1(\alpha; \alpha+\beta; - it) \right ]  $$

सममित स्तिथि α = β बेसेल फलन  के लिए बीटा वितरण के विशिष्ट कार्य को सरल करता है, क्योंकि विशेष स्तिथियों में α + β = 2α संगम हाइपरज्यामितीय फलन   पहली तरह $$I_{\alpha-\frac 1 2}$$ ) (पहली तरह का) बेसेल फलन (संशोधित बेसेल फलन) को कम करता है अर्नस्ट कुमेर | कुमेर के दूसरे परिवर्तन का उपयोग इस प्रकार है:

बीमा रूपिंग अनुप्रयोगों के लिए सममित स्तिथियाँ α = β = n/2 का और उदाहरण चित्र 11 में पाया जा सकता है
 * $$\begin{align} {}_1F_1(\alpha;2\alpha; it) &= e^{\frac{it}{2}} {}_0F_1 \left(\alpha+\tfrac{1}{2}; \frac{(it)^2}{16} \right) \\

&= e^{\frac{it}{2}} \left(\frac{it}{4}\right)^{\frac{1}{2}-\alpha} \Gamma\left(\alpha+\tfrac{1}{2}\right) I_{\alpha-\frac 1 2}\left(\frac{it}{2}\right).\end{align}$$ साथ वाले भूखंडों में, सममित (α = β) और विषम (α ≠ β) स्थितियों के लिए बीटा वितरण के विशेषता फलन (संभाव्यता सिद्धांत) की जटिल संख्या (Re) प्रदर्शित की जाती है।

मोमेंट जनरेटिंग फलन
यह भी अनुसरण करता है वह क्षण उत्पन्न करने वाला कार्य है


 * $$\begin{align}

M_X(\alpha; \beta; t) &= \operatorname{E}\left[e^{tX}\right] \\[4pt] &= \int_0^1 e^{tx} f(x;\alpha,\beta)\,dx \\[4pt] &= {}_1F_1(\alpha; \alpha+\beta; t) \\[4pt] &= \sum_{n=0}^\infty \frac {\alpha^{(n)}} {(\alpha+\beta)^{(n)}}\frac {t^n}{n!}\\[4pt] &= 1 +\sum_{k=1}^{\infty} \left( \prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r} \right) \frac{t^k}{k!} \end{align}$$ विशेष रूप से MX(α; β; 0) = 1.

उच्च क्षण
मोमेंट जनरेटिंग फलन का उपयोग करके, k-वें कारक कच्चा पल द्वारा दिया जाता है


 * $$\prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r} $$

(घातीय श्रृंखला) शब्द को गुणा करना $$\left(\frac{t^k}{k!}\right)$$ पल उत्पन्न करने वाले फलन की श्रृंखला में


 * $$\operatorname{E}[X^k]= \frac{\alpha^{(k)}}{(\alpha + \beta)^{(k)}} = \prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r}$$

जहाँ Xk पोचहैमर प्रतीक है जो बढ़ती फैक्टोरियल का प्रतिनिधित्व करता है। इसे पुनरावर्ती रूप में भी लिखा जा सकता है


 * $$\operatorname{E}[X^k] = \frac{\alpha + k - 1}{\alpha + \beta + k - 1}\operatorname{E}[X^{k - 1}].$$

क्षण उत्पन्न करने के कार्य के पश्चात् से $$M_X(\alpha; \beta; \cdot)$$ अभिसरण का धनात्मक सीमाहै, बीटा वितरण मोमेंट समस्या है।

रैखिक रूप से रूपांतरित, उत्पाद और उल्टे यादृच्छिक वेरिएबल के क्षण
एक परिवर्तित यादृच्छिक वेरिएबल के लिए निम्नलिखित अपेक्षाएँ भी दिखा सकते हैं, जहां रैंडम वेरिएबल X को मापदंड α और β: X ~ बीटा (α, β) के साथ बीटा-वितरित किया गया है। वेरिएबल  1 − X का अपेक्षित मान X पर आधारित अपेक्षित मान का दर्पण-समरूपता है:


 * $$\begin{align}

& \operatorname{E}[1-X] = \frac{\beta}{\alpha + \beta } \\ & \operatorname{E}[X (1-X)] =\operatorname{E}[(1-X)X ] =\frac{\alpha \beta}{(\alpha + \beta)(\alpha +\beta + 1) } \end{align}$$ बीटा वितरण के प्रायिकता घनत्व फलन की दर्पण-समरूपता के कारण, वेरिएबल X और 1 − X पर आधारित प्रसरण समान हैं, और X(1 − X) पर सहप्रसरण प्रसरण का ऋणात्मक है:


 * $$\operatorname{var}[(1-X)]=\operatorname{var}[X] = -\operatorname{cov}[X,(1-X)]= \frac{\alpha \beta}{(\alpha + \beta)^2(\alpha + \beta + 1)}$$

इनवर्टेड वेरिएबल्स के लिए ये अपेक्षित मूल्य हैं, (ये हार्मोनिक साधनों से संबंधित हैं, देखें ):


 * $$\begin{align}

& \operatorname{E} \left [\frac{1}{X} \right ] = \frac{\alpha+\beta-1 }{\alpha -1 } \text{ if  } \alpha > 1\\ & \operatorname{E}\left [\frac{1}{1-X} \right ] =\frac{\alpha+\beta-1 }{\beta-1 } \text{ if } \beta > 1 \end{align}$$ निम्नलिखित परिवर्तन को वेरिएबल X को उसकी दर्पण-छवि X/(1 − X) से विभाजित करके उल्टे बीटा वितरण या बीटा प्राइम वितरण (जिसे दूसरी तरह के बीटा वितरण या पियर्सन वितरण के रूप में भी जाना जाता है) के अपेक्षित मूल्य में परिणाम मिलता है। पियर्सन का प्रकार छठी):


 * $$ \begin{align}

& \operatorname{E}\left[\frac{X}{1-X}\right] =\frac{\alpha}{\beta - 1 } \text{ if }\beta > 1\\ & \operatorname{E}\left[\frac{1-X}{X}\right] =\frac{\beta}{\alpha- 1 }\text{ if }\alpha > 1 \end{align} $$ इन रूपांतरित वेरिएबल के प्रसरणों को एकीकरण द्वारा प्राप्त किया जा सकता है, क्योंकि संबंधित वेरिएबल पर केंद्रित दूसरे क्षणों के अपेक्षित मान:


 * $$\operatorname{var} \left[\frac{1}{X} \right] =\operatorname{E}\left[\left(\frac{1}{X} - \operatorname{E}\left[\frac{1}{X} \right ] \right )^2\right]=$$
 * $$\operatorname{var}\left [\frac{1-X}{X} \right ] =\operatorname{E} \left [\left (\frac{1-X}{X} - \operatorname{E}\left [\frac{1-X}{X} \right ] \right )^2 \right ]= \frac{\beta (\alpha+\beta-1)}{(\alpha -2)(\alpha-1)^2 } \text{ if }\alpha > 2$$

इसके दर्पण-छवि (X/1−X) द्वारा विभाजित वेरिएबल X का निम्नलिखित प्रसरण, उल्टे बीटा वितरण या बीटा प्राइम वितरण (जिसे दूसरी तरह के बीटा वितरण या पियर्सन वितरण के रूप में भी जाना जाता है) के विचरण में परिणाम देता है। पियर्सन का प्रकार छठी):


 * $$\operatorname{var} \left [\frac{1}{1-X} \right ] =\operatorname{E} \left [\left(\frac{1}{1-X} - \operatorname{E} \left [\frac{1}{1-X} \right ] \right)^2 \right ]=\operatorname{var} \left [\frac{X}{1-X} \right ] =$$
 * $$\operatorname{E} \left [\left (\frac{X}{1-X} - \operatorname{E} \left [\frac{X}{1-X} \right ] \right )^2 \right ]= \frac{\alpha(\alpha+\beta-1)}{(\beta-2)(\beta-1)^2 } \text{ if }\beta > 2$$

सहप्रसरण हैं:


 * $$\operatorname{cov}\left [\frac{1}{X},\frac{1}{1-X} \right ] = \operatorname{cov}\left[\frac{1-X}{X},\frac{X}{1-X} \right] =\operatorname{cov}\left[\frac{1}{X},\frac{X}{1-X}\right ] = \operatorname{cov}\left[\frac{1-X}{X},\frac{1}{1-X} \right] =\frac{\alpha+\beta-1}{(\alpha-1)(\beta-1) } \text{ if } \alpha, \beta > 1$$

ये अपेक्षाएँ और भिन्नताएँ चार-मापदंड फ़िशर सूचना आव्युह में दिखाई देती हैं (.)

लघुगणकीय रूप से परिवर्तित यादृच्छिक वेरिएबल के क्षण
लघुगणक परिवर्तन के लिए अपेक्षित मान (अधिकतम संभावना अनुमानों के लिए उपयोगी, देखें ) इस खंड में चर्चा कर रहे हैं। निम्नलिखित लघुगणक रैखिक परिवर्तन ज्यामितीय माध्य GX और G(1−X) से संबंधित हैं(देखना ):


 * $$\begin{align}

\operatorname{E}[\ln(X)] &= \psi(\alpha) - \psi(\alpha + \beta)= - \operatorname{E}\left[\ln \left (\frac{1}{X} \right )\right],\\ \operatorname{E}[\ln(1-X)] &=\psi(\beta) - \psi(\alpha + \beta)= - \operatorname{E} \left[\ln \left (\frac{1}{1-X} \right )\right]. \end{align}$$ जहां डिगामा फलन ψ(α) को गामा फलन के लघुगणक व्युत्पन्न के रूप में परिभाषित किया गया है:


 * $$\psi(\alpha) = \frac{d \ln\Gamma(\alpha)}{d\alpha}$$

लॉग परिवर्तन रोचक हैं, जैसा कि वे सामान्यतः विभिन्न आकारों (जे-आकृतियों सहित) को (सामान्यतः विषम) घंटी के आकार के घनत्वों को लॉजिट वेरिएबल पर बदलते हैं, और वे मूल वेरिएबल  पर अंत विलक्षणताओं को हटा सकते हैं:


 * $$\begin{align}

\operatorname{E}\left[\ln \left (\frac{X}{1-X} \right ) \right] &=\psi(\alpha) - \psi(\beta)= \operatorname{E}[\ln(X)] +\operatorname{E} \left[\ln \left (\frac{1}{1-X} \right) \right],\\ \operatorname{E}\left [\ln \left (\frac{1-X}{X} \right ) \right ] &=\psi(\beta) - \psi(\alpha)= - \operatorname{E} \left[\ln \left (\frac{X}{1-X} \right) \right]. \end{align}$$ जॉनसन लॉगिट-रूपांतरित वेरिएबल ln(X/1−X) के वितरण पर विचार किया गया, जिसमें आकार मापदंड के बड़े मूल्यों के लिए इसके क्षण उत्पन्न करने वाले फलन और सन्निकटन सम्मिलित  हैं। यह रूपांतरण वास्तविक रेखा (-∞, +∞) की दोनों दिशाओं में मूल वेरिएबल X के आधार पर परिमित समर्थन [0, 1] को अनंत समर्थन तक बढ़ाता है।

दो गामा वितरणों के अनुपात के रूप में बीटा वितरण के प्रतिनिधित्व का उपयोग करके और अभिन्न के माध्यम से अंतर करके उच्च क्रम लॉगरिदमिक क्षण प्राप्त किए जा सकते हैं। उन्हें उच्च क्रम के पॉली-गामा कार्यों के रूप में निम्नानुसार व्यक्त किया जा सकता है:


 * $$\begin{align}

\operatorname{E} \left [\ln^2(X) \right ] &= (\psi(\alpha) - \psi(\alpha + \beta))^2+\psi_1(\alpha)-\psi_1(\alpha+\beta), \\ \operatorname{E} \left [\ln^2(1-X) \right ] &= (\psi(\beta) - \psi(\alpha + \beta))^2+\psi_1(\beta)-\psi_1(\alpha+\beta), \\ \operatorname{E} \left [\ln (X)\ln(1-X) \right ] &=(\psi(\alpha) - \psi(\alpha + \beta))(\psi(\beta) - \psi(\alpha + \beta)) -\psi_1(\alpha+\beta). \end{align}                                                                                                                                                                                                                                                                                                           $$ इसलिए लघुगणकीय चरो का प्रसरण और ln(X) और ln(1−X) का सहप्रसरण हैं:


 * $$\begin{align}

\operatorname{cov}[\ln(X), \ln(1-X)] &= \operatorname{E}\left[\ln(X)\ln(1-X)\right] - \operatorname{E}[\ln(X)]\operatorname{E}[\ln(1-X)] = -\psi_1(\alpha+\beta) \\ & \\ \operatorname{var}[\ln X] &= \operatorname{E}[\ln^2(X)] - (\operatorname{E}[\ln(X)])^2 \\ &= \psi_1(\alpha) - \psi_1(\alpha + \beta) \\ &= \psi_1(\alpha) + \operatorname{cov}[\ln(X), \ln(1-X)] \\ & \\ \operatorname{var}[\ln (1-X)] &= \operatorname{E}[\ln^2 (1-X)] - (\operatorname{E}[\ln (1-X)])^2 \\ &= \psi_1(\beta) - \psi_1(\alpha + \beta) \\ &= \psi_1(\beta) + \operatorname{cov}[\ln (X), \ln(1-X)] \end{align}                                                                                                                                                              $$ जहाँ त्रिगामा फलन, ψ1(α) निरूपित करता है बहुग्राम कार्यों का दूसरा है, और इसे डिगामा फलन के व्युत्पन्न के रूप में परिभाषित किया गया है:


 * $$\psi_1(\alpha) = \frac{d^2\ln\Gamma(\alpha)}{d\alpha^2}= \frac{d \psi(\alpha)}{d\alpha}$$.

लघुगणक रूप से रूपांतरित वेरिएबल X और (1−X) के प्रसरण और सहप्रसरण सामान्य रूप से भिन्न होते हैं, क्योंकि लघुगणक रूपांतरण मूल वेरिएबल  X और (1−X) के दर्पण-समरूपता को नष्ट कर देता है, क्योंकि लघुगणक ऋणात्मक अनंतता तक पहुंचता है वेरिएबल  शून्य के समीप  पहुंच रहा है।

ये लघुगणक प्रसरण और सहप्रसरण बीटा वितरण के लिए फिशर सूचना आव्युह के तत्व हैं। वे लॉग संभावना फलन की वक्रता का माप भी हैं (अधिकतम संभावना अनुमान पर अनुभाग देखें)।

लॉग व्युत्क्रम वेरिएबल के प्रसरण लॉग वेरिएबल  के प्रसरण के समान हैं:


 * $$\begin{align}

\operatorname{var}\left[\ln \left (\frac{1}{X} \right ) \right] & =\operatorname{var}[\ln(X)] = \psi_1(\alpha) - \psi_1(\alpha + \beta), \\ \operatorname{var}\left[\ln \left (\frac{1}{1-X} \right ) \right] &=\operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta), \\ \operatorname{cov}\left[\ln \left (\frac{1}{X} \right), \ln \left (\frac{1}{1-X}\right ) \right] &=\operatorname{cov}[\ln(X),\ln(1-X)]= -\psi_1(\alpha + \beta).\end{align}                                                                                                                         $$ यह भी अनुसरण करता है कि लॉगिट रूपांतरित वेरिएबल के संस्करण हैं:


 * $$\operatorname{var}\left[\ln \left (\frac{X}{1-X} \right )\right]=\operatorname{var}\left[\ln \left (\frac{1-X}{X} \right ) \right]=-\operatorname{cov}\left [\ln \left (\frac{X}{1-X} \right ), \ln \left (\frac{1-X}{X} \right ) \right]= \psi_1(\alpha) + \psi_1(\beta)$$

जानकारी की मात्रा (एन्ट्रापी)
एक बीटा वितरित यादृच्छिक वेरिएबल, X ~ बीटा (α, β) को देखते हुए, X की सूचना एन्ट्रापी (नेट (यूनिट) में मापी गई है, प्रायिकता घनत्व फलन के लघुगणक के ऋणात्मक का अपेक्षित मान:


 * $$\begin{align}

h(X) &= \operatorname{E}[-\ln(f(x;\alpha,\beta))] \\[4pt] &=\int_0^1 -f(x;\alpha,\beta)\ln(f(x;\alpha,\beta)) \, dx \\[4pt] &= \ln(\Beta(\alpha,\beta))-(\alpha-1)\psi(\alpha)-(\beta-1)\psi(\beta)+(\alpha+\beta-2) \psi(\alpha+\beta) \end{align}                                                                                      $$ जहाँ f(x; α, β) बीटा वितरण का प्रायिकता घनत्व फलन है:


 * $$f(x;\alpha,\beta) = \frac{1}{\Beta(\alpha,\beta)} x^{\alpha-1}(1-x)^{\beta-1}$$

डिगामा फलन ψ हार्मोनिक संख्याओं के लिए यूलर के अभिन्न सूत्र के परिणाम के रूप में अंतर एंट्रॉपी के सूत्र में प्रकट होता है जो अभिन्न से अनुसरण करता है:


 * $$\int_0^1 \frac {1-x^{\alpha-1}}{1-x} \, dx = \psi(\alpha)-\psi(1)$$

जहाँ α = β = 1 है तो (जिन मूल्यों के लिए बीटा वितरण एक समान वितरण (निरंतर) के समान है) उनको को छोड़कर, शून्य से अधिक α और β के सभी मानों के लिए बीटा वितरण की सूचना एन्ट्रॉपी ऋणात्मक है, जहां सूचना एन्ट्रापी शून्य के अधिकतम और न्यूनतम मान तक पहुँच जाता है। यह उम्मीद की जानी चाहिए कि अधिकतम एन्ट्रापी तब होनी चाहिए जब बीटा वितरण समान वितरण के सामान्तर हो जाए, क्योंकि अनिश्चितता अधिकतम होती है जब सभी संभव घटनाएं परिवर्तनीय होती हैं।

जब α या β शून्य के समीप पहुंचने के लिए, सूचना एन्ट्रॉपी अपने मैक्सिमा और ऋणात्मक  अनंतता के न्यूनतम मूल्य तक पहुंचती है। (या तब या दोनों) α या β शून्य के समीप  पहुंचने के लिए, ऑर्डर की अधिकतम मात्रा होती है: सभी प्रायिकता घनत्व सिरों पर केंद्रित होते हैं, और सिरों के मध्य स्थित बिंदुओं पर शून्य प्रायिकता घनत्व होता है। इसी प्रकार (या तब या दोनों) α या β अनंत तक पहुंचने के लिए, अंतर एंट्रॉपी ऋणात्मक  अनंतता के न्यूनतम मूल्य और ऑर्डर की अधिकतम मात्रा तक पहुंचता है। यदि या तब α या β अनंत तक पहुंचता है (और दूसरा परिमित है) सभी प्रायिकता घनत्व अंत में केंद्रित होते हैं, और प्रायिकता घनत्व हर स्थान शून्य होता है। यदि दोनों आकार मापदंड समान हैं (सममित स्तिथि ), α = β, और वे साथ अनंत तक पहुंचते हैं, तब प्रायिकता घनत्व मध्य x = 1/2 पर केंद्रित स्पाइक फलन (डायराक डेल्टा फलन) बन जाता है, और इसलिए 100% संभावना होती है मध्य में x = 1/2 और हर स्थान शून्य संभावना।

(निरंतर केस) सूचना एंट्रॉपी को शैनन ने अपने मूल पेपर में प्रस्तुत किया था (जहां उन्होंने इसे निरंतर वितरण की एंट्रॉपी नाम दिया था), उसी पेपर के समापन भाग के रूप में जहां उन्होंने सूचना एंट्रॉपी को परिभाषित किया था। तब से यह ज्ञात है कि अंतर एंट्रॉपी असतत एंट्रॉपी की असीमित सीमा से अनंत ऑफ समुच्चय से भिन्न हो सकती है, इसलिए अंतर एन्ट्रॉपी ऋणात्मक हो सकती है (जैसा कि यह बीटा वितरण के लिए है)। एंट्रॉपी के सापेक्ष मूल्य वास्तव में क्या मायने रखता है।

दो बीटा वितरित यादृच्छिक वेरिएबल दिए गए हैं, X1 ~ बीटा (α', β') और X2 ~ बीटा (α', β'), क्रॉस एन्ट्रापी है (नट्स में मापा जाता है)
 * $$\begin{align}

H(X_1,X_2) &= \int_0^1 - f(x;\alpha,\beta) \ln (f(x;\alpha',\beta')) \,dx \\[4pt] &= \ln \left(\Beta(\alpha',\beta')\right)-(\alpha'-1)\psi(\alpha)-(\beta'-1)\psi(\beta)+(\alpha'+\beta'-2)\psi(\alpha+\beta). \end{align}$$ दो परिकल्पनाओं के मध्य की दूरी को मापने के लिए क्रॉस एन्ट्रॉपी का उपयोग त्रुटि मीट्रिक के रूप में किया गया है। इसका निरपेक्ष मान न्यूनतम होता है जब दो वितरण समान होते हैं। तथा यह लॉग अधिकतम संभावना से सबसे अधिक निकटता से संबंधित सूचना उपाय है (मापदंड अनुमान पर अनुभाग देखें। अधिकतम संभावना अनुमान))।

सापेक्ष एन्ट्रॉपी, या कुल्बैक-लीब्लर विचलन DKL(X1 || X2), यह मानने की अक्षमता का उपाय है कि वितरण X2 है ~ बीटा (α', β') जब वितरण वास्तव में X1 है ~ बीटा (α, β)। इसे निम्नानुसार परिभाषित किया गया है (नट्स में मापा गया)।


 * $$\begin{align}

D_{\mathrm{KL}}(X_1||X_2) &= \int_0^1 f(x;\alpha,\beta) \ln \left (\frac{f(x;\alpha,\beta)}{f(x;\alpha',\beta')} \right ) \, dx \\[4pt] &= \left (\int_0^1 f(x;\alpha,\beta) \ln (f(x;\alpha,\beta)) \,dx \right )- \left (\int_0^1 f(x;\alpha,\beta) \ln (f(x;\alpha',\beta')) \, dx \right )\\[4pt] &= -h(X_1) + H(X_1,X_2)\\[4pt] &= \ln\left(\frac{\Beta(\alpha',\beta')}{\Beta(\alpha,\beta)}\right)+(\alpha-\alpha')\psi(\alpha)+(\beta-\beta')\psi(\beta)+(\alpha'-\alpha+\beta'-\beta)\psi (\alpha + \beta). \end{align}                                                                                                                                                                                                     $$ सापेक्ष एन्ट्रापी, या कुल्बैक-लीब्लर विचलन, सदैव गैर-ऋणात्मक होता है। कुछ संख्यात्मक उदाहरण अनुसरण करते हैं:


 * X1 ~ बीटा(1, 1) और X2 ~ बीटा(3, 3); DKL(X1 || X2) = 0.598803; DKL(X2 || X1) = 0.267864; h(X1) = 0; h(X2) = −0.2678
 * X1 ~ बीटा(3, 0.5) और X2 ~ बीटा (0.5, 3); DKL(X1 || X2) = 7.21574; DKL(X2 || X1) = 7.21574; h(X1) = −1.10805; h(X2) = −1.10805.

कुल्बैक-लीब्लर विचलन सममित DKL(X1 || X2) ≠ DKL(X2 || X1) नहीं है उस स्तिथियों के लिए जिसमें व्यक्तिगत बीटा वितरण बीटा (1, 1) और बीटा (3, 3) सममित हैं, किन्तु अलग-अलग एंट्रॉपी h(x1) ≠ h(X2) हैं. कुलबैक डाइवर्जेंस का मान तय की गई दिशा पर निर्भर करता है: चाहे वह उच्च (डिफरेंशियल) एंट्रॉपी से लोअर (डिफरेंशियल) एंट्रॉपी में जा रहा हो या इसके विपरीत। उपरोक्त संख्यात्मक उदाहरण में, कुल्बैक विचलन यह मानने की अक्षमता को मापता है कि वितरण (घंटी के आकार का) बीटा (3, 3) है, बजाय (समान) बीटा (1, 1) के। बीटा (1, 1) की h एन्ट्रॉपी बीटा (3, 3) की h एन्ट्रॉपी से अधिक है क्योंकि समान वितरण बीटा (1, 1) में अधिकतम मात्रा में विकार है। कुलबैक डाइवर्जेंस दो गुना अधिक (0.267864 के अतिरिक्त 0.598803) से अधिक है, जब एंट्रॉपी घटने की दिशा में मापा जाता है: वह दिशा जो मानती है कि (समान) बीटा (1, 1) वितरण (घंटी के आकार का) बीटा (3,) है 3) इसके विपरीत नहीं। इस प्रतिबंधित अर्थ में, कुल्बैक विचलन ऊष्म प्रवैगिकी के दूसरे नियम के अनुरूप है।

कुल्बैक-लीब्लर विचलन सममित DKL(X1 || X2) = DKL(X2 || X1) है  विषम स्थितियों के लिए बीटा (3, 0.5) और बीटा (0.5, 3) जिसमें समान अंतर एंट्रॉपी h(X1) = h(X2).है

समरूपता की स्थिति:


 * $$D_{\mathrm{KL}}(X_1||X_2) = D_{\mathrm{KL}}(X_2||X_1),\text{ if }h(X_1) = h(X_2),\text{ for (skewed) }\alpha \neq \beta$$

उपरोक्त परिभाषाओं से अनुसरण करता है और दर्पण-समरूपता f(x; α, β) = f(1−x; α, β) बीटा वितरण द्वारा आनंदित होता है।

माध्य, विधा और मध्य संबंध
यदि 1 < α < β तब बहुलक ≤ माध्यिका ≤ माध्य। मोड को (केवल α, β > 1 के लिए) व्यक्त करना, और α और β के संदर्भ में माध्य:


 * $$ \frac{ \alpha - 1 }{ \alpha + \beta - 2 } \le \text{median} \le \frac{ \alpha }{ \alpha + \beta } ,$$

यदि 1 < β < α तब असमिकाओं का क्रम उल्टा हो जाता है। जहाँ α, β > 1 के लिए माध्य और माध्यिका के मध्य की पूर्ण दूरी x के अधिकतम और न्यूनतम मानों के मध्य की दूरी के 5% से कम है। दूसरी ओर, α = 1 और β = 1 के (पैथोलॉजिकल (गणित)) स्तिथियाँ के लिए, माध्य और मोड के मध्य की पूर्ण दूरी x के अधिकतम और न्यूनतम मानों के मध्य की दूरी के 50% तक पहुंच सकती है, जिसके लिए मान बीटा वितरण समान वितरण तक पहुंचता है और सूचना एन्ट्रापी अपने मैक्सिमा और मिनिमा मूल्य तक पहुंचता है, और इसलिए अधिकतम विकार।

उदाहरण के लिए, α = 1.0001 और β = 1.00000001 के लिए:
 * मोड = 0.9999; पीडीएफ (मोड) = 1.00010
 * माध्य = 0.500025; पीडीएफ (माध्य) = 1.00003
 * माध्य = 0.500035; पीडीएफ (माध्यिका) = 1.00003
 * माध्य - मोड = -0.499875
 * माध्य − माध्यिका = −9.65538 × 10−6

जहाँ पीडीएफ प्रायिकता घनत्व फलन के मान के लिए है।



माध्य, ज्यामितीय माध्य और हार्मोनिक माध्य संबंध
अंकगणित और ज्यामितीय साधनों की असमानता से ज्ञात होता है कि ज्यामितीय माध्य माध्य से कम होता है। इसी तरह, हार्मोनिक माध्य ज्यामितीय माध्य से कम होता है। संलग्न प्लॉट से पता चलता है कि α = β के लिए, α = β के मान की परवाह किए बिना, माध्य और माध्यिका दोनों 1/2 के सामान्तर हैं, और α = β > 1 के लिए मोड भी 1/2 के सामान्तर है, चूँकि ज्यामितीय और हार्मोनिक साधन 1/2 से कम हैं और वे केवल α = β → ∞ के रूप में इस मान को स्पर्शोन्मुख रूप से प्राप्त करते हैं।

कुर्टोसिस विषमता के वर्ग से घिरा हुआ है
जैसा कि विलियम फेलर ने टिप्पणी की है, पियर्सन वितरण में बीटा प्रायिकता घनत्व पियर्सन वितरण के रूप में प्रकट होता है (बीटा वितरण और पियर्सन के प्रकार I वितरण के मध्य कोई भी अंतर केवल सतही है और कुर्तबसिस और विषमता के मध्य संबंध के बारे में निम्नलिखित चर्चा के लिए कोई अंतर नहीं है)। कार्ल पियर्सन ने अपने पेपर के प्लेट 1 में दिखाया 1916 में प्रकाशित, ऊर्ध्वाधर अक्ष (तालमेल) के रूप में कर्टोसिस के साथ ग्राफ और क्षैतिज अक्ष (सूच्याकार आकृति का भुज) के रूप में विषमता का वर्ग, जिसमें अनेक वितरण प्रदर्शित किए गए थे। बीटा वितरण द्वारा कब्जा कर लिया गया क्षेत्र निम्नलिखित दो रेखा (ज्यामिति) से घिरा हुआ है (विषम2, कर्टोसिस) कार्तीय समन्वय प्रणाली, या (विषमता2, अतिरिक्त कर्टोसिस) कार्तीय समन्वय प्रणाली:


 * $$(\text{skewness})^2+1< \text{kurtosis}< \frac{3}{2} (\text{skewness})^2 + 3$$

या, समकक्ष,


 * $$(\text{skewness})^2-2< \text{excess kurtosis}< \frac{3}{2} (\text{skewness})^2$$

ऐसे समय में जब शक्तिशाली डिजिटल कंप्यूटर नहीं थे, तब कार्ल पियर्सन ने स्पष्ट रूप से आगे की सीमाओं की गणना की, उदाहरण के लिए, U-आकार के वितरण को जे-आकार के वितरण से अलग करना। तथा निचली सीमा रेखा (अतिरिक्त कर्टोसिस + 2 - विषमता2 = 0) टेढ़े U-आकार के बीटा वितरण द्वारा निर्मित होता है, जिसमें आकृति मापदंड α और β शून्य के समीप  दोनों मान होते हैं। ऊपरी सीमा रेखा (अतिरिक्त कर्टोसिस - (3/2) विषमता2 = 0) किसी मापदंड के बहुत बड़े मान और दूसरे मापदंड के बहुत छोटे मान के साथ अत्यधिक विषम वितरण द्वारा निर्मित होता है। जहाँ कार्ल पियर्सन ने दिखाया कि यह ऊपरी सीमा रेखा (अतिरिक्त कर्टोसिस - (3/2) विषमता2 = 0) पियर्सन के वितरण III के साथ प्रतिच्छेदन भी है, जिसका दिशा में (धनात्मक  अनंत की ओर) असीमित समर्थन है, और घंटी के आकार का या J- आकार का हो सकता है। उनके बेटे, एगॉन पियर्सन ने दिखाया कि क्षेत्र (कर्टोसिस/स्क्वायर्ड-स्क्यूनेस प्लेन में) बीटा वितरण (समतुल्य रूप से, पियर्सन का वितरण) I द्वारा कब्जा कर लिया गया है क्योंकि यह इस सीमा तक पहुंचता है (अतिरिक्त कर्टोसिस - (3/2) विषमता2 = 0) गैर-केंद्रीय ची-वर्ग वितरण के साथ साझा किया गया है। कार्ल पियर्सन (पियर्सन 1895, पीपी. 357, 360, 373–376) ने यह भी दिखाया कि गामा वितरण पियर्सन प्रकार III वितरण है। इसलिए पियर्सन के प्रकार III वितरण के लिए यह सीमा रेखा गामा रेखा के रूप में जानी जाती है। (यह इस तथ्य से दिखाया जा सकता है कि गामा वितरण का अतिरिक्त कर्टोसिस 6/k है और विषमता का वर्ग 4/k है, इसलिए (अतिरिक्त कुर्तबसिस - (3/2) विषमता)2 = 0) मापदंड k के मान की परवाह किए बिना गामा वितरण से समान रूप से संतुष्ट है)। पियर्सन ने पश्चात् में उल्लेख किया कि ची-स्क्वेर्ड वितरण पियर्सन के प्रकार III का विशेष स्तिथि है और इस सीमा रेखा को भी साझा करता है (जैसा कि इस तथ्य से स्पष्ट है कि ची-स्क्वेर्ड वितरण के लिए अतिरिक्त कर्टोसिस 12/के और वर्ग का वर्ग है। विषमता 8/k है, इसलिए (अतिरिक्त कर्टोसिस - (3/2) विषमता2 = 0) मापदंड k के मान की परवाह किए बिना समान रूप से संतुष्ट है)। ची-स्क्वेर्ड वितरण X ~ χ के पश्चात् से इसकी उम्मीद की जानी चाहिए2(k) पैरामीट्रिजेशन X ~ Γ(k/2, 1/2) के साथ गामा वितरण का विशेष स्तिथि  है, जहां k धनात्मक पूर्णांक है जो ची-वर्ग की स्वतंत्रता की डिग्री की संख्या को निर्दिष्ट करता  वितरण है।

ऊपरी सीमा के पास बीटा वितरण का उदाहरण (अतिरिक्त कर्टोसिस - (3/2) विषमता2 = 0) α = 0.1, β = 1000 द्वारा दिया जाता है, जिसके लिए अनुपात (अतिरिक्त कुर्तबसिस)/(विषमता)2) = 1.49835 नीचे से 1.5 की ऊपरी सीमा तक पहुंचता है। निचली सीमा के पास बीटा वितरण का उदाहरण (अतिरिक्त कर्टोसिस + 2 - विषमता2 = 0) α= 0.0001, β = 0.1 द्वारा दिया जाता है, जिसके लिए अभिव्यक्ति (अतिरिक्त कर्टोसिस + 2)/(विषमता)2) = 1.01621 ऊपर से 1 की निचली सीमा तक पहुंचता है। α और β दोनों के लिए अनंत सीमा में सममित रूप से शून्य पर पहुंचने पर, अतिरिक्त कर्टोसिस -2 पर अपने न्यूनतम मूल्य तक पहुंच जाता है। यह न्यूनतम मान उस बिंदु पर होता है जिस पर निचली सीमा रेखा ऊर्ध्वाधर अक्ष (समन्वय) को काटती है। (चूंकि, पियर्सन के मूल चार्ट में, अधिक कर्टोसिस के अतिरिक्त कोटि कर्टोसिस है, और यह ऊपर की बजाय नीचे की ओर बढ़ती है)।

विषमता और निचली सीमा के नीचे अतिरिक्त कर्टोसिस के लिए मान (अतिरिक्त कुर्तबसिस + 2 - विषमता2 = 0) किसी भी वितरण के लिए नहीं हो सकता है, और इसलिए कार्ल पियर्सन ने उचित रूप से इस सीमा के नीचे के क्षेत्र को असंभव क्षेत्र कहा जाता है। इस असंभव क्षेत्र के लिए सीमा (सममित या विषम) बिमोडल यू-आकार के वितरण द्वारा निर्धारित की जाती है जिसके लिए मापदंड α और β शून्य तक पहुंचते हैं और इसलिए सभी प्रायिकता घनत्व सिरों पर केंद्रित होते हैं: x = 0, 1 व्यावहारिक रूप से मध्य में कुछ भी नहीं उन्हें। चूंकि α ≈ β ≈ 0 के लिए प्रायिकता घनत्व दो सिरों x = 0 और x = 1 पर केंद्रित है, यह असंभव सीमा बर्नौली वितरण द्वारा निर्धारित की जाती है, जहां संबंधित संभावनाओं के साथ केवल दो संभावित परिणाम होते हैं p और q = के साथ होते है 1- p। समरूपता α = β, विषमता ≈ 0, अतिरिक्त कर्टोसिस ≈ −2  इस सीमा को सीमा तक पहुंचने वाले स्थितियों के लिए (यह किसी भी वितरण के लिए न्यूनतम अतिरिक्त कुर्तबसिस संभव है), और संभावनाएं p ≈ q ≈ 1/2 हैं। विषमता के साथ इस सीमा को  सीमा तक पहुंचने वाले स्थितियों के लिए, अतिरिक्त कर्टोसिस ≈ −2 + विषमता2, और प्रायिकता घनत्व दूसरे छोर की तुलना में छोर पर अधिक केंद्रित है (व्यावहारिक रूप से मध्य में कुछ भी नहीं है), संभावनाओं के साथ $$p = \tfrac{\beta}{\alpha + \beta}$$ बाएँ छोर पर x = 0 और $$q = 1-p = \tfrac{\alpha}{\alpha + \beta}$$ दाएँ सिरे पर x = 1.

समरूपता
सभी कथन α, β > 0 पर सनियम हैं


 * संभावना घनत्व फलन समरूपता है
 * $$f(x;\alpha,\beta) = f(1-x;\beta,\alpha)$$


 * संचयी वितरण फलन होता है तथा समरूपता प्लस एकात्मक समरूपता है
 * $$F(x;\alpha,\beta) = I_x(\alpha,\beta) = 1- F(1- x;\beta,\alpha) = 1 - I_{1-x}(\beta,\alpha)$$


 * मोड समरूपता प्लस एकात्मक समरूपता है
 * $$\operatorname{mode}(\Beta(\alpha, \beta))= 1-\operatorname{mode}(\Beta(\beta, \alpha)),\text{ if }\Beta(\beta, \alpha)\ne \Beta(1,1)$$


 * मेडियन समरूपता प्लस एकात्मक समरूपता है
 * $$\operatorname{median} (\Beta(\alpha, \beta) )= 1 - \operatorname{median} (\Beta(\beta, \alpha))$$


 * मीन समरूपता प्लस एकात्मक समरूपता है
 * $$\mu (\Beta(\alpha, \beta) )= 1 - \mu (\Beta(\beta, \alpha) )$$


 * ज्यामितीय कारण प्रत्येक व्यक्तिगत रूप से असममित है, और निम्नलिखित समरूपता 'X' के आधार पर ज्यामितीय माध्य और इसके प्रतिबिंब सूत्र (1-X) के आधार पर ज्यामितीय माध्य के मध्य प्रयुक्त होती है।
 * $$G_X (\Beta(\alpha, \beta) )=G_{(1-X)}(\Beta(\beta, \alpha) ) $$


 * हार्मोनिक का अर्थ है कि प्रत्येक व्यक्तिगत रूप से असममित है, निम्नलिखित समरूपता 'X' पर आधारित हार्मोनिक माध्य और इसके प्रतिबिंब सूत्र (1-X) के आधार पर हार्मोनिक माध्य के मध्य प्रयुक्त होती है।
 * $$H_X (\Beta(\alpha, \beta) )=H_{(1-X)}(\Beta(\beta, \alpha) ) \text{ if } \alpha, \beta > 1 $$.


 * भिन्नता समरूपता
 * $$\operatorname{var} (\Beta(\alpha, \beta) )=\operatorname{var} (\Beta(\beta, \alpha) )$$


 * प्रत्येक ज्यामितीय भिन्नता व्यक्तिगत रूप से असममित है, निम्नलिखित समरूपता X पर आधारित लॉग ज्यामितीय भिन्नता और इसके प्रतिबिंब सूत्र (1-X) के आधार पर लॉग ज्यामितीय भिन्नता के मध्य प्रयुक्त होती है।
 * $$\ln(\operatorname{var_{GX}} (\Beta(\alpha, \beta))) = \ln(\operatorname{var_{G(1-X)}}(\Beta(\beta, \alpha))) $$


 * ज्यामितीय सहप्रसरण समरूपता है
 * $$\ln \operatorname{cov_{GX,(1-X)}}(\Beta(\alpha, \beta))=\ln \operatorname{cov_{GX,(1-X)}}(\Beta(\beta, \alpha))$$


 * माध्य समरूपता के चारों ओर पूर्ण विचलन है
 * $$\operatorname{E}[|X - E[X]| ] (\Beta(\alpha, \beta))=\operatorname{E}[| X - E[X]|] (\Beta(\beta, \alpha))$$


 * विषमता समरूपता (गणित) | विषम-समरूपता
 * $$\operatorname{skewness} (\Beta(\alpha, \beta) )= - \operatorname{ skewness} (\Beta(\beta, \alpha) )$$


 * अतिरिक्त कर्टोसिस समरूपता है
 * $$\text{excess kurtosis} (\Beta(\alpha, \beta) )= \text{excess kurtosis} (\Beta(\beta, \alpha) )$$


 * वास्तविक भाग की विशेषता फलन (वेरिएबल टी की उत्पत्ति के संबंध में)  समरूपता  है
 * $$ \text{Re} [{}_1F_1(\alpha; \alpha+\beta; it) ] = \text{Re} [ {}_1F_1(\alpha; \alpha+\beta; - it)] $$


 * विशेषता फलन समरूपता (गणित) है  | काल्पनिक भाग (वेरिएबल  टी की उत्पत्ति के संबंध ) की विषम-समरूपता है
 * $$ \text{Im} [{}_1F_1(\alpha; \alpha+\beta; it) ] = - \text{Im} [ {}_1F_1(\alpha; \alpha+\beta; - it) ] $$


 * निरपेक्ष मूल्य की विशेषता फलन (वेरिएबल टी की उत्पत्ति के संबंध में) समरूपता है
 * $$ \text{Abs} [ {}_1F_1(\alpha; \alpha+\beta; it) ] = \text{Abs} [ {}_1F_1(\alpha; \alpha+\beta; - it) ] $$


 * विभेदक एन्ट्रापी समरूपता
 * $$h(\Beta(\alpha, \beta) )= h(\Beta(\beta, \alpha) )$$


 * सापेक्ष एन्ट्रॉपी (जिसे कुल्बैक-लीब्लर डाइवर्जेंस भी कहा जाता है) समरूपता है
 * $$D_{\mathrm{KL}}(X_1||X_2) = D_{\mathrm{KL}}(X_2||X_1), \text{ if }h(X_1) = h(X_2)\text{, for (skewed) }\alpha \neq \beta$$


 * फिशर सूचना आव्युह समरूपता है
 * $${\mathcal{I}}_{i, j} = {\mathcal{I}}_{j, i}$$

विभक्ति बिंदु
आकार मापदंड α और β के कुछ मूल्यों के लिए, संभाव्यता घनत्व फलन में विभक्ति बिंदु होते हैं, जिस पर वक्रता परिवर्तन चिन्ह होता है। इन मोड़ बिंदुओं की स्थिति सांख्यिकीय फैलाव या वितरण के फैलाव के माप के रूप में उपयोगी हो सकती है।

निम्नलिखित मात्रा को परिभाषित करना:


 * $$\kappa =\frac{\sqrt{\frac{(\alpha-1)(\beta-1)}{\alpha+\beta-3}}}{\alpha+\beta-2}$$

विभक्ति के बिंदु होते हैं,   आकृति मापदंड α और β के मान के आधार पर निम्नानुसार है:


 * (α > 2, β > 2) वितरण घंटी के आकार का है (α = β के लिए सममित और अन्यथा विषम), दो विभक्ति बिंदुओं के साथ, मोड से समान दूरी पर:
 * $$x = \text{mode} \pm \kappa = \frac{\alpha -1 \pm \sqrt{\frac{(\alpha-1)(\beta-1)}{\alpha+\beta-3}}}{\alpha+\beta-2}$$


 * (α = 2, β > 2) वितरण असमान, धनात्मक रूप से विषम, दाएं-टेल  वाला, विभक्ति बिंदु के साथ, मोड के दाईं ओर स्थित है:
 * $$x =\text{mode} + \kappa = \frac{2}{\beta}                                                                                                                                $$


 * (α > 2, β = 2) वितरण असमान, ऋणात्मक रूप से विषम, बायां-पुच्छ, विभक्ति बिंदु के साथ, मोड के बाईं ओर स्थित है:
 * $$x = \text{mode} - \kappa = 1 - \frac{2}{\alpha}                                                                                                                                               $$


 * (1 < α < 2, β > 2, α+β>2) वितरण असमान, धनात्मक रूप से विषम, दाएं-टेल  वाला, विभक्ति बिंदु के साथ, मोड के दाईं ओर स्थित है:
 * $$x =\text{mode} + \kappa = \frac{\alpha -1 +\sqrt{\frac{(\alpha-1)(\beta-1)}{\alpha+\beta-3}}}{\alpha+\beta-2}

$$
 * (0 < α < 1, 1 < β < 2) बंटन के बाएँ सिरे पर बहुलक x = 0 है और यह धनात्मक रूप से विषम, दाएँ-टेल वाला है। मोड के दाईं ओर स्थित 'एक विभक्ति बिंदु' है:
 * $$x = \frac{\alpha -1 +\sqrt{\frac{(\alpha-1)(\beta-1)}{\alpha+\beta-3}}}{\alpha+\beta-2}$$


 * (α > 2, 1 < β < 2) वितरण असमान ऋणात्मक रूप से विषम, बायां-टेल  वाला, विभक्ति बिंदु के साथ, मोड के बाईं ओर स्थित है:
 * $$x =\text{mode} - \kappa = \frac{\alpha -1 -\sqrt{\frac{(\alpha-1)(\beta-1)}{\alpha+\beta-3}}}{\alpha+\beta-2}$$


 * (1 < α < 2, 0 < β < 1) बंटन के दायें सिरे पर बहुलक x=1 है और यह ऋणात्मक रूप से विषम, बायां-पुच्छ है। मोड के बाईं ओर स्थित 'एक विभक्ति बिंदु' है:
 * $$x = \frac{\alpha -1 -\sqrt{\frac{(\alpha-1)(\beta-1)}{\alpha+\beta-3}}}{\alpha+\beta-2}$$

शेष (सममित और विषम) क्षेत्रों में कोई विभक्ति बिंदु नहीं हैं: U-आकार: (α, β <1) ऊपर-नीचे-U-आकार: (1 <α <2, 1 <β <2), रिवर्स- J- आकार (α < 1, β > 2) या J- आकार: (α > 2, β < 1)

साथ वाले भूखंडों में विभक्ति बिंदु स्थान को (0 से 1 तक लंबवत दिखाया गया है) बनाम α और β (क्षैतिज अक्ष 0 से 5 तक) के रूप में दिखाते हैं। α = 1, β = 1, α = 2, और β = 2 को काटने वाली सतहों पर बड़े कट हैं क्योंकि इन मूल्यों पर बीटा वितरण 2 मोड से और 1 मोड से नो मोड में बदल जाता है।

आकार
बीटा घनत्व फलन दो मापदंड α और β के मानों के आधार पर विभिन्न प्रकार के विभिन्न आकार ले सकता है। आकार की इस महान विविधता को लेने के लिए बीटा वितरण की क्षमता (केवल दो मापदंडों का उपयोग करके) मॉडलिंग वास्तविक माप के लिए व्यापक आवेदन खोजने के लिए आंशिक रूप से जिम्मेदार है:

सममित (α = β)

 * घनत्व फलन समरूपता लगभग 1/2 (नीला और टील भूखंड) है।
 * माध्यिका = माध्य = 1/2।
 * विषमता = 0।
 * विचरण = 1/(4(2α + 1))
 * 'α = β <1'
 * u-आकार (नीला प्लॉट)।
 * बाइमोडल: लेफ्ट मोड = 0, राइट मोड = 1, एंटी-मोड = 1/2
 * 1/12 <वर (X) <1/4
 * −2 <अतिरिक्त कर्टोसिस (X) <−6/5
 * α = β = 1/2 आर्क्साइन वितरण है
 * वर (X) = 1/8
 * अतिरिक्त कर्टोसिस (X) = -3/2
 * CF = रिंक (टी)
 * α = β → 0 2-बिंदु बर्नौली वितरण है जिसमें प्रत्येक डायराक डेल्टा फलन अंत x = 0 और x = 1 पर समान संभावना 1/2 है और हर स्थान शून्य संभावना है। सिक्का टॉस: सिक्के का चेहरा x = 0 और दूसरा चेहरा x = 1 है।
 * $$ \lim_{\alpha = \beta \to 0} \operatorname{var}(X) = \tfrac{1}{4} $$
 * $$ \lim_{\alpha = \beta \to 0} \operatorname{excess \ kurtosis}(X) = - 2$$ इससे कम मान किसी भी वितरण तक पहुंचना असंभव है।
 * सूचना एन्ट्रापी मैक्सिमा और मिनिमा वैल्यू -∞ तक पहुंचती है
 * α = β = 1
 * समान वितरण (निरंतर)|समान [0, 1] वितरण
 * कोई मोड नहीं
 * var(X) = 1/12
 * अतिरिक्त कर्टोसिस(X) = -6/5
 * (कहीं भी ऋणात्मक ) सूचना एन्ट्रापी अपने अधिकतम और शून्य के न्यूनतम मान तक पहुँच जाती है
 * सीएफ = सिंक (टी)
 * α = β > 1
 * सममित अनिमॉडल
 * मोड = 1/2।
 * 0  2 घंटी के आकार का है, मोड के दोनों ओर स्थित विभक्ति बिंदु के साथ
 * 0 <वर (एक्स) <1/20
 * −6/7 <अतिरिक्त कर्टोसिस (X) <0
 * α = β → ∞ मिडपॉइंट x = 1/2 पर डायराक डेल्टा फलन स्पाइक के साथ 1-पॉइंट डिजनरेट डिस्ट्रीब्यूशन है, प्रायिकता 1 के साथ, और हर स्थान शून्य प्रायिकता। एकल बिंदु x = 1/2 पर केंद्रित 100% संभावना (पूर्ण निश्चितता) है।
 * $$ \lim_{\alpha = \beta \to \infty} \operatorname{var}(X) = 0 $$
 * $$ \lim_{\alpha = \beta \to \infty} \operatorname{excess \ kurtosis}(X) = 0$$
 * सूचना एंट्रोपी −∞ के मैक्सिमा और मिनिमा वैल्यू तक पहुंचती है

विषम (α ≠ β)
घनत्व फलन विषमता है। मापदंड मानों का आदान-प्रदान प्रारंभिक वक्र की दर्पण छवि (विपरीत) उत्पन्न करता है, कुछ और विशिष्ट स्तिथियाँ :
 * 'α <1, β <1'
 * U-आकार
 * α <β के लिए धनात्मक विषम, α> β के लिए ऋणात्मक  विषम।
 * बाइमोडल: लेफ्ट मोड = 0, राइट मोड = 1, एंटी-मोड = $$\tfrac{\alpha-1}{\alpha + \beta-2} $$
 * 0 <माध्यिका <1।
 * 0 <वर (X) <1/4
 * 'ए> 1, बी> 1'
 * यूनिमोडल (मैजेंटा और सियान प्लॉट),
 * α <β के लिए धनात्मक विषम, α> β के लिए ऋणात्मक  विषम।
 * $$\text{mode }= \tfrac{\alpha-1}{\alpha + \beta-2} $$
 * 0 <माध्यिका <1
 * 0 <वर (X) <1/12
 * 'α <1, β ≥ 1'
 * एक दाहिनी टेल के साथ रिवर्स j-आकार,
 * धनात्मक रूप से विषम,
 * कड़ाई से घटते हुए, उत्तल कार्य
 * मोड = 0
 * 0 <माध्यिका <1/2।
 * $$0 < \operatorname{var}(X) < \tfrac{-11+5 \sqrt{5}}{2}, $$ (अधिकतम विचरण के लिए होता है $$\alpha=\tfrac{-1+\sqrt{5}}{2}, \beta=1$$, या α = Φ गोल्डन अनुपात)
 * α ≥ 1, β <1
 * J के आकार का बाईं टेल के साथ,
 * ऋणात्मक विषम,
 * सख्ती से बढ़ रहा है, उत्तल कार्य
 * मोड = 1
 * 1/2 <माध्यिका <1
 * $$0 < \operatorname{var}(X) < \tfrac{-11+5 \sqrt{5}}{2},$$ (अधिकतम विचरण के लिए होता है $$\alpha=1, \beta=\tfrac{-1+\sqrt{5}}{2}$$, या β = Φ गोल्डन अनुपात)
 * α = 1, β > 1
 * धनात्मक रूप से विषम,
 * सख्ती से घट रहा है (लाल प्लॉट),
 * एक उलटा (मिरर-इमेज) पावर फलन [0,1] वितरण
 * माध्य = 1 / (β + 1)
 * माध्यिका = 1 - 1/21/β
 * मोड = 0
 * α = 1, 1 <β <2
 * अवतल कार्य
 * $$1-\tfrac{1}{\sqrt{2}}< \text{median} < \tfrac{1}{2}$$
 * 1/18 <वर (X) <1/12।
 * α = 1, β = 2
 * स्लोप के साथ सीधी रेखा -2, दाएं-त्रिकोणीय वितरण बाएं छोर पर समकोण के साथ, x = 0 पर
 * $$\text{median}=1-\tfrac {1}{\sqrt{2}}$$
 * वर (X) = 1/18
 * α = 1, β> 2
 * एक दाहिनी टेल के साथ रिवर्स जे-आकार,
 * उत्तल कार्य
 * $$0 < \text{median} < 1-\tfrac{1}{\sqrt{2}}$$
 * 0 <वर (X) <1/18
 * 'α > 1, β = 1'
 * ऋणात्मक विषम,
 * सख्ती से बढ़ रहा है (हरा प्लॉट),
 * पावर फलन [0, 1] वितरण
 * माध्य = α / (α + 1)
 * माध्यिका = 1/21/α
 * मोड = 1
 * 2> α> 1, बी = 1
 * अवतल कार्य
 * $$\tfrac{1}{2} < \text{median} < \tfrac{1}{\sqrt{2}}$$
 * 1/18 <वर (X) <1/12
 * α = 2, β = 1
 * स्लोप +2 के साथ सीधी रेखा, दाहिने सिरे पर समकोण के साथ समकोण-त्रिकोणीय वितरण, x = 1 पर होता है
 * $$\text{median}=\tfrac {1}{\sqrt{2}}$$
 * वर (X) = 1/18
 * α> 2, β = 1
 * एक बाईं टेल के साथ जम्मू के आकार का, उत्तल कार्य
 * $$\tfrac{1}{\sqrt{2}} < \text{median} < 1$$
 * 0 <वर (X) <1/18

रूपांतरण

 * यदि X ~ बीटा (α, β) तब 1 − X ~ बीटा (β, α) दर्पण छवि समरूपता है |
 * यदि X ~ बीटा (α, β) तब $$\tfrac{X}{1-X} \sim {\beta'}(\alpha,\beta)$$. बीटा प्राइम डिस्ट्रीब्यूशन, जिसे दूसरी तरह का बीटा डिस्ट्रीब्यूशन भी कहा जाता है।
 * यदि $$X\sim\text{Beta}(\alpha,\beta)$$, तब $$Y=\log\frac{X}{1-X}$$ घनत्व के साथ सामान्यीकृत रसद वितरण है $$\frac{\sigma(y)^\alpha\sigma(-y)^\beta}{B(\alpha,\beta)}$$, जहाँ $$\sigma$$ लॉजिस्टिक सिग्मॉइड है।
 * यदि X ~ बीटा (α, β) तब $$\tfrac{1}{X} -1 \sim {\beta'}(\beta,\alpha)$$ होता है
 * यदि X ~ बीटा (एन/2, एम/2) तब $$\tfrac{mX}{n(1-X)} \sim F(n,m)$$ (एन > 0 और एम > 0 मानते हुए), एफ-वितरण | फिशर-स्नेडेकोर एफ वितरण।
 * यदि $$X \sim \operatorname{Beta}\left(1+\lambda\tfrac{m-\min}{\max-\min}, 1 + \lambda\tfrac{\max-m}{\max-\min}\right)$$ फिर मिनट + X (अधिकतम - मिनट) ~ पीईआरटी (न्यूनतम, अधिकतम, एम, λ) जहां पीईआरटी पीईआरटी विश्लेषण में उपयोग किए जाने वाले पीईआरटी वितरण को दर्शाता है, और M = सबसे संभावित मूल्य होता है । पारंपरिक रूप से PERT विश्लेषण में λ = 4 है ।
 * यदि X ~ बीटा (1, β) तब X ~ कुमारस्वामी वितरण मापदंड (1, β) के साथ उपयोग किया जाता है
 * यदि X ~ बीटा (α, 1) तब X ~ कुमारस्वामी वितरण मापदंड (α, 1) के साथ होता है
 * यदि X ~ बीटा (α, 1) तब −ln(X) ~ एक्सपोनेंशियल (α) है|

विशेष और सीमित स्तिथियाँ
* बीटा(1, 1) ~ u(0, 1).समान वितरण (निरंतर) है |
 * बीटा (n, 1) ~ अधिकतम n स्वतंत्र आरवीएस। समान वितरण के साथ (सतत)| U(0, 1), कभी-कभी उस अंतराल पर घनत्व n xn-1 के साथ a मानक पावर फलन वितरण कहा जाता है।
 * बीटा (1, n) ~ न्यूनतम n स्वतंत्र आरवीएस। समान वितरण के साथ (निरंतर)| u(0, 1)
 * यदि X ~ बीटा(3/2, 3/2) और r > 0 तब 2rX − r ~ विग्नेर अर्धवृत्त वितरण होता है ।
 * बीटा(1/2, 1/2) आर्क्साइन वितरण के सामान्तर है। यह बंटन बर्नौली बंटन और द्विपद बंटन के लिए जेफरी की पूर्व प्रायिकता भी है। तथा आर्क्सिन संभाव्यता घनत्व वितरण है जो अनेक रैंडम-वॉक मौलिक प्रमेयों में प्रकट होता है। उचित सिक्के में बेतरतीब ढंग से चलना, और मूल स्थान की अंतिम यात्रा के समय की संभावना को (यू-आकार) चाप वितरण के रूप में वितरित किया जाता है। दो खिलाड़ियों के फेयर-कॉइन-टॉस गेम में, खिलाड़ी को लीड में रहने कहा जाता है यदि रैंडम वॉक (जो मूल पर प्रारंभिक हुआ) मूल से ऊपर है। तो लंबाई 2N के खेल में किसी दिए गए खिलाड़ी के नेतृत्व में होने की सबसे संभावित संख्या N नहीं है। इसके विपरीत, N कम से कम संभावना है कि खिलाड़ी लीड में होगा। जब कि  लीड में सबसे संभावित संख्या 0 या 2N (आर्क्सिन वितरण के पश्चात्) है।
 * $$\lim_{n \to \infty} n \operatorname{Beta}(1,n) = \operatorname{Exponential}(1)$$ घातीय वितरण।
 * $$\lim_{n \to \infty} n \operatorname{Beta}(k,n) = \operatorname{Gamma}(k,1)$$ गामा वितरण।
 * बड़े $$n$$ के लिए, $$\operatorname{Beta}(\alpha n,\beta n) \to \mathcal{N}\left(\frac{\alpha}{\alpha+\beta},\frac{\alpha\beta}{(\alpha+\beta)^3}\frac{1}{n}\right)$$ सामान्य वितरण। अधिक स्पष्ट, यदि $$X_n \sim \operatorname{Beta}(\alpha n,\beta n)$$ है तब $$\sqrt{n}\left(X_n -\tfrac{\alpha}{\alpha+\beta}\right)$$ माध्य 0 और विचरण  के साथ वितरण में सामान्य वितरण में परिवर्तित हो जाता है जैसे n बढ़ता है। वैसे  $$\tfrac{\alpha\beta}{(\alpha+\beta)^3}$$ हो जाता है|

अन्य वितरणों से प्राप्त

 * समान वितरण (निरंतर) से आकार n के प्रतिरूप का kवां क्रम आँकड़ा बीटा यादृच्छिक वेरिएबल, U है(k) ~ बीटा (k, n+1−k)।
 * यदि x~गामा(α, θ) और y~गामा(β, θ) स्वतंत्र हैं, तब $$\tfrac{X}{X+Y} \sim \operatorname{Beta}(\alpha, \beta)\,$$होगा.
 * यदि $$X \sim \chi^2(\alpha)\,$$ और $$Y \sim \chi^2(\beta)\,$$ स्वतंत्र हैं, तब $$\tfrac{X}{X+Y} \sim \operatorname{Beta}(\tfrac{\alpha}{2}, \tfrac{\beta}{2})                                                                                           $$ होगा.
 * यदि X ~ U(0, 1) और α > 0 तब X1/α ~ बीटा(α, 1). पावर फलन वितरण होता है |
 * यदि $$ X \sim\operatorname{Binom}(k;n;p)$$ है तब $${X / (n+1)}\sim \operatorname{Beta}(\alpha, \beta)$$ n और k के असतत मानों के लिए होता है जहाँ $$\alpha=k+1$$ और $$\beta=n-k+1$$होगा.
 * यदि X ~ कॉची (0, 1) तब $$\tfrac{1}{1+X^2} \sim \operatorname{Beta}\left(\tfrac12, \tfrac12\right)\,                                                                                                  $$होगा

अन्य वितरणों के साथ संयोजन

 * X ~ बीटा (α, β) और Y ~ F (2β, 2α) फिर $$\Pr(X \leq \tfrac \alpha {\alpha+\beta x}) = \Pr(Y \geq x)\,$$ सभी के लिए x> 0 होगा ।

अन्य वितरणों के साथ कंपाउंडिंग

 * यदि p~ बीटा (α, β) और X ~ बिन (k, p) तब X ~ बीटा-द्विपद वितरण होता है
 * यदि p~ बीटा (α, β) और X ~ एनबी (r, p) तब X~ बीटा ऋणात्मक द्विपद वितरण होता है

सामान्यीकरण

 * अनेक वेरिएबल के लिए सामान्यीकरण, अर्थात डिरिचलेट वितरण, कहलाता है। डिरिचलेट वितरण के यूनीवेरिएट मार्जिनल में बीटा वितरण होता है। बीटा वितरण द्विपद और बर्नौली वितरण से ठीक उसी तरह संयुग्मित होता है जिस तरह डिरिचलेट वितरण बहुपद वितरण और श्रेणीबद्ध वितरण के लिए संयुग्मित होता है।
 * पियर्सन वितरण या पियर्सन प्रकार वितरण बीटा वितरण के समान है (मनमानी स्थानांतरण और पुन: स्केलिंग को छोड़कर जिसे बीटा वितरण के चार मापदंड पैरामीट्रिजेशन के साथ भी पूरा किया जा सकता है)।
 * बीटा वितरण गैर-केंद्रीय बीटा वितरण का विशेष स्तिथि है जहां $$\lambda = 0$$: $$\operatorname{Beta}(\alpha, \beta) = \operatorname{NonCentralBeta}(\alpha,\beta,0)$$.होता है
 * सामान्यीकृत बीटा वितरण पांच-मापदंड वितरण परिवार है जिसमें विशेष स्तिथियों के रूप में बीटा वितरण होता है।
 * आव्युह वेरिएबल बीटा वितरण धनात्मक-निश्चित आव्यूहों का वितरण है।

दो अज्ञात मापदंड
[0,1] अंतराल में समर्थित बीटा वितरण के दो अज्ञात मापदंड ($$ (\hat{\alpha}, \hat{\beta})$$  का अनुमान पहले दो क्षणों (प्रतिरूप माध्य और प्रतिरूप भिन्नता) के साथ क्षणों की विधि का उपयोग करके लगाया जा सकता है,जिसे निम्नानुसार किया जा सकता है।


 * $$\text{sample mean(X)}=\bar{x} = \frac{1}{N}\sum_{i=1}^N X_i$$

प्रतिरूप औसत अनुमान हो और ये


 * $$\text{sample variance(X)} =\bar{v} = \frac{1}{N-1}\sum_{i=1}^N (X_i - \bar{x})^2                                                                                        $$

प्रतिरूप विचरण अनुमान हो। तथा आघूर्णों की विधि के (सांख्यिकी)| ,आघूर्ण प्राचलों के अनुमान हैं


 * $$\hat{\alpha} = \bar{x} \left(\frac{\bar{x} (1 - \bar{x})}{\bar{v}} - 1 \right),$$ यदि $$\bar{v} <\bar{x}(1 - \bar{x}),$$
 * $$\hat{\beta} = (1-\bar{x}) \left(\frac{\bar{x} (1 - \bar{x})}{\bar{v}} - 1 \right),$$ यदि $$\bar{v}<\bar{x}(1 - \bar{x}).$$

जब यादृच्छिक वेरिएबल X के साथ [0, 1] के अतिरिक्त किसी ज्ञात अंतराल पर वितरण की आवश्यकता होती है, तब कहें [a, c] यादृच्छिक वेरिएबल  Y के साथ, फिर प्रतिस्थापित करें $$\bar{x}$$ साथ $$\frac{\bar{y}-a}{c-a},$$ और $$\bar{v}$$ साथ $$\frac{\bar{v_Y}}{(c-a)^2}$$ आकार के मापदंडों के लिए उपरोक्त कुछ समीकरणों में (वैकल्पिक पैरामीट्रिजेशन देखें, नीचे चार मापदंड अनुभाग)।, जहाँ :


 * $$\text{sample mean(Y)}=\bar{y} = \frac{1}{N}\sum_{i=1}^N Y_i$$
 * $$\text{sample variance(Y)} = \bar{v_Y} = \frac{1}{N-1}\sum_{i=1}^N (Y_i - \bar{y})^2$$

चार अज्ञात मापदंड
सभी चार मापदंड ($$\hat{\alpha}, \hat{\beta}, \hat{a}, \hat{c}$$ [a, c] अंतराल में समर्थित बीटा वितरण का - खंड देखें तथा बीटा वितरण या चार मापदंड को दर्शाए | वैकल्पिक पैरामीट्रिजेशन, चार मापदंड -) का अनुमान लगाया जा सकता है, कार्ल पियर्सन द्वारा विकसित क्षणों की विधि का उपयोग करके, पहले चार केंद्रीय क्षणों (माध्य, विचरण, विषमता और अतिरिक्त कर्टोसिस) के प्रतिरूप और संख्या  मूल्यों को समान करके।  अतिरिक्त कर्टोसिस को विषमता के वर्ग के संदर्भ में व्यक्त किया गया था, और प्रतिरूप आकार ν = α + β, (पिछला अनुभाग बीटा वितरण देखें या कर्टोसिस | ) इस प्रकार है:


 * $$\text{excess kurtosis} =\frac{6}{3 + \nu}\left(\frac{(2 + \nu)}{4} (\text{skewness})^2 - 1\right)\text{ if (skewness)}^2-2< \text{excess kurtosis}< \tfrac{3}{2} (\text{skewness})^2                                                                             $$

इस समीकरण का उपयोग प्रतिरूप आकार ν = α + β को विषमता के वर्ग और अतिरिक्त कर्टोसिस के रूप में हल करने के लिए किया जा सकता है:


 * $$\hat{\nu} = \hat{\alpha} + \hat{\beta} = 3\frac{(\text{sample excess kurtosis}) - (\text{sample skewness})^2+2}{\frac{3}{2} (\text{sample skewness})^2 - \text{(sample excess kurtosis)}}$$
 * $$\text{ if (sample skewness)}^2-2< \text{sample excess kurtosis}< \tfrac{3}{2} (\text{sample skewness})^2$$

यह अंतरिक्ष में बीटा वितरण के लिए पहले से व्युत्पन्न सीमा सीमाओं के मध्य अनुपात (3 के कारक से गुणा) है (जैसा कि मूल रूप से कार्ल पियर्सन द्वारा किया गया था) अक्ष में विषमता के वर्ग के निर्देशांक और दूसरे अक्ष में अतिरिक्त कर्टोसिस के साथ परिभाषित किया गया है (देखें ):

शून्य विषमता का स्तिथि तुरंत हल किया जा सकता है क्योंकि शून्य विषमता के लिए, α = β और इसलिए ν = 2α = 2β, इसलिए α = β = ν/2


 * $$\hat{\alpha} = \hat{\beta} = \frac{\hat{\nu}}{2}= \frac{\frac{3}{2}(\text{sample excess kurtosis}) +3}{- \text{(sample excess kurtosis)}}$$
 * $$ \text{ if sample skewness}= 0 \text{ and } -2<\text{sample excess kurtosis}<0$$

(अतिरिक्त कर्टोसिस बीटा वितरण के लिए शून्य विषमता के साथ ऋणात्मक है, -2 से 0 तक, जिससे $$\hat{\nu}$$ -और इसलिए प्रतिरूप आकार मापदंड- धनात्मक  है, शून्य से लेकर जब आकार मापदंड शून्य तक पहुंचते हैं और अतिरिक्त कर्टोसिस -2 तक पहुंचते हैं, अनंत तक जब आकार मापदंड अनंत तक पहुंचते हैं और अतिरिक्त कुर्तबसिस शून्य तक पहुंचते हैं)।

गैर-शून्य प्रतिरूप विषमता के लिए है जो कि जिसमे दो युग्मित समीकरणों की प्रणाली को हल करने की आवश्यकता होती है। चूंकि विषमता और अतिरिक्त कर्टोसिस मापदंडों से स्वतंत्र हैं तथा  $$\hat{a}, \hat{c}$$, मापदंड $$\hat{\alpha}, \hat{\beta}$$ दो ज्ञात वेरिएबल  (प्रतिरूप विषमता और प्रतिरूप अतिरिक्त कर्टोसिस) और दो अज्ञात (आकार मापदंड) के साथ युग्मित समीकरणों को हल करके प्रतिरूप विषमता और प्रतिरूप अतिरिक्त कर्टोसिस से विशिष्ट रूप से निर्धारित किया जा सकता है:


 * $$(\text{sample skewness})^2 = \frac{4(\hat{\beta}-\hat{\alpha})^2 (1 + \hat{\alpha} + \hat{\beta})}{\hat{\alpha} \hat{\beta} (2 + \hat{\alpha} + \hat{\beta})^2}$$
 * $$\text{sample excess kurtosis} =\frac{6}{3 + \hat{\alpha} + \hat{\beta}}\left(\frac{(2 + \hat{\alpha} + \hat{\beta})}{4} (\text{sample skewness})^2 - 1\right)$$
 * $$\text{ if (sample skewness)}^2-2< \text{sample excess kurtosis}< \tfrac{3}{2}(\text{sample skewness})^2$$

जिसके परिणामस्वरूप निम्नलिखित समाधान होता है:


 * $$\hat{\alpha}, \hat{\beta} = \frac{\hat{\nu}}{2} \left (1 \pm \frac{1}{ \sqrt{1+ \frac{16 (\hat{\nu} + 1)}{(\hat{\nu} + 2)^2(\text{sample skewness})^2}}} \right )                                                                                                                                                                                                                             $$
 * $$\text{ if sample skewness}\neq 0 \text{   and   } (\text{sample skewness})^2-2< \text{sample excess kurtosis}< \tfrac{3}{2} (\text{sample skewness})^2$$

जहां निम्न प्रकार से उपाय करना चाहिए:जहाँ $$\hat{\alpha}>\hat{\beta}$$ के लिए (ऋणात्मक ) प्रतिरूप विषम <0, और $$\hat{\alpha}<\hat{\beta}$$ (धनात्मक) प्रतिरूप विषमता > 0 के लिए उपयोग किया जाता है ।

संलग्न प्लॉट इन दो समाधानों को अंतरिक्ष में सतहों के रूप में क्षैतिज अक्षों (प्रतिरूप अतिरिक्त कर्टोसिस) और (प्रतिरूप वर्ग विषमता) और ऊर्ध्वाधर अक्ष के रूप में आकार मापदंडों के साथ दिखाता है। सतहों को इस नियम से विवश किया जाता है कि प्रतिरूप अतिरिक्त कर्टोसिस उपरोक्त समीकरण में निर्धारित प्रतिरूप वर्ग विषमता से घिरा होना चाहिए। दो सतहें शून्य विषमता द्वारा परिभाषित दाहिने किनारे पर मिलती हैं। इस दाहिने किनारे के साथ,दोनों मापदंड समान हैं और वितरण α = β <1 के लिए सममित U- आकार का है, α = β = 1 के लिए समान है, 1 < α = β <2 के लिए उल्टा-U-आकार का है और बेल- α = β> 2 के लिए आकार। सतहें असंभव सीमा रेखा (अतिरिक्त कर्टोसिस + 2 - विषमता2) द्वारा परिभाषित सामने (निचले) किनारे पर भी मिलती हैं = 0). इस मोर्चे (निचली) सीमा के साथ दोनों आकार मापदंड शून्य तक पहुंचते हैं, और संभाव्यता घनत्व दूसरे छोर की तुलना में छोर पर अधिक केंद्रित होता है (व्यावहारिक रूप  मध्य में कुछ भी नहीं होता है ),

संभावनाओं के साथ $$p=\tfrac{\beta}{\alpha + \beta}$$ बाएँ छोर पर x = 0 और $$q = 1-p = \tfrac{\alpha}{\alpha + \beta} $$ दाएँ सिरे पर x = 1। पीछे के किनारे की ओर दो सतहें और दूर हो जाती हैं। इस पिछले किनारे पर सतह के मापदंड दूसरे से अधिक  अलग हैं। जैसा कि टिप्पणी की गई है, उदाहरण के लिए, बोमन और शेंटन द्वारा, लाइन के निकटतम में प्रतिरूप करण (प्रतिरूप अतिरिक्त कुर्तबसिस - (3/2)(प्रतिरूप विषमता)2 = 0) (पीछे के किनारे का जस्ट-जे-आकार का भाग  जहां नीला बेज रंग से मिलता है), खतरनाक रूप से अराजकता के समीप  है, क्योंकि उस रेखा पर अनुमान के लिए उपरोक्त अभिव्यक्ति का भाजक ν = α + β शून्य हो जाता है और इसलिए ν अनंत तक पहुंचता है क्योंकि उस रेखा तक पहुंच जाती है। बोमन और शेंटन लिखें कि उच्च क्षण के मापदंड (कर्टोसिस और विषमता) अत्यधिक नाजुक (उस रेखा के पास) हैं। चूंकि, माध्य और मानक विचलन अधिक  विश्वसनीय हैं। इसलिए, समस्या बहुत विषम वितरणों के लिए चार मापदंड अनुमान के स्तिथियों के  लिए है, जैसे कि अतिरिक्त कर्टोसिस विषमता के वर्ग (3/2) गुना तक पहुंचता है। यह सीमा रेखा मापदंड के बहुत बड़े मूल्यों और दूसरे मापदंड के बहुत छोटे मूल्यों के साथ अत्यंत विषम वितरणों द्वारा निर्मित होती है। देखना  संख्यात्मक उदाहरण के लिए और इस रियर एज सीमा रेखा के बारे में आगे की टिप्पणी (प्रतिरूप अतिरिक्त कर्टोसिस - (3/2) (प्रतिरूप विषमता)2 = 0). जैसा कि स्वयं कार्ल पियर्सन ने टिप्पणी की है यह उद्देश्य अधिक व्यावहारिक महत्व का नहीं हो सकता है क्योंकि यह समस्या केवल बहुत विषम जे-आकार (या दर्पण-छवि जे-आकार) वितरण के लिए उत्पन्न होती है, जो आकार के मापदंडों के बहुत अलग मूल्यों के साथ होती है जो व्यवहार में बहुत अधिक होने की संभावना नहीं है)। अभ्यास में होने वाले सामान्य विषम-बेल-आकार के वितरण में यह मापदंड अनुमान समस्या नहीं होती है।

शेष दो मापदंड $$\hat{a}, \hat{c}$$ विभिन्न समीकरणों का उपयोग करके प्रतिरूप माध्य और प्रतिरूप भिन्नता का उपयोग करके निर्धारित किया जा सकता है।  विकल्प समर्थन अंतराल सीमा की गणना करना है $$(\hat{c}-\hat{a})$$ प्रतिरूप विचरण और प्रतिरूप कर्टोसिस के आधार पर होता है। इस प्रयोजन के लिए कोई भी सीमा के संदर्भ में हल कर सकता है $$(\hat{c}- \hat{a})$$, प्रतिरूप विचरण  और प्रतिरूप आकार ν के संदर्भ में अतिरिक्त कुर्तबसिस को व्यक्त करने वाला समीकरण (देखें  और ):


 * $$\text{sample excess kurtosis} =\frac{6}{(3 + \hat{\nu})(2 + \hat{\nu})}\bigg(\frac{(\hat{c}- \hat{a})^2}{\text{(sample variance)}} - 6 - 5 \hat{\nu} \bigg)$$

प्राप्त करने के लिए:


 * $$ (\hat{c}- \hat{a}) = \sqrt{\text{(sample variance)}}\sqrt{6+5\hat{\nu}+\frac{(2+\hat{\nu})(3+\hat{\nu})}{6}\text{(sample excess kurtosis)}}$$

एक अन्य विकल्प समर्थन में अंतराल सीमा $$(\hat{c}-\hat{a})$$ की गणना करना है और प्रतिरूप विचरण  और प्रतिरूप विषमता के आधार पर उपयोग किया जाता है ।  इस प्रयोजन के लिए कोई भी इसको सीमा $$(\hat{c}-\hat{a})$$ के संदर्भ में  प्रतिरूप विचरण के संदर्भ में वर्ग विषमता व्यक्त करने वाला समीकरण और प्रतिरूप आकार ν हल कर सकता है (विषमता और वैकल्पिक पैरामीट्रिजेशन शीर्षक वाला अनुभाग देखें, चार मापदंड):


 * $$(\text{sample skewness})^2 = \frac{4}{(2+\hat{\nu})^2}\bigg(\frac{(\hat{c}- \hat{a})^2}{ \text{(sample variance)}}-4(1+\hat{\nu})\bigg)$$

प्राप्त करने के लिए:


 * $$ (\hat{c}- \hat{a}) = \frac{\sqrt{\text{(sample variance)}}}{2}\sqrt{(2+\hat{\nu})^2(\text{sample skewness})^2+16(1+\hat{\nu})}$$

शेष मापदंड प्रतिरूप माध्य और पहले प्राप्त मापदंड से निर्धारित किया जा सकता है: $$(\hat{c}-\hat{a}), \hat{\alpha}, \hat{\nu} = \hat{\alpha}+\hat{\beta}$$:


 * $$ \hat{a} = (\text{sample mean}) -  \left(\frac{\hat{\alpha}}{\hat{\nu}}\right)(\hat{c}-\hat{a}) $$

और अंत में, $$\hat{c}= (\hat{c}- \hat{a}) + \hat{a} $$.

उपरोक्त सूत्रों में, उदाहरण के लिए, प्रतिरूप क्षणों के अनुमान के रूप में लिया जा सकता है:


 * $$\begin{align}

\text{sample mean} &=\overline{y} = \frac{1}{N}\sum_{i=1}^N Y_i \\ \text{sample variance} &= \overline{v}_Y = \frac{1}{N-1}\sum_{i=1}^N (Y_i - \overline{y})^2 \\ \text{sample skewness} &= G_1 = \frac{N}{(N-1)(N-2)} \frac{\sum_{i=1}^N (Y_i-\overline{y})^3}{\overline{v}_Y^{\frac{3}{2}} } \\ \text{sample excess kurtosis} &= G_2 = \frac{N(N+1)}{(N-1)(N-2)(N-3)} \frac{\sum_{i=1}^N (Y_i - \overline{y})^4}{\overline{v}_Y^2} - \frac{3(N-1)^2}{(N-2)(N-3)} \end{align}                                                                                                                                                                                                                                                                                                                                                                               $$ अनुमानक G1 विषमता और G2 के लिए कर्टोसिस के लिए डीएपी (सॉफ्टवेयर)/एसएएस प्रणाली, पीएसपीपी/एसपीएसएस और माइक्रोसॉफ्ट एक्सेल द्वारा उपयोग किया जाता है। चूँकि, उनका उपयोग बीएमडीपी द्वारा नहीं किया जाता है और (के अनुसार वे 1998 में मिनीटैब द्वारा उपयोग नहीं किए गए थे। दरअसल, जोनेस और गिल ने 1998 के अपने अध्ययन में  निष्कर्ष निकाला कि बीएमडीपी और मिनीटैब (उस समय) में उपयोग किए जाने वाले विषमता और कर्टोसिस अनुमानक में सामान्य प्रतिरूपों  में छोटा विचलन और माध्य-वर्ग त्रुटि थी, किन्तु DAP (सॉफ़्टवेयर)/SAS प्रणाली, PSPP/SPSS में उपयोग किए जाने वाले विषमता और कुर्तबसिस अनुमानक, अर्थात् G1 और G2, बहुत ही विषम वितरण से प्रतिरूपों  में छोटी माध्य-वर्गीय त्रुटि थी। यह इस कारण से है कि हमने उपरोक्त सूत्रों में प्रतिरूप विषमता आदि को स्पष्ट किया है, जिससेयह स्पष्ट हो सके कि उपयोगकर्ता को समस्या के अनुसार सबसे अच्छा अनुमानक चुनना चाहिए, क्योंकि विषमता और कर्टोसिस के लिए सबसे अच्छा अनुमानक निर्भर करता है और विषमता की मात्रा बताता है (जैसा कि जोनेस और गिल द्वारा दिखाया गया है ).

दो अज्ञात मापदंड
जैसा कि गामा वितरण के लिए अधिकतम संभावना अनुमानों के स्तिथियों में भी है, वैसे ही बीटा वितरण के लिए अधिकतम संभावना अनुमानों में आकृति मापदंडों के इच्छानुसार मूल्यों के लिए सामान्य विवृत रूप समाधान नहीं है। यदि  स्वतंत्र यादृच्छिक वेरिएबल X1, ..., XN  हैं जिनमें से प्रत्येक में बीटा वितरण है, N स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल  अवलोकनों के लिए संयुक्त लॉग संभावना कार्य करता है:


 * $$\begin{align}

\ln\, \mathcal{L} (\alpha, \beta\mid X) &= \sum_{i=1}^N \ln \left (\mathcal{L}_i (\alpha, \beta\mid X_i) \right )\\ &= \sum_{i=1}^N \ln \left (f(X_i;\alpha,\beta) \right ) \\ &= \sum_{i=1}^N \ln \left (\frac{X_i^{\alpha-1}(1-X_i)^{\beta-1}}{\Beta(\alpha,\beta)} \right ) \\ &= (\alpha - 1)\sum_{i=1}^N \ln (X_i) + (\beta- 1)\sum_{i=1}^N \ln (1-X_i) - N \ln \Beta(\alpha,\beta) \end{align}                                                                                                                                                                                                                                                                                                                                                                                                                                                        $$ आकार मापदंड के संबंध में अधिकतम ढूँढना तथा आकार मापदंड के संबंध में आंशिक व्युत्पन्न लेना और अभिव्यक्ति मापदंड के अधिकतम संभावना अनुमानक को शून्य के सामान्तर अभिव्यक्ति समुच्चय करना सम्मिलित है:


 * $$\frac{\partial \ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \alpha} = \sum_{i=1}^N \ln X_i -N\frac{\partial \ln \Beta(\alpha,\beta)}{\partial \alpha}=0$$
 * $$\frac{\partial \ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \beta} = \sum_{i=1}^N \ln (1-X_i)- N\frac{\partial \ln \mathrm{B}(\alpha,\beta)}{\partial \beta}=0$$

जहाँ :


 * $$\frac{\partial \ln \Beta(\alpha,\beta)}{\partial \alpha} = -\frac{\partial \ln \Gamma(\alpha+\beta)}{\partial \alpha}+ \frac{\partial \ln \Gamma(\alpha)}{\partial \alpha}+ \frac{\partial \ln \Gamma(\beta)}{\partial \alpha}=-\psi(\alpha + \beta) + \psi(\alpha) + 0$$
 * $$\frac{\partial \ln \Beta(\alpha,\beta)}{\partial \beta}= - \frac{\partial \ln \Gamma(\alpha+\beta)}{\partial \beta}+ \frac{\partial \ln \Gamma(\alpha)}{\partial \beta} + \frac{\partial \ln \Gamma(\beta)}{\partial \beta}=-\psi(\alpha + \beta) + 0 + \psi(\beta)$$

चूंकि डिगामा फलन ने ψ(α) को निरूपित किया है, इसे गामा फलन के लॉगरिदमिक व्युत्पन्न के रूप में परिभाषित किया गया है:


 * $$\psi(\alpha) =\frac {\partial\ln \Gamma(\alpha)}{\partial \alpha}$$

यह सुनिश्चित करने के लिए कि शून्य स्पर्शरेखा स्लोप वाले मान वास्तव में अधिकतम हैं (एक सैडल-पॉइंट या न्यूनतम के अतिरिक्त) किसी को भी इस नियम  को पूरा करना होगा कि वक्रता ऋणात्मक है। यह संतबषजनक है कि आकार के मापदंडों के संबंध में दूसरा आंशिक व्युत्पन्न ऋणात्मक  है


 * $$\frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \alpha^2}= -N\frac{\partial^2\ln \Beta(\alpha,\beta)}{\partial \alpha^2}<0$$
 * $$\frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \beta^2} = -N\frac{\partial^2\ln \Beta(\alpha,\beta)}{\partial \beta^2}<0$$
 * $$\frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \beta^2} = -N\frac{\partial^2\ln \Beta(\alpha,\beta)}{\partial \beta^2}<0$$

पिछले समीकरणों का उपयोग करते हुए, यह इसके सामान्तर है:


 * $$\frac{\partial^2\ln \Beta(\alpha,\beta)}{\partial \alpha^2} = \psi_1(\alpha)-\psi_1(\alpha + \beta) > 0$$
 * $$\frac{\partial^2\ln \Beta(\alpha,\beta)}{\partial \beta^2} = \psi_1(\beta) -\psi_1(\alpha + \beta) > 0$$
 * $$\frac{\partial^2\ln \Beta(\alpha,\beta)}{\partial \beta^2} = \psi_1(\beta) -\psi_1(\alpha + \beta) > 0$$

जहां त्रिगामा फलन, ψ1(α) को निरूपित करता है,तथा बहुग्राम कार्यों का दूसरा है, और इसे डिगामा फलन के व्युत्पन्न के रूप में परिभाषित किया गया है:


 * $$\psi_1(\alpha) = \frac{\partial^2\ln\Gamma(\alpha)}{\partial \alpha^2}=\, \frac{\partial\, \psi(\alpha)}{\partial \alpha}.$$

ये स्थितियाँ यह बताने के सामान्तर हैं कि लघुगणक रूप से परिवर्तित वेरिएबल के प्रसरण धनात्मक  हैं, क्योंकि:


 * $$\operatorname{var}[\ln (X)] = \operatorname{E}[\ln^2 (X)] - (\operatorname{E}[\ln (X)])^2 = \psi_1(\alpha) - \psi_1(\alpha + \beta) $$
 * $$\operatorname{var}[\ln (1-X)] = \operatorname{E}[\ln^2 (1-X)] - (\operatorname{E}[\ln (1-X)])^2 = \psi_1(\beta) - \psi_1(\alpha + \beta) $$
 * $$\operatorname{var}[\ln (1-X)] = \operatorname{E}[\ln^2 (1-X)] - (\operatorname{E}[\ln (1-X)])^2 = \psi_1(\beta) - \psi_1(\alpha + \beta) $$

इसलिए, अधिकतम ऋणात्मक वक्रता की स्थिति कथनों के सामान्तर है:


 * $$ \operatorname{var}[\ln (X)] > 0$$
 * $$ \operatorname{var}[\ln (1-X)] > 0$$

वैकल्पिक रूप से, अधिकतम पर ऋणात्मक वक्रता की स्थिति भी यह बताने के सामान्तर है कि ज्यामितीय के निम्न लघुगणकीय डेरिवेटिव का अर्थ GX और G(1−X) धनात्मक  हैं, क्योंकि:


 * $$\psi_1(\alpha) - \psi_1(\alpha + \beta) = \frac{\partial \ln G_X}{\partial \alpha} > 0$$
 * $$\psi_1(\beta) - \psi_1(\alpha + \beta) = \frac{\partial \ln G_{(1-X)}}{\partial \beta} > 0$$

जबकि ये स्लोप वास्तव में धनात्मक हैं, अन्य स्लोप ऋणात्मक  हैं:


 * $$\frac{\partial\, \ln G_X}{\partial \beta}, \frac{\partial \ln G_{(1-X)}}{\partial \alpha} < 0.$$

α और β के संबंध में माध्य और माध्यिका के स्लोप समान संकेत व्यवहार प्रदर्शित करते हैं।

इस नियम के अनुसार अधिकतम आकार मापदंड के संबंध में आंशिक व्युत्पन्न शून्य के सामान्तर है, तथा हम युग्मित अधिकतम संभावना अनुमान समीकरणों की निम्नलिखित प्रणाली प्राप्त करते हैं (औसत लॉग-संभावना के लिए) जिसे (अज्ञात) प्राप्त करने के लिए उलटा करने की आवश्यकता होती है। आकार मापदंड अनुमान X1, ..., XN: प्रतिरूप  के लॉगरिदम के (ज्ञात) औसत के संदर्भ में $$\hat{\alpha},\hat{\beta}$$ होते है


 * $$\begin{align}

\hat{\operatorname{E}}[\ln (X)] &= \psi(\hat{\alpha}) - \psi(\hat{\alpha} + \hat{\beta})=\frac{1}{N}\sum_{i=1}^N \ln X_i = \ln \hat{G}_X \\ \hat{\operatorname{E}}[\ln(1-X)] &= \psi(\hat{\beta}) - \psi(\hat{\alpha} + \hat{\beta})=\frac{1}{N}\sum_{i=1}^N \ln (1-X_i)= \ln \hat{G}_{(1-X)} \end{align}$$ जहां हम प्रतिरूप ज्यामितीय माध्य के लघुगणक के रूप में $$\log \hat{G}_X                                                                                                                      $$ को पहचानते हैं   और $$\log \hat{G}_{(1-X)}$$ (को लघुगणक के रूप में पहचानते है 1 − X), आधारित प्रतिरूप ज्यामितीय माध्य । के लिए  X की दर्पण छवि पर $$\hat{\alpha}=\hat{\beta}$$,उपयोग किया जाता है  यह इस प्रकार है कि  $$\hat{G}_X=\hat{G}_{(1-X)} $$.होगा


 * $$\begin{align}
 * $$\begin{align}

\hat{G}_X &= \prod_{i=1}^N (X_i)^{1/N} \\ \hat{G}_{(1-X)} &= \prod_{i=1}^N (1-X_i)^{1/N} \end{align}$$ आकार मापदंड अनुमानों के डिगामा कार्यों वाले ये युग्मित समीकरण $$\hat{\alpha},\hat{\beta}$$ संख्यात्मक विधियों द्वारा हल किया जाना चाहिए, उदाहरण के लिए, बेकमैन एट अल द्वारा। ज्ञानदेसिकन एट अल। कुछ स्थितियों के लिए संख्यात्मक समाधान दें। नॉर्मन लॉयड जॉनसन|एन.एल.जॉनसन और सैमुअल कोटज़|एस.कोट्ज़ सुझाव है कि बहुत छोटे आकार के मापदंड अनुमानों के लिए नहीं $$\hat{\alpha},\hat{\beta}$$, डिगामा फलन के लिए लॉगरिदमिक सन्निकटन $$\psi(\hat{\alpha}) \approx \ln(\hat{\alpha}-\tfrac{1}{2})$$ पुनरावृत्त समाधान के लिए प्रारंभिक मान प्राप्त करने के लिए उपयोग किया जा सकता है, क्योंकि इस सन्निकटन से उत्पन्न समीकरणों को ठीक से हल किया जा सकता है:


 * $$\ln \frac{\hat{\alpha} - \frac{1}{2}}{\hat{\alpha} + \hat{\beta} - \frac{1}{2}} \approx  \ln \hat{G}_X $$
 * $$\ln \frac{\hat{\beta} - \frac{1}{2}}{\hat{\alpha} + \hat{\beta} - \frac{1}{2}}\approx \ln \hat{G}_{(1-X)} $$
 * $$\ln \frac{\hat{\beta} - \frac{1}{2}}{\hat{\alpha} + \hat{\beta} - \frac{1}{2}}\approx \ln \hat{G}_{(1-X)} $$

जो पुनरावृत्त समाधान के लिए प्रारंभिक मानों (प्रतिरूप ज्यामितीय साधनों के संदर्भ में अनुमान आकार मापदंडों के) के लिए निम्नलिखित समाधान की ओर ले जाता है:


 * $$\hat{\alpha}\approx \tfrac{1}{2} + \frac{\hat{G}_{X}}{2(1-\hat{G}_X-\hat{G}_{(1-X)})} \text{ if } \hat{\alpha} >1$$
 * $$\hat{\beta}\approx \tfrac{1}{2} + \frac{\hat{G}_{(1-X)}}{2(1-\hat{G}_X-\hat{G}_{(1-X)})} \text{ if } \hat{\beta} > 1$$

वैकल्पिक रूप से, क्षणों की विधि द्वारा प्रदान किए गए अनुमानों को डिगम्मा कार्यों के संदर्भ में अधिकतम संभावना युग्मित समीकरणों के पुनरावृत्त समाधान के लिए प्रारंभिक मानों के रूप में उपयोग किया जा सकता है।

जब किसी ज्ञात अंतराल पर वितरण की आवश्यकता होती है, [0, 1]  यादृच्छिक वेरिएबल  X के साथ  के अतिरिक्त तब [a, c] को यादृच्छिक वेरिएबल  Y के साथ कहें, फिर पहले समीकरण में  ln(Xi) को बदलें |


 * $$\ln \frac{Y_i-a}{c-a},$$

और ln(1−Xi) के साथ दूसरे समीकरण में


 * $$\ln \frac{c-Y_i}{c-a}$$

(नीचे वैकल्पिक पैरामीट्रिजेशन, चार मापदंड अनुभाग देखें)।

यदि आकार के मापदंडों में से ज्ञात है, तब समस्या अधिक सरल हो जाती है। निम्नलिखित लॉग परिवर्तन का उपयोग अज्ञात आकार मापदंड के लिए हल करने के लिए किया जा सकता है (विषम स्थितियों के लिए जैसे कि $$\hat{\alpha}\neq\hat{\beta}$$, अन्यथा, यदि सममित, दोनों-सामान्तर-मापदंड ज्ञात होने पर ज्ञात होते हैं):


 * $$\hat{\operatorname{E}} \left[\ln \left(\frac{X}{1-X} \right) \right]=\psi(\hat{\alpha}) - \psi(\hat{\beta})=\frac{1}{N}\sum_{i=1}^N \ln\frac{X_i}{1-X_i} = \ln \hat{G}_X - \ln \left(\hat{G}_{(1-X)}\right)                                                                                            $$

यह लॉगिट परिवर्तन का लघुगणक है जो वेरिएबल X को उसकी दर्पण-छवि (X/1 - X) से विभाजित करता है जिसके परिणाम स्वरूप उलटा बीटा वितरण या बीटा प्राइम वितरण होता है (जिसे दूसरी तरह के बीटा वितरण या पियर्सन के प्रकार VI  के रूप में भी जाना जाता है) | समर्थन के साथ [0, +∞)  जैसा कि पहले अनुभाग में लघुगणक रूप से परिवर्तित यादृच्छिक वेरिएबल  के क्षण", की खण्ड में चर्चा की गई थी| जॉनसन द्वारा अध्ययन लघुगणक परिवर्तन $$\ln\frac{X}{1-X}$$,  किया गया, के आधार पर परिमित समर्थन [0, 1] का विस्तार करता है। वास्तविक रेखा (−∞, +∞) की दोनों दिशाओं में अनंत समर्थन के लिए मूल वेरिएबल  X होता है |

यदि, उदाहरण के लिए, $$\hat{\beta}$$ ज्ञात है, अज्ञात मापदंड $$\hat{\alpha}$$ प्रतिलोम के रूप में प्राप्त किया जा सकता है इस समीकरण के दाहिने हाथ की ओर का डिगम्मा कार्य:


 * $$\psi(\hat{\alpha})=\frac{1}{N}\sum_{i=1}^N \ln\frac{X_i}{1-X_i} + \psi(\hat{\beta})                                                                                                                                                                                                                                            $$
 * $$\hat{\alpha}=\psi^{-1}(\ln \hat{G}_X - \ln \hat{G}_{(1-X)} + \psi(\hat{\beta})) $$
 * $$\hat{\alpha}=\psi^{-1}(\ln \hat{G}_X - \ln \hat{G}_{(1-X)} + \psi(\hat{\beta})) $$

विशेष रूप से, यदि आकार के मापदंडों में से में एकता का मान है, उदाहरण के लिए $$\hat{\beta} = 1$$ (परिबद्ध समर्थन के साथ पावर फलन वितरण),[0,1] पहचान ψ(x + 1) का उपयोग करके = ψ(x) + 1/x  समीकरण में  $$\psi(\hat{\alpha}) - \psi(\hat{\alpha} + \hat{\beta})= \ln \hat{G}_X$$, अज्ञात मापदंड $$\hat{\alpha}$$ के लिए अधिकतम संभावना अनुमानक  है, बिल्कुल:

बीटा का समर्थन [0, 1] है इसलिए $$\hat{G}_X < 1$$, और इसलिए $$(-\ln \hat{G}_X) >0$$, और इसलिए $$\hat{\alpha} >0.$$
 * $$\hat{\alpha}= - \frac{1}{\frac{1}{N}\sum_{i=1}^N \ln X_i}= - \frac{1}{ \ln \hat{G}_X} $$
 * $$\hat{\alpha}= - \frac{1}{\frac{1}{N}\sum_{i=1}^N \ln X_i}= - \frac{1}{ \ln \hat{G}_X} $$

अंत में, बीटा वितरण के आकार मापदंडों के अधिकतम संभावना अनुमान (सामान्य रूप से) प्रतिरूप ज्यामितीय माध्य का जटिल कार्य है, और प्रतिरूप ज्यामितीय माध्य (1−X), X की दर्पण-छवि पर आधारित है। कोई पूछ सकता है, यदि क्षणों की विधि के साथ दो आकृति मापदंडों का अनुमान लगाने के लिए विचरण (माध्य के अतिरिक्त) आवश्यक है, तब अधिकतम संभावना विधि के साथ दो आकार के मापदंडों का अनुमान लगाने के लिए (लघुगणक या ज्यामितीय) विचरण  क्यों आवश्यक नहीं है? कौन सा केवल ज्यामितीय का कारणपर्याप्त है? उत्तर इसलिए है क्योंकि माध्य उतनी जानकारी प्रदान नहीं करता जितनी कि ज्यामितीय माध्य। समान आकार के मापदंडों α = β के साथ बीटा वितरण के लिए, आकृति मापदंडों के मान की परवाह किए बिना, और इसलिए सांख्यिकीय फैलाव (भिन्नता) के मूल्य की परवाह किए बिना, माध्य ठीक 1/2 है। दूसरी ओर, समान आकार के मापदंड α=β के साथ बीटा वितरण का ज्यामितीय माध्य आकार मापदंड के मान पर निर्भर करता है, और इसलिए इसमें अधिक जानकारी होती है। इसके अतिरिक्त, बीटा वितरण का ज्यामितीय माध्य माध्य द्वारा संतुष्ट सममिति नियम को संतुष्ट नहीं करता है, इसलिए, X पर आधारित ज्यामितीय माध्य और (1 − X) पर आधारित ज्यामितीय माध्य दोनों को नियोजित करके, अधिकतम संभावना विधि प्रदान करने में सक्षम है दोनों मापदंड α=β के लिए सर्वोत्तम अनुमान, भिन्नता को नियोजित किए बिना।

कोई भी पर्याप्त आँकड़ों (प्रतिरूप ज्यामितीय साधनों) के संदर्भ में प्रति n स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल टिप्पणियों के संयुक्त लॉग संभावना को निम्नानुसार व्यक्त कर सकता है:


 * $$\frac{\ln \mathcal{L} (\alpha, \beta\mid X)}{N} = (\alpha - 1)\ln \hat{G}_X + (\beta- 1)\ln \hat{G}_{(1-X)}- \ln \Beta(\alpha,\beta).                                   $$

हम आकार मापदंड α और β के फलन के रूप में संभावना फलन  के व्यवहार को देखने के लिए प्रतिरूप ज्यामितीय साधनों के निश्चित मूल्यों के लिए प्रति n अवलोकनों के संयुक्त लॉग संभावना को प्लॉट कर सकते हैं। ऐसी साजिश में, आकृति मापदंड अनुमानक $$\hat{\alpha},\hat{\beta}$$ संभावना फलन  की अधिकतमता के अनुरूप। संलग्न ग्राफ़ देखें जो दर्शाता है कि सभी संभावित कार्य α = β = 1 पर प्रतिच्छेद करते हैं, जो आकार के मापदंडों के मूल्यों से मेल खाता है जो अधिकतम एन्ट्रापी देता है (एकता के सामान्तर आकृति मापदंडों के लिए अधिकतम एन्ट्रापी होती है: समान वितरण)। प्लॉट से यह स्पष्ट है कि संभावना फलन शून्य के समीप  आकार मापदंड अनुमानकों के मूल्यों के लिए तेज चोटियां देता है, किन्तु आकार मापदंड अनुमानकों के मूल्यों के लिए से अधिक होने पर, कम परिभाषित चोटियों के साथ संभावना फलन अधिक  सपाट हो जाता है। किन्तु है, आकार मापदंड अनुमानकों के बड़े मूल्यों के लिए बीटा वितरण के लिए अधिकतम संभावना मापदंड अनुमान विधि कम स्वीकार्य हो जाती है, क्योंकि शिखर परिभाषा में अनिश्चितता आकार मापदंड अनुमानकों के मूल्य के साथ बढ़ जाती है। ही निष्कर्ष पर यह ध्यान देकर पहुंचा जा सकता है कि संभावना फलन की वक्रता के लिए अभिव्यक्ति ज्यामितीय भिन्नताओं के संदर्भ में है


 * $$\frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \alpha^2}= -\operatorname{var}[\ln X]$$
 * $$\frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{\partial \beta^2} = -\operatorname{var}[\ln (1-X)]$$

आकार मापदंड α और β के छोटे मानों के लिए ये भिन्नताएं (और इसलिए वक्रताएं) बहुत बड़ी हैं। चूँकि, आकार मापदंड मान α, β > 1 के लिए, प्रसरण (और इसलिए वक्रता) समतल हो जाते हैं। समतुल्य रूप से, यह परिणाम क्रैमर-राव बाउंड से आता है, क्योंकि बीटा वितरण के लिए फिशर सूचना आव्युह घटक ये लघुगणक प्रसरण हैं। क्रैमर-राव बाउंड बताता है कि किसी भी निष्पक्ष अनुमानक का प्रसरण $$\hat{\alpha}$$ α का फिशर जानकारी के गुणक व्युत्क्रम से घिरा है:


 * $$\mathrm{var}(\hat{\alpha})\geq\frac{1}{\operatorname{var}[\ln X]}\geq\frac{1}{\psi_1(\hat{\alpha}) - \psi_1(\hat{\alpha} + \hat{\beta})}$$
 * $$\mathrm{var}(\hat{\beta}) \geq\frac{1}{\operatorname{var}[\ln (1-X)]}\geq\frac{1}{\psi_1(\hat{\beta}) - \psi_1(\hat{\alpha} + \hat{\beta})}$$

इसलिए अनुमानकों का प्रसरण बढ़ते हुए α और β के साथ बढ़ता है, क्योंकि लघुगणक प्रसरण घटते हैं।

प्रतिरूप ज्यामितीय साधनों के लघुगणक के लिए डिगामा फलन एक्सप्रेशंस के संदर्भ में एन स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल टिप्पणियों के प्रति संयुक्त लॉग संभावना को भी व्यक्त कर सकते हैं:


 * $$\frac{\ln\, \mathcal{L} (\alpha, \beta\mid X)}{N} = (\alpha - 1)(\psi(\hat{\alpha}) - \psi(\hat{\alpha} + \hat{\beta}))+(\beta- 1)(\psi(\hat{\beta}) - \psi(\hat{\alpha} + \hat{\beta}))- \ln \Beta(\alpha,\beta)$$

यह अभिव्यक्ति क्रॉस-एन्ट्रॉपी के ऋणात्मक के समान है (जानकारी की मात्रा (एन्ट्रॉपी) पर अनुभाग देखें)। इसलिए, आकार मापदंडों के संयुक्त लॉग संभावना की अधिकतम खोज, प्रति N स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल  अवलोकन, बीटा वितरण के लिए न्यूनतम क्रॉस-एन्ट्रॉपी खोजने के समान है, आकार मापदंडों के फलन  के रूप में।


 * $$\frac{\ln\, \mathcal{L} (\alpha, \beta\mid X)}{N} = - H = -h - D_{\mathrm{KL}} = -\ln\Beta(\alpha,\beta)+(\alpha-1)\psi(\hat{\alpha})+(\beta-1)\psi(\hat{\beta})-(\alpha+\beta-2)\psi(\hat{\alpha}+\hat{\beta})$$

क्रॉस-एन्ट्रॉपी के साथ निम्नानुसार परिभाषित किया गया है:


 * $$H = \int_{0}^1 - f(X;\hat{\alpha},\hat{\beta}) \ln (f(X;\alpha,\beta)) \, {\rm d}X $$

चार अज्ञात मापदंड
प्रक्रिया दो अज्ञात मापदंड स्तिथियों में अपनाई गई प्रक्रिया के समान है। यदि y1, ...,yN और स्वतंत्र यादृच्छिक वेरिएबल  हैं जिनमें से प्रत्येक में चार मापदंडों के साथ बीटा वितरण है, N स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल  टिप्पणियों के लिए संयुक्त लॉग संभावना कार्य है:


 * $$\begin{align}

\ln\, \mathcal{L} (\alpha, \beta, a, c\mid Y) &= \sum_{i=1}^N \ln\,\mathcal{L}_i (\alpha, \beta, a, c\mid Y_i)\\ &= \sum_{i=1}^N \ln\,f(Y_i; \alpha, \beta, a, c) \\ &= \sum_{i=1}^N \ln\,\frac{(Y_i-a)^{\alpha-1} (c-Y_i)^{\beta-1} }{(c-a)^{\alpha+\beta-1}\Beta(\alpha, \beta)}\\ &= (\alpha - 1)\sum_{i=1}^N \ln (Y_i - a) + (\beta- 1)\sum_{i=1}^N  \ln (c - Y_i)- N \ln \Beta(\alpha,\beta) - N (\alpha+\beta - 1) \ln (c - a) \end{align}                                                                                                                                                                                                                                                                                                                                                                                                       $$ आकार मापदंड के संबंध में अधिकतम ढूँढना तथा आकार मापदंड के संबंध में आंशिक व्युत्पन्न लेना और अभिव्यक्ति मापदंड के अधिकतम संभावना अनुमानक को शून्य के सामान्तर अभिव्यक्ति समुच्चय करना आदि सम्मिलित है:

इन समीकरणों को चार युग्मित समीकरणों की निम्नलिखित प्रणाली के रूप में फिर से व्यवस्थित किया जा सकता है (पहले दो समीकरण ज्यामितीय साधन हैं और दूसरे दो समीकरण हार्मोनिक साधन हैं चार मापदंडों के लिए अधिकतम संभावना अनुमानों के संदर्भ में $$\hat{\alpha}, \hat{\beta}, \hat{a}, \hat{c}$$:
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial \alpha}= \sum_{i=1}^N \ln (Y_i - a) - N(-\psi(\alpha + \beta) + \psi(\alpha))- N \ln (c - a)= 0$$
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial \beta} = \sum_{i=1}^N \ln (c - Y_i) - N(-\psi(\alpha + \beta)  + \psi(\beta))- N \ln (c - a)= 0$$
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial a} = -(\alpha - 1) \sum_{i=1}^N \frac{1}{Y_i - a} \,+ N (\alpha+\beta - 1)\frac{1}{c - a}= 0$$
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial c} = (\beta- 1) \sum_{i=1}^N \frac{1}{c - Y_i} \,- N (\alpha+\beta - 1) \frac{1}{c - a} = 0$$
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial a} = -(\alpha - 1) \sum_{i=1}^N \frac{1}{Y_i - a} \,+ N (\alpha+\beta - 1)\frac{1}{c - a}= 0$$
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial c} = (\beta- 1) \sum_{i=1}^N \frac{1}{c - Y_i} \,- N (\alpha+\beta - 1) \frac{1}{c - a} = 0$$
 * $$\frac{\partial \ln \mathcal{L} (\alpha, \beta, a, c\mid Y) }{\partial c} = (\beta- 1) \sum_{i=1}^N \frac{1}{c - Y_i} \,- N (\alpha+\beta - 1) \frac{1}{c - a} = 0$$


 * $$\frac{1}{N}\sum_{i=1}^N \ln \frac{Y_i - \hat{a}}{\hat{c}-\hat{a}} = \psi(\hat{\alpha})-\psi(\hat{\alpha} +\hat{\beta} )=  \ln \hat{G}_X$$
 * $$\frac{1}{N}\sum_{i=1}^N \ln \frac{\hat{c} - Y_i}{\hat{c}-\hat{a}} =  \psi(\hat{\beta})-\psi(\hat{\alpha} + \hat{\beta})=  \ln \hat{G}_{1-X}$$
 * $$\frac{1}{\frac{1}{N}\sum_{i=1}^N \frac{\hat{c} - \hat{a}}{Y_i - \hat{a}}} = \frac{\hat{\alpha} - 1}{\hat{\alpha}+\hat{\beta} - 1}=  \hat{H}_X$$
 * $$\frac{1}{\frac{1}{N}\sum_{i=1}^N \frac{\hat{c} - \hat{a}}{\hat{c} - Y_i}} = \frac{\hat{\beta}- 1}{\hat{\alpha}+\hat{\beta} - 1} =  \hat{H}_{1-X}$$

प्रतिरूप ज्यामितीय साधनों के साथ:


 * $$\hat{G}_X = \prod_{i=1}^{N} \left (\frac{Y_i - \hat{a}}{\hat{c}-\hat{a}} \right )^{\frac{1}{N}}$$
 * $$\hat{G}_{(1-X)} = \prod_{i=1}^{N} \left (\frac{\hat{c} - Y_i}{\hat{c}-\hat{a}} \right )^{\frac{1}{N}}$$

मापदंड $$\hat{a}, \hat{c}$$ गैर-रैखिक तरीके से (शक्ति 1/n) में ज्यामितीय माध्य अभिव्यक्तियों के अंदर एम्बेडेड हैं। यह सामान्य रूप से, विवृत  रूप समाधान को रोकता है, यहां तक ​​कि पुनरावृति प्रयोजनों के लिए प्रारंभिक मूल्य सन्निकटन के लिए भी। विकल्प चार मापदंड स्तिथियों के  लिए क्षणों के समाधान की विधि से प्राप्त मूल्यों को पुनरावृत्ति के लिए प्रारंभिक मानों के रूप में उपयोग करना है। इसके अतिरिक्त, हार्मोनिक साधनों के भाव केवल $$\hat{\alpha}, \hat{\beta} > 1$$ के लिए अच्छी तरह से परिभाषित हैं, जो चार-मापदंड स्तिथियों में एकता से कम आकार के मापदंडों के लिए अधिकतम संभावना समाधान को रोकता है। चार मापदंड स्तिथियों के  लिए फिशर की सूचना आव्युह धनात्मक -निश्चित आव्युह है। धनात्मक -निश्चित केवल α, β> 2 के लिए (आगे की चर्चा के लिए, फिशर सूचना आव्युह पर अनुभाग देखें, चार मापदंड स्तिथि ), घंटी के आकार (सममित या असममित) बीटा वितरण, मोड के दोनों ओर स्थित विभक्ति बिंदुओं के साथ। निम्नलिखित फिशर सूचना घटकों (जो लॉग संभावना फलन की वक्रता की अपेक्षाओं का प्रतिनिधित्व करते हैं) में निम्नलिखित मानों पर गणितीय विलक्षणता है:


 * $$\alpha = 2: \quad \operatorname{E} \left [- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial a^2} \right ]= {\mathcal{I}}_{a, a}$$
 * $$\beta = 2: \quad \operatorname{E}\left [- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial c^2} \right ] = {\mathcal{I}}_{c, c}$$
 * $$\alpha = 2: \quad \operatorname{E}\left [- \frac{1}{N}\frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha \partial a}\right ] = {\mathcal{I}}_{\alpha, a} $$
 * $$\beta = 1: \quad \operatorname{E}\left [- \frac{1}{N}\frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \beta \partial c} \right ] = {\mathcal{I}}_{\beta, c} $$

(आगे की चर्चा के लिए फिशर सूचना आव्युह पर अनुभाग देखें)। इस प्रकार, चार-मापदंड बीटा वितरण परिवार से संबंधित कुछ प्रसिद्ध वितरणों जैसे निरंतर समान वितरण (बीटा (1, 1, a, c)), और आर्क्साइन वितरण के लिए अधिकतम संभावना अनुमान को सख्ती से प्रयुक्त करना संभव नहीं है,  (बीटा (1/2, 1/2, a, c))। नॉर्मन लॉयड जॉनसन|(एन.एल.जॉनसन) और सैमुअल कोटज़|(एस.कोट्ज़) हार्मोनिक साधनों के लिए समीकरणों को अनदेखा करें और इसके अतिरिक्त सुझाव दें कि यदि a और c अज्ञात हैं, और a, c, α और β के अधिकतम संभावना अनुमानक आवश्यक हैं, तब उपरोक्त प्रक्रिया (दो अज्ञात मापदंड स्तिथियों के  लिए, X को X साथ  = Y − a)/(c − a)) के रूप में रूपांतरित किया गया है उत्तराधिकार का उपयोग करके दोहराया जा सकता है  a और c के परीक्षण मूल्यों के, जब तक कि जोड़ी (a, c) जिसके लिए अधिकतम संभावना (दिया गया a और c) जितना अधिक हो सके, है प्राप्त (जहाँ, स्पष्टता के प्रयोजन के लिए, मापदंडों के लिए उनके अंकन को वर्तमान अंकन में अनुवादित किया गया है)।

फिशर सूचना आव्युह
मान लें कि यादृच्छिक वेरिएबल X का प्रायिकता घनत्व f(x;α) है। लॉग संभावना फलन के (अज्ञात, और अनुमानित) मापदंड α के संबंध में आंशिक व्युत्पन्न को स्कोर (सांख्यिकी) कहा जाता है। स्कोर के दूसरे क्षण को फिशर सूचना कहा जाता है:


 * $$\mathcal{I}(\alpha)=\operatorname{E} \left [\left (\frac{\partial}{\partial\alpha} \ln \mathcal{L}(\alpha\mid X) \right )^2 \right],$$

स्कोर (सांख्यिकी) का अपेक्षित मूल्य शून्य है, इसलिए फिशर की जानकारी भी स्कोर के माध्य पर केंद्रित दूसरा क्षण है: स्कोर का विचरण ।

यदि लॉग संभावना फलन मापदंड α के संबंध में दो बार भिन्न होता है, और कुछ नियमितता नियम के अनुसार, तब फ़िशर जानकारी को निम्नानुसार भी लिखा जा सकता है (जो अधिकांशतः  गणना उद्देश्यों के लिए अधिक सुविधाजनक रूप होता है):


 * $$\mathcal{I}(\alpha) = - \operatorname{E} \left [\frac{\partial^2}{\partial\alpha^2} \ln (\mathcal{L}(\alpha\mid X)) \right].$$

इस प्रकार, फिशर की जानकारी लॉग संभावना फलन के मापदंड α के संबंध में दूसरे व्युत्पन्न की अपेक्षा का ऋणात्मक है। इसलिए, फिशर की जानकारी α के लॉग संभावना फलन  की वक्रता का उपाय है। कम वक्रता (और इसलिए वक्रता (गणित) की उच्च त्रिज्या), चापलूसी लॉग संभावना फलन वक्र में कम फ़िशर जानकारी होती है; जबकि बड़ी वक्रता (और इसलिए वक्रता की कम त्रिज्या (गणित)) के साथ लॉग संभावना फलन वक्र में उच्च फ़िशर जानकारी होती है। जब फिशर सूचना आव्युह की गणना मापदंडों के मूल्यांकन पर की जाती है (देखा गया फिशर सूचना आव्युह) यह टेलर की श्रृंखला सन्निकटन द्वारा सही लॉग संभावना सतह के प्रतिस्थापन के सामान्तर है, जहाँ तक द्विघात शब्दों को लिया गया है। शब्द सूचना, फिशर जानकारी के संदर्भ में, मापदंडों के बारे में जानकारी को संदर्भित करता है। जानकारी जैसे: अनुमान, पर्याप्तता और अनुमानकों के प्रसरण के गुण। क्रैमर-राव बाउंड बताता है कि फिशर सूचना का व्युत्क्रम मापदंड α के किसी भी अनुमानक के विचरण  पर निचली सीमा है:


 * $$\operatorname{var}[\hat\alpha] \geq \frac{1}{\mathcal{I}(\alpha)}.$$

स्पष्टता जिसके लिए कोई मापदंड α के अनुमानक का अनुमान लगा सकता है, लॉग संभावना फलन के फ़िशर सूचना द्वारा सीमित है। फिशर जानकारी वितरण के मापदंड का अनुमान लगाने में सम्मिलित न्यूनतम त्रुटि का उपाय है और इसे मापदंड के दो वैकल्पिक परिकल्पनाओं के मध्य भेदभाव करने के लिए आवश्यक प्रयोग की संकल्प शक्ति के माप के रूप में देखा जा सकता है।

जब एन मापदंड होते हैं


 * $$ \begin{bmatrix} \theta_1 \\ \theta_{2} \\ \dots \\ \theta_{N} \end{bmatrix},$$

तब फिशर जानकारी विशिष्ट तत्व के साथ N× N धनात्मक अर्ध-निश्चित आव्युह सममित आव्युह, फिशर सूचना आव्युह का रूप लेती है:


 * $${(\mathcal{I}(\theta))}_{i, j}=\operatorname{E} \left [\left (\frac{\partial}{\partial\theta_i} \ln \mathcal{L} \right) \left(\frac{\partial}{\partial\theta_j} \ln \mathcal{L} \right) \right ].$$

कुछ नियमितता नियम के अनुसार, फिशर इंरूपेशन आव्युह को निम्नलिखित रूप में भी लिखा जा सकता है, जो अधिकांशतः  गणना के लिए अधिक सुविधाजनक होता है:


 * $${(\mathcal{I}(\theta))}_{i, j} = - \operatorname{E} \left [\frac{\partial^2}{\partial\theta_i \, \partial\theta_j} \ln (\mathcal{L}) \right ]\,.$$

X1 ..., XN iid यादृच्छिक वेरिएबल के साथ, पक्षों N-आयामी बॉक्स का निर्माण X1, ..., XN के साथ किया जा सकता है कोस्टा और आवरण दिखाएँ कि (शैनन) डिफरेंशियल एन्ट्रापी h(X) विशिष्ट समुच्चय की मात्रा से संबंधित है (प्रतिरूप एन्ट्रापी को सही एन्ट्रापी के समीप  होने पर), जबकि फिशर की जानकारी इस विशिष्ट समुच्चय की सतह से संबंधित है।

दो मापदंड
X1 ..., XN स्वतंत्र यादृच्छिक वेरिएबल के लिए प्रत्येक में जो आकार मापदंडों α और β के साथ पैरामीट्रिज्ड होता है  N स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल  अवलोकनों के लिए संयुक्त लॉग संभावना फलन है:


 * $$\ln (\mathcal{L} (\alpha, \beta\mid X) )= (\alpha - 1)\sum_{i=1}^N \ln X_i + (\beta- 1)\sum_{i=1}^N \ln (1-X_i)- N \ln \Beta(\alpha,\beta) $$

इसलिए संयुक्त लॉग संभावना कार्य प्रति n स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल अवलोकन है:


 * $$\frac{1}{N} \ln(\mathcal{L} (\alpha, \beta\mid X)) = (\alpha - 1)\frac{1}{N}\sum_{i=1}^N \ln X_i + (\beta- 1)\frac{1}{N}\sum_{i=1}^N  \ln (1-X_i)-\, \ln \Beta(\alpha,\beta)$$

दो मापदंड स्तिथियों के लिए, फिशर जानकारी में 4 घटक होते हैं: 2 विकर्ण और 2 ऑफ-विकर्ण। चूंकि फिशर सूचना आव्युह सममित है, इनमें से विकर्ण घटक स्वतंत्र है। इसलिए, फिशर सूचना आव्युह में 3 स्वतंत्र घटक (2 विकर्ण और 1 विकर्ण) हैं। आर्यल और नादराजा चार-मापदंड स्तिथियों के लिए फिशर की सूचना आव्युह की गणना की गई, जिससे दो मापदंड स्तिथियाँनिम्नानुसार प्राप्त किए जा सकते हैं:


 * $$- \frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{N\partial \alpha^2}= \operatorname{var}[\ln (X)]= \psi_1(\alpha) - \psi_1(\alpha + \beta) ={\mathcal{I}}_{\alpha, \alpha}= \operatorname{E}\left [- \frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{N\partial \alpha^2} \right ] = \ln \operatorname{var}_{GX}                                                                                                                                                                  $$
 * $$- \frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{N\,\partial \beta^2} = \operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta) ={\mathcal{I}}_{\beta, \beta}= \operatorname{E}\left [- \frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{N\partial \beta^2} \right]= \ln \operatorname{var}_{G(1-X)}                                                                                                                                                             $$
 * $$- \frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{N \, \partial \alpha \, \partial \beta} = \operatorname{cov}[\ln X,\ln(1-X)] = -\psi_1(\alpha+\beta) ={\mathcal{I}}_{\alpha, \beta}=  \operatorname{E}\left [- \frac{\partial^2\ln \mathcal{L}(\alpha,\beta\mid X)}{N\,\partial \alpha\,\partial \beta} \right] = \ln \operatorname{cov}_{G{X,(1-X)}}                                                                                                                       $$

चूंकि फिशर सूचना आव्युह सममित है


 * $$ \mathcal{I}_{\alpha, \beta}= \mathcal{I}_{\beta, \alpha}= \ln \operatorname{cov}_{G{X,(1-X)}}$$

फिशर सूचना घटक लॉग ज्यामितीय प्रसरण और लॉग ज्यामितीय सहप्रसरण के सामान्तर हैं। इसलिए, उन्हें त्रिगामा कार्यों के रूप में व्यक्त किया जा सकता है, जिसे ψ1(α) निरूपित किया जाता है, बहुग्राम कार्यों का दूसरा, डिगामा फलन के व्युत्पन्न के रूप में परिभाषित किया गया है:


 * : : : : : : : : : : : : : : : : : : : : : : : :$$\psi_1(\alpha) = \frac{d^2\ln\Gamma(\alpha)}{\partial\alpha^2}=\, \frac{\partial \psi(\alpha)}{\partial\alpha}. $$

ये डेरिवेटिव भी में व्युत्पन्न हैं और लॉग संभावना फलन के प्लॉट भी उस अनुभाग में दिखाए जाते हैं।   में फिशर सूचना आव्युह घटकों के प्लॉट और आगे की चर्चा  सम्मिलित  है: लॉग ज्यामितीय प्रसरण और लॉग ज्यामितीय सहप्रसरण आकार मापदंड α और β के फलन  के रूप में।   लघुगणक रूप से परिवर्तित यादृच्छिक वेरिएबल  के क्षणों के लिए सूत्र सम्मिलित  हैं। फिशर सूचना घटकों के लिए छवियां $$\mathcal{I}_{\alpha, \alpha}, \mathcal{I}_{\beta, \beta}$$ और $$\mathcal{I}_{\alpha, \beta}$$ में दर्शाए गए हैं.

फ़िशर के सूचना आव्युह का निर्धारक रुचि का है (उदाहरण के लिए जेफ़रीज़ पूर्व संभाव्यता की गणना के लिए)। फिशर सूचना आव्युह के अलग-अलग घटकों के भावों से, यह इस प्रकार है कि बीटा वितरण के लिए फिशर (सममित) सूचना आव्युह का निर्धारक है:


 * $$\begin{align}

\det(\mathcal{I}(\alpha, \beta))&= \mathcal{I}_{\alpha, \alpha} \mathcal{I}_{\beta, \beta}-\mathcal{I}_{\alpha, \beta} \mathcal{I}_{\alpha, \beta} \\[4pt] &=(\psi_1(\alpha) - \psi_1(\alpha + \beta))(\psi_1(\beta) - \psi_1(\alpha + \beta))-( -\psi_1(\alpha+\beta))( -\psi_1(\alpha+\beta))\\[4pt] &= \psi_1(\alpha)\psi_1(\beta)-( \psi_1(\alpha)+\psi_1(\beta))\psi_1(\alpha + \beta)\\[4pt] \lim_{\alpha\to 0} \det(\mathcal{I}(\alpha, \beta)) &=\lim_{\beta \to 0} \det(\mathcal{I}(\alpha, \beta)) = \infty\\[4pt] \lim_{\alpha\to \infty} \det(\mathcal{I}(\alpha, \beta)) &=\lim_{\beta \to \infty} \det(\mathcal{I}(\alpha, \beta)) = 0 \end{align}                                                                                                                                                                                                                                                                                                                                                                                                          $$ सिल्वेस्टर की कसौटी से (यह जांचना कि क्या विकर्ण तत्व सभी धनात्मक हैं), यह इस प्रकार है कि दो मापदंड केस के लिए फिशर सूचना आव्युह धनात्मक -निश्चित आव्युह है। धनात्मक -निश्चित (मानक स्थिति के अनुसार α > 0 और β > 0आकार मापदंड धनात्मक  हैं ).

चार मापदंड
यदि y1, ..., yNस्वतंत्र यादृच्छिक वेरिएबल हैं जिनमें से प्रत्येक में चार मापदंडों के साथ बीटा वितरण होता है: एक्सपोनेंट्स α और β, और a (वितरण सीमा का न्यूनतम), और c (वितरण सीमा का अधिकतम) (वैकल्पिक पैरामीट्रिजेशन शीर्षक वाला खंड, चार मापदंड) प्रायिकता घनत्व फलन  के साथ:

संयुक्त लॉग संभावना फलन प्रति n स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल  अवलोकन है:
 * $$f(y; \alpha, \beta, a, c) = \frac{f(x;\alpha,\beta)}{c-a} =\frac{ \left (\frac{y-a}{c-a} \right )^{\alpha-1} \left (\frac{c-y}{c-a} \right)^{\beta-1} }{(c-a)B(\alpha, \beta)}=\frac{ (y-a)^{\alpha-1} (c-y)^{\beta-1} }{(c-a)^{\alpha+\beta-1}B(\alpha, \beta)}.                                                   $$


 * $$\frac{1}{N} \ln(\mathcal{L} (\alpha, \beta, a, c\mid Y))= \frac{\alpha -1}{N}\sum_{i=1}^N \ln (Y_i - a) + \frac{\beta -1}{N}\sum_{i=1}^N  \ln (c - Y_i)- \ln \Beta(\alpha,\beta) - (\alpha+\beta -1) \ln (c-a) $$

चार मापदंड केस के लिए, फिशर जानकारी में 4*4=16 घटक होते हैं। इसमें 12 ऑफ-डायगोनल घटक = (4 × 4 कुल - 4 विकर्ण) हैं। चूंकि फिशर सूचना आव्युह सममित है, इनमें से आधे घटक (12/2 = 6) स्वतंत्र हैं। इसलिए, फिशर सूचना आव्युह में 6 स्वतंत्र ऑफ-विकर्ण + 4 विकर्ण = 10 स्वतंत्र घटक हैं। आर्यल और नादराजा निम्नानुसार चार मापदंड स्तिथियों के लिए फिशर की सूचना आव्युह की गणना:


 * $$- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha^2}= \operatorname{var}[\ln (X)]= \psi_1(\alpha) - \psi_1(\alpha + \beta) = \mathcal{I}_{\alpha, \alpha}= \operatorname{E}\left [- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha^2} \right ] = \ln (\operatorname{var_{GX}}) $$
 * $$-\frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \beta^2} = \operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta) ={\mathcal{I}}_{\beta, \beta}= \operatorname{E} \left [- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \beta^2} \right ] = \ln(\operatorname{var_{G(1-X)}}) $$
 * $$-\frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha\,\partial \beta} = \operatorname{cov}[\ln X,(1-X)] = -\psi_1(\alpha+\beta) =\mathcal{I}_{\alpha, \beta}=  \operatorname{E} \left [- \frac{1}{N}\frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha \, \partial \beta} \right ] = \ln(\operatorname{cov}_{G{X,(1-X)}})$$

उपरोक्त भावों में, भावों में Y के स्थान पर X का प्रयोग var[ln(X)] = ln(varGX) कोई त्रुटि नहीं है। लॉग ज्यामितीय प्रसरण और लॉग ज्यामितीय सहप्रसरण के संदर्भ में अभिव्यक्तियाँ दो मापदंड X ~ बीटा (α, β) पैरामीट्रिजेशन के कार्यों के रूप में होती हैं क्योंकि चार मापदंड स्तिथियों में घातांक (α, β) के संबंध में आंशिक डेरिवेटिव लेते समय, दो मापदंड स्तिथियों के लिए समान अभिव्यक्ति प्राप्त करता है: चार मापदंड फिशर सूचना आव्युह की ये नियम ें वितरण की सीमा के न्यूनतम ए और अधिकतम सी से स्वतंत्र हैं। घातांक α और β के संबंध में लॉग संभावना फलन के दोहरे विभेदन पर एकमात्र गैर-शून्य शब्द बीटा फलन के लॉग का दूसरा व्युत्पन्न है: ln(B(α, β))। यह शब्द वितरण की सीमा के न्यूनतम a और अधिकतम c से स्वतंत्र है। इस पद के दोहरे विभेदन के परिणामस्वरूप त्रिगामा फलन उत्पन्न होते हैं। अधिकतम संभावना, दो अज्ञात मापदंड और चार अज्ञात मापदंड शीर्षक वाले खंड भी इस तथ्य को दर्शाते हैं।

एन आई.डी. के लिए फिशर जानकारी प्रतिरूप व्यक्तिगत फिशर जानकारी का N गुना है (eq. 11.279, आवरण और थॉमस का पृष्ठ 394 ). (आर्यल और नादराजा फिशर जानकारी के निम्नलिखित घटकों की गणना करने के लिए एकल अवलोकन, एन = 1 लें, जो प्रति एन अवलोकन लॉग संभावना के डेरिवेटिव पर विचार करने के समान परिणाम की ओर जाता है। इसके अतिरिक्त, के लिए गलत अभिव्यक्ति के नीचे $${\mathcal{I}}_{a, a}$$ आर्यल और नादराजाह में सुधार किया गया है।)


 * $$\begin{align}

\alpha > 2: \quad \operatorname{E}\left [- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial a^2} \right ] &= {\mathcal{I}}_{a, a}=\frac{\beta(\alpha+\beta-1)}{(\alpha-2)(c-a)^2} \\ \beta > 2: \quad \operatorname{E}\left[-\frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial c^2} \right ] &= \mathcal{I}_{c, c} = \frac{\alpha(\alpha+\beta-1)}{(\beta-2)(c-a)^2} \\ \operatorname{E}\left[- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial a \, \partial c} \right ] &= {\mathcal{I}}_{a, c} = \frac{(\alpha+\beta-1)}{(c-a)^2} \\ \alpha > 1: \quad \operatorname{E}\left[- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha \, \partial a} \right ] &=\mathcal{I}_{\alpha, a} = \frac{\beta}{(\alpha-1)(c-a)} \\ \operatorname{E}\left[- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \alpha \, \partial c} \right ] &= {\mathcal{I}}_{\alpha, c} = \frac{1}{(c-a)} \\ \operatorname{E}\left[- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \beta \,\partial a} \right ] &= {\mathcal{I}}_{\beta, a} = -\frac{1}{(c-a)} \\ \beta > 1: \quad \operatorname{E}\left[- \frac{1}{N} \frac{\partial^2\ln \mathcal{L} (\alpha, \beta, a, c\mid Y)}{\partial \beta \, \partial c} \right ] &= \mathcal{I}_{\beta, c} = -\frac{\alpha}{(\beta-1)(c-a)} \end{align}                                                                                                                                                                                            $$ फिशर सूचना आव्युह की निचली दो विकर्ण प्रविष्टियाँ, मापदंड a (वितरण की सीमा का न्यूनतम) के संबंध में: $$\mathcal{I}_{a, a}$$, और मापदंड c के संबंध में (वितरण की अधिकतम सीमा): $$\mathcal{I}_{c, c}$$ क्रमशः घातांक α > 2 और β > 2 के लिए परिभाषित हैं। फिशर सूचना आव्युह घटक $$\mathcal{I}_{a, a}$$ ऊपर से 2 तक पहुंचने वाले घातांक α के लिए न्यूनतम ए दृष्टिकोण अनंत और फिशर सूचना आव्युह घटक के लिए $$\mathcal{I}_{c, c}$$ ऊपर से 2 की ओर आने वाले घातांक β के लिए अधिकतम c अनंत की ओर अग्रसर होता है।

चार मापदंड स्तिथियों के लिए फिशर सूचना आव्युह न्यूनतम a और अधिकतम c के व्यक्तिगत मूल्यों पर निर्भर नहीं करता है, किन्तु केवल कुल सीमा (c-a) पर निर्भर करता है। इसके अतिरिक्त, फिशर सूचना आव्युह के घटक जो रेंज (c-a) पर निर्भर करते हैं, केवल इसके व्युत्क्रम (या व्युत्क्रम के वर्ग) के माध्यम से निर्भर करते हैं, जैसे कि फिशर की जानकारी बढ़ती रेंज (c-a) के लिए घट जाती है।

संलग्न छवियां फिशर सूचना घटकों को दिखाती हैं $$\mathcal{I}_{a, a}$$ और $$\mathcal{I}_{\alpha, a}$$. फिशर सूचना घटकों के लिए छवियां $$\mathcal{I}_{\alpha, \alpha}$$ और $$\mathcal{I}_{\beta, \beta}$$ में दर्शाए गए हैं. ये सभी फिशर सूचना घटक बेसिन की तरह दिखते हैं, जिसमें बेसिन की दीवारें मापदंडों के कम मूल्यों पर स्थित होती हैं।

निम्नलिखित चार-मापदंड-बीटा-वितरण फिशर जानकारी घटकों को दो-मापदंड के संदर्भ में व्यक्त किया जा सकता है: X ~ बीटा (α, β) रूपांतरित अनुपात ((1-X)/X) और इसकी दर्पण छवि की अपेक्षाएं (एक्स/(1-एक्स)), श्रेणी (c−a) द्वारा स्केल किया गया, जो व्याख्या के लिए सहायक हो सकता है:

ये इन्वर्टेड बीटा डिस्ट्रीब्यूशन या बीटा प्राइम डिस्ट्रीब्यूशन के अपेक्षित मूल्य भी हैं (जिसे दूसरी तरह के बीटा डिस्ट्रीब्यूशन या पियर्सन डिस्ट्रीब्यूशन के रूप में भी जाना जाता है। पियर्सन टाइप VI) और इसकी दर्पण छवि, श्रेणी (c − a) द्वारा स्केल की गई।
 * $$\mathcal{I}_{\alpha, a} =\frac{\operatorname{E} \left[\frac{1-X}{X} \right ]}{c-a}= \frac{\beta}{(\alpha-1)(c-a)} \text{ if }\alpha > 1$$
 * $$\mathcal{I}_{\beta, c} = -\frac{\operatorname{E} \left [\frac{X}{1-X} \right ]}{c-a}=- \frac{\alpha}{(\beta-1)(c-a)}\text{ if }\beta> 1$$

साथ ही, निम्न फ़िशर सूचना घटकों को हार्मोनिक (1/X) प्रसरणों या अनुपात रूपांतरित चरो ((1-X)/X) के आधार पर प्रसरणों के रूप में निम्नानुसार व्यक्त किया जा सकता है:


 * $$\begin{align}

\alpha > 2: \quad \mathcal{I}_{a,a} &=\operatorname{var} \left [\frac{1}{X} \right] \left (\frac{\alpha-1}{c-a} \right )^2 =\operatorname{var} \left [\frac{1-X}{X} \right ] \left (\frac{\alpha-1}{c-a} \right)^2 = \frac{\beta(\alpha+\beta-1)}{(\alpha-2)(c-a)^2} \\ \beta > 2: \quad \mathcal{I}_{c, c} &= \operatorname{var} \left [\frac{1}{1-X} \right ] \left (\frac{\beta-1}{c-a} \right )^2 = \operatorname{var} \left [\frac{X}{1-X} \right ] \left (\frac{\beta-1}{c-a} \right )^2 =\frac{\alpha(\alpha+\beta-1)}{(\beta-2)(c-a)^2}  \\ \mathcal{I}_{a, c} &=\operatorname{cov} \left [\frac{1}{X},\frac{1}{1-X} \right ]\frac{(\alpha-1)(\beta-1)}{(c-a)^2} = \operatorname{cov} \left [\frac{1-X}{X},\frac{X}{1-X} \right ] \frac{(\alpha-1)(\beta-1)}{(c-a)^2} =\frac{(\alpha+\beta-1)}{(c-a)^2} \end{align}$$ इन अपेक्षाओं के लिए रैखिक रूप से रूपांतरित, उत्पाद और उल्टे यादृच्छिक वेरिएबल के क्षण देखें।

फ़िशर के सूचना आव्युह का निर्धारक रुचि का है (उदाहरण के लिए जेफ़रीज़ पूर्व संभाव्यता की गणना के लिए)। अलग-अलग घटकों के भावों से, यह अनुसरण करता है कि चार मापदंडों के साथ बीटा वितरण के लिए फिशर (सममित) सूचना आव्युह का निर्धारक है:


 * $$\begin{align}

\det(\mathcal{I}(\alpha,\beta,a,c)) = {} & -\mathcal{I}_{a,c}^2 \mathcal{I}_{\alpha,a} \mathcal{I}_{\alpha,\beta }+\mathcal{I}_{a,a} \mathcal{I}_{a,c} \mathcal{I}_{\alpha,c} \mathcal{I}_{\alpha ,\beta}+\mathcal{I}_{a,c}^2 \mathcal{I}_{\alpha ,\beta}^2 -\mathcal{I}_{a,a} \mathcal{I}_{c,c} \mathcal{I}_{\alpha,\beta}^2\\ & {} -\mathcal{I}_{a,c} \mathcal{I}_{\alpha,a} \mathcal{I}_{\alpha ,c} \mathcal{I}_{\beta,a}+\mathcal{I}_{a,c}^2 \mathcal{I}_{\alpha ,\alpha} \mathcal{I}_{\beta,a}+2 \mathcal{I}_{c,c} \mathcal{I}_{\alpha,a} \mathcal{I}_{\alpha,\beta} \mathcal{I}_{\beta,a}\\ & {}-2\mathcal{I}_{a,c} \mathcal{I}_{\alpha ,c} \mathcal{I}_{\alpha,\beta} \mathcal{I}_{\beta ,a}+\mathcal{I}_{\alpha ,c}^2 \mathcal{I}_{\beta ,a}^2-\mathcal{I}_{c,c} \mathcal{I}_{\alpha,\alpha} \mathcal{I}_{\beta ,a}^2+\mathcal{I}_{a,c} \mathcal{I}_{\alpha ,a}^2 \mathcal{I}_{\beta ,c}\\ & {}-\mathcal{I}_{a,a} \mathcal{I}_{a,c} \mathcal{I}_{\alpha ,\alpha } \mathcal{I}_{\beta ,c}-\mathcal{I}_{a,c} \mathcal{I}_{\alpha ,a} \mathcal{I}_{\alpha ,\beta } \mathcal{I}_{\beta ,c}+\mathcal{I}_{a,a} \mathcal{I}_{\alpha ,c} \mathcal{I}_{\alpha ,\beta } \mathcal{I}_{\beta ,c}\\ & {}-\mathcal{I}_{\alpha ,a} \mathcal{I}_{\alpha ,c} \mathcal{I}_{\beta ,a} \mathcal{I}_{\beta ,c}+\mathcal{I}_{a,c} \mathcal{I}_{\alpha ,\alpha } \mathcal{I}_{\beta ,a} \mathcal{I}_{\beta ,c}-\mathcal{I}_{c,c} \mathcal{I}_{\alpha ,a}^2 \mathcal{I}_{\beta ,\beta }\\ & {}+2 \mathcal{I}_{a,c} \mathcal{I}_{\alpha ,a} \mathcal{I}_{\alpha, c} \mathcal{I}_{\beta ,\beta }-\mathcal{I}_{a,a} \mathcal{I}_{\alpha ,c}^2 \mathcal{I}_{\beta ,\beta }-\mathcal{I}_{a,c}^2 \mathcal{I}_{\alpha ,\alpha } \mathcal{I}_{\beta ,\beta }+\mathcal{I}_{a,a} \mathcal{I}_{c,c} \mathcal{I}_{\alpha ,\alpha } \mathcal{I}_{\beta ,\beta }\text{ if }\alpha, \beta> 2 \end{align}                                                                                                                                                                                    $$ सिल्वेस्टर की कसौटी का उपयोग करना (जांच करना कि क्या विकर्ण तत्व सभी धनात्मक हैं), और विकर्ण घटकों के पश्चात् से $${\mathcal{I}}_{a, a}$$ और $${\mathcal{I}}_{c, c}$$ α=2 और β=2 पर गणितीय विलक्षणता है यह इस प्रकार है कि चार मापदंड स्तिथियों के  लिए फिशर सूचना आव्युह धनात्मक -निश्चित आव्युह है। α>2 और β>2 के लिए धनात्मक -निश्चित है। चूंकि α > 2 और β > 2 के लिए बीटा वितरण (सममित या असममित) घंटी के आकार का है, यह अनुसरण करता है कि फिशर सूचना आव्युह केवल घंटी के आकार (सममित या असममित) बीटा वितरण के लिए धनात्मक -निश्चित है, जिसमें विभक्ति बिंदु स्थित हैं मोड के दोनों ओर। इस प्रकार, चार-मापदंड बीटा वितरण परिवार से संबंधित महत्वपूर्ण प्रसिद्ध वितरण, जैसे परवलयिक वितरण (बीटा (2,2, a, c)) और निरंतर समान वितरण (बीटा (1,1, a, c)) फिशर सूचना घटक ($$\mathcal{I}_{a, a},\mathcal{I}_{c, c},\mathcal{I}_{\alpha, a},\mathcal{I}_{\beta, c}$$) जो चार-मापदंड स्तिथियों में उड़ते हैं (अनंत तक पहुंचते हैं) (चूंकि उनके फिशर सूचना घटक सभी दो मापदंड स्तिथियों के  लिए परिभाषित हैं)। चार-मापदंड विग्नर अर्धवृत्त वितरण (बीटा(3/2,3/2,a,c)) और आर्क्साइन वितरण (बीटा(1/2,1/2,a,c)) में चार के लिए ऋणात्मक  फिशर सूचना निर्धारक हैं -मापदंड स्तिथि ।

बायेसियन अनुमान
बायेसियन अनुमान में बीटा वितरण का उपयोग इस तथ्य के कारण है कि वे द्विपद वितरण (बर्नौली वितरण सहित) और ज्यामितीय वितरण के लिए संयुग्मित पूर्व वितरण का परिवार प्रदान करते हैं। बीटा वितरण के क्षेत्र को प्रायिकता के रूप में देखा जा सकता है, और वास्तव में बीटा वितरण का उपयोग प्रायिकता मान p के वितरण का वर्णन करने के लिए किया जाता है:


 * $$P(p;\alpha,\beta) = \frac{p^{\alpha-1}(1-p)^{\beta-1}}{\Beta(\alpha,\beta)}.$$

बेयसियन अनुमान में पूर्व मापदंड मानों की अज्ञानता का प्रतिनिधित्व करने के लिए पूर्व संभावनाओं के रूप में उपयोग किए जाने वाले बीटा वितरण के उदाहरण बीटा (1,1), बीटा (0,0) और बीटा (1/2,1/2) हैं।

उत्तराधिकार का नियम
बीटा वितरण का क्लासिक अनुप्रयोग उत्तराधिकार का नियम है, जिसे 18वीं शताब्दी में पियरे-साइमन लाप्लास द्वारा प्रस्तुत किया गया था। सूर्योदय की समस्या के उपचार के दौरान। इसमें कहा गया है कि, n सनियम स्वतंत्रता बर्नौली परीक्षणों में संभाव्यता p के साथ सफलताओं को देखते हुए, कि अगले परीक्षण में अपेक्षित मूल्य का अनुमान है $$\frac{s+1}{n+2}$$. यह अनुमान p, अर्थात् बीटा(s+1, n−s+1) पर पश्च वितरण का अपेक्षित मूल्य है, जो बेज़ के नियम द्वारा दिया जाता है यदि कोई p पर समान पूर्व संभावना मानता है (अर्थात, बीटा(1, 1)) और फिर देखता है कि p ने n परीक्षणों में सफलताएँ उत्पन्न की हैं। लाप्लास के उत्तराधिकार के नियम की प्रमुख वैज्ञानिकों ने आलोचना की है। R T कॉक्स ने लाप्लास के सूर्योदय समस्या के उत्तराधिकार के नियम के अनुप्रयोग का वर्णन किया जाता है ( पी। 89) इस सिद्धांत के उचित उपयोग के उपहास के रूप में। कीन्स टिप्पणी ( Ch.XXX, पी. 382) वास्तव में यह इतना मूर्खतापूर्ण प्रमेय है कि इसका मनोरंजन करना निंदनीय है। कार्ल पियर्सन n परीक्षणों में n सफलताओं के पश्चात् अगले (n + 1) परीक्षणों के सफल होने की संभावना केवल 50% है, जिसे जेफरीज़ जैसे वैज्ञानिकों द्वारा बहुत कम और प्रयोग की वैज्ञानिक प्रक्रिया के प्रतिनिधित्व के रूप में अस्वीकार्य माना गया है। प्रस्तावित वैज्ञानिक नियम का परीक्षण करने के लिए। जैसा कि जेफरीस ने बताया है ( पी। 128) (सी. डी. ब्रॉड का श्रेय ) लाप्लास के उत्तराधिकार का नियम अगले परीक्षण में सफलता की उच्च संभावना ((n+1)/(n+2)) स्थापित करता है, किन्तु केवल मध्यम संभावना (50%) कि और प्रतिरूप (n+1) आकार में तुलनीय है समान रूप से सफल होंगे। जैसा कि पर्क्स द्वारा बताया गया है, उत्तराधिकार के नियम को ही स्वीकार करना कठिन है। यह अगले परीक्षण के लिए संभावना प्रदान करता है जिसका अर्थ है कि देखा गया वास्तविक रन औसत रन है और हम सदैव औसत रन के अंत में होते हैं। यह सोचना होगा, यह मान लेना अधिक उचित होगा कि हम औसत रन के मध्य में थे। स्पष्ट रूप से दोनों संभावनाओं के लिए उच्च मूल्य आवश्यक है यदि वे उचित विश्वास के अनुरूप हों। लाप्लास के उत्तराधिकार के नियम के साथ इन समस्याओं ने हाल्डेन, पर्क्स, जेफरीज़ और अन्य को पूर्व संभाव्यता के अन्य रूपों की खोज करने के लिए प्रेरित किया (अगला देखें) ). जेनेस के अनुसार, उत्तराधिकार के नियम के साथ मुख्य समस्या यह है कि यह मान्य नहीं है जब s=0 या s=n (इसकी वैधता के विश्लेषण के लिए उत्तराधिकार का नियम देखें)।

बेयस-लाप्लास पूर्व संभावना (बीटा(1,1))
बीटा वितरण बीटा (1,1) के लिए अधिकतम अंतर एंट्रॉपी प्राप्त करता है: समान घनत्व संभाव्यता घनत्व, जिसके लिए वितरण के डोमेन में सभी मूल्यों में समान घनत्व होता है। थॉमस बेयस द्वारा इस समान वितरण बीटा (1,1) का सुझाव दिया गया था (बहुत संदेह के साथ)। पूर्व संभाव्यता वितरण के रूप में सही पूर्व वितरण के बारे में अज्ञानता व्यक्त करने के लिए। यह पूर्व वितरण अपनाया गया था (किन्तुा तौर पर, उनके लेखन से, संदेह के छोटे संकेत के साथ पियरे-साइमन लाप्लास द्वारा, और इसलिए इसे 20 वीं शताब्दी के पहले छमाही के प्रकाशनों में बेयस-लाप्लास नियम या व्युत्क्रम संभाव्यता के लाप्लास नियम के रूप में भी जाना जाता था। 19वीं सदी के उत्तरार्ध और 20वीं सदी के प्रारंभिक भाग में, वैज्ञानिकों ने अनुभूत किया कि एकसमान समान संभाव्यता घनत्व की धारणा वास्तविक कार्यों पर निर्भर करती है (उदाहरण के लिए क्या रैखिक या लघुगणकीय मापदंड सबसे उपयुक्त था) और प्रयुक्त पैरामीट्रिजेशन। विशेष रूप से, परिमित समर्थन के साथ वितरण के सिरों के पास व्यवहार (उदाहरण के लिए x = 0 के पास, x = 0 पर प्रारंभिक समर्थन वाले वितरण के लिए) विशेष ध्यान देने की आवश्यकता है। कीन्स ( Ch.XXX, पी. 381) ने बेयस की समान पूर्व संभाव्यता (बीटा (1,1)) के उपयोग की आलोचना की, जो कि शून्य और के मध्य के सभी मूल्यों को परिवर्तनीय है, इस प्रकार है: इस प्रकार अनुभव, यदि यह कुछ भी दिखाता है, तब यह दर्शाता है कि सांख्यिकीय अनुपातबं का बहुत ही स्पष्ट क्लस्टरिंग है शून्य और एकता के निकटतम में, धनात्मक सिद्धांतबं के लिए और शून्य के निकटतम में धनात्मक  गुणों के मध्य संबंध के लिए, और ऋणात्मक  सिद्धांतबं के लिए और एकता के निकटतम में ऋणात्मक  गुणों के मध्य संबंध के लिए।

===={{Anchor|Haldane prior}हल्डेन की पूर्व प्रायिकता (बीटा(0,0))= बीटा (0,0) वितरण J.B.S द्वारा प्रस्तावित किया गया था। हाल्डेन, जिन्होंने सुझाव दिया कि पूर्ण अनिश्चितता का प्रतिनिधित्व करने वाली पूर्व संभाव्यता p−1(1−p)-1 के समानुपाती होनी चाहिए और फलन  p−1(1−p)−1 को बीटा वितरण के अंश की सीमा के रूप में देखा जा सकता है क्योंकि दोनों आकार मापदंड शून्य तक पहुंचते हैं: α, β → 0. बीटा फलन (बीटा वितरण के हर में) दोनों मापदंड के लिए अनंत तक पहुंचता है अर्थात् यह शून्य की ओर अग्रसर, α, β → 0. इसलिए, p−1(1−p)−1 को बीटा फलन द्वारा विभाजित करने पर 0 और 1 पर प्राप्त होता है तथा प्रत्येक सिरे पर 1/2 की समान प्रायिकता के साथ 2-बिंदु बर्नौली वितरण प्राप्त होता है, और मध्य में कुछ भी नहीं होता है, जैसा कि α, β → 0. सिक्का-टॉस: सिक्के का फलक 0 पर है और दूसरा फलक 1 पर है। हाल्डेन पूर्व संभाव्यता वितरण बीटा (0,0) अनुचित पूर्व है क्योंकि इसका एकीकरण (0 से 1 तक) प्रत्येक छोर पर विशिष्टता के कारण 1 में सख्ती से अभिसरण करने में विफल रहता है चूँकि, जब तक प्रतिरूप आकार बहुत छोटा न हो, तब तक पश्च संभावनाओं की गणना के लिए यह कोई समस्या नहीं है। इसके अतिरिक्त, ज़ेलनर बताते हैं कि लॉग-बाधाओं की स्केल पर, (लॉगिट ट्रांसफ़ॉर्मेशन ln(p/1−p)), हल्डेन पूर्व समान रूप से सपाट पूर्व है। तथ्य यह है कि लॉगिट रूपांतरित परिवर्तनीय ln(p/1−p) (डोमेन के साथ (-∞, ∞)) पर समान पूर्व संभावना, डोमेन [0, 1] से पहले हाल्डेन के सामान्तर है जिसे हेरोल्ड जेफरीस द्वारा इंगित किया गया था। उनकी पुस्तक थ्योरी ऑफ प्रॉबेबिलिटी के पहले संस्करण (1939) में ( पी। 123). जेफरीस लिखते हैं निश्चित रूप से यदि हम बेयस-लाप्लास नियम को वेरिएबल M सीमा तक ले जाते हैं तब हम ऐसे परिणामों की ओर अग्रसर होते हैं जो किसी के सोचने के तरीके के अनुरूप नहीं होते हैं। (हल्दाने) नियम dx/(x(1−x)) दूसरे तरीके से बहुत दूर जाता है। इससे यह निष्कर्ष निकलता है कि यदि किसी संपत्ति के संबंध में प्रतिरूप इस प्रकार का होता है तब संभावना 1 होती है जैसे कि पूरी संख्या उस प्रकार की ही है। तथ्य यह है कि वर्दी पैरामीट्रिजेशन पर निर्भर करती है, जेफ़रीज़ को पूर्व के रूप की तलाश करने के लिए प्रेरित करती है जो विभिन्न पैरामीट्रिज़ेशन के अनुसार अपरिवर्तनीय होगा।

जेफरी की पूर्व संभावना (बीटा (1/2,1/2) बर्नौली के लिए या द्विपद वितरण के लिए)




हेरोल्ड जेफरीस गैर-सूचनात्मक पूर्व संभाव्यता माप का उपयोग करने का प्रस्ताव है जो पैरामीट्रिजेशन इनवेरिएंस होना चाहिए: फिशर की सूचना आव्युह के निर्धारक के वर्गमूल के समानुपाती। बर्नौली वितरण के लिए, इसे इस प्रकार दिखाया जा सकता है: एक सिक्के के लिए जो प्रायिकता p ∈ [0, 1] के साथ "हेड्स" है और दिए गए (H,T) ∈ { के लिए प्रायिकता 1 - p के साथ "टेल्स" है। (0,1), (1,0)} संभावना pH(1 − p)T है। चूँकि T = 1 - H, बर्नौली वितरण pH(1 - p)1 - H है। p को एकमात्र पैरामीटर मानते हुए, यह इस प्रकार है कि बर्नौली वितरण के लिए लॉग संभावना है


 * $$\ln \mathcal{L} (p\mid H) = H \ln(p)+ (1-H) \ln(1-p).$$

फिशर सूचना आव्युह में केवल घटक है (यह अदिश राशि है, क्योंकि केवल मापदंड है: p), इसलिए:


 * $$\begin{align}

\sqrt{\mathcal{I}(p)} &= \sqrt{\operatorname{E}\!\left[ \left( \frac{d}{dp} \ln(\mathcal{L} (p\mid H)) \right)^2\right]} \\[6pt] &= \sqrt{\operatorname{E}\!\left[ \left( \frac{H}{p} - \frac{1-H}{1-p}\right)^2 \right]} \\[6pt] &= \sqrt{p^1 (1-p)^0 \left( \frac{1}{p} - \frac{0}{1-p}\right)^2 + p^0 (1-p)^1 \left(\frac{0}{p} - \frac{1}{1-p}\right)^2} \\ &= \frac{1}{\sqrt{p(1-p)}}. \end{align}                                                                                                                                                                                               $$ इसी तरह, n बर्नोली परीक्षणों के साथ द्विपद वितरण के लिए, यह दिखाया जा सकता है


 * $$\sqrt{\mathcal{I}(p)}= \frac{\sqrt{n}}{\sqrt{p(1-p)}}.$$

इस प्रकार, बर्नोली बंटन, और द्विपद बंटन के लिए, जेफ्रेय्स पूर्व के लिए आनुपातिक है $$\scriptstyle \frac{1}{\sqrt{p(1-p)}}$$, जो डोमेन वेरिएबल x = p, और आकार मापदंड α = β = 1/2, आर्क्साइन वितरण के साथ बीटा वितरण के समानुपाती होता है:


 * $$Beta(\tfrac{1}{2}, \tfrac{1}{2}) = \frac{1}{\pi \sqrt{p(1-p)}}.$$

यह अगले खंड में दिखाया जाएगा कि जेफ़रीज़ प्रायर के लिए सामान्यीकरण स्थिरांक अंतिम परिणाम के लिए सारहीन है क्योंकि बेयस प्रमेय में पश्च संभाव्यता के लिए सामान्यीकरण निरंतर रद्द हो जाता है। इसलिए बीटा (1/2,1/2) का उपयोग बर्नौली और द्विपद वितरण दोनों के लिए पहले जेफरीज़ के रूप में किया जाता है। जैसा कि अगले भाग में दिखाया गया है, जब इस अभिव्यक्ति का उपयोग बेयस प्रमेय में संभावना के पूर्व संभाव्यता गुणा के रूप में किया जाता है, तब पश्च संभाव्यता बीटा वितरण बन जाती है। चूंकि, यह अनुभूत करना महत्वपूर्ण है कि जेफ़रीज़ पूर्व के समानुपाती है $$\scriptstyle \frac{1}{\sqrt{p(1-p)}}$$ बर्नोली और द्विपद वितरण के लिए होता है, किन्तु बीटा वितरण के लिए नहीं। बीटा वितरण के लिए जेफरीस पहले बीटा वितरण के लिए फिशर की जानकारी के निर्धारक द्वारा दिया गया है, जैसा कि दिखाया गया है त्रिगामा फलन ψ1 का फलन है आकार के मापदंड α और β निम्नानुसार हैं:


 * $$ \begin{align}

\sqrt{\det(\mathcal{I}(\alpha, \beta))} &= \sqrt{\psi_1(\alpha)\psi_1(\beta)-(\psi_1(\alpha)+\psi_1(\beta))\psi_1(\alpha + \beta)} \\ \lim_{\alpha\to 0} \sqrt{\det(\mathcal{I}(\alpha, \beta))} &=\lim_{\beta \to 0} \sqrt{\det(\mathcal{I}(\alpha, \beta))} = \infty\\ \lim_{\alpha\to \infty} \sqrt{\det(\mathcal{I}(\alpha, \beta))} &=\lim_{\beta \to \infty} \sqrt{\det(\mathcal{I}(\alpha, \beta))} = 0 \end{align}                                                                                                                                                                                                    $$ जैसा कि पहले चर्चा की गई थी, बर्नौली और द्विपद वितरण के लिए जेफरीस आर्क्सिन वितरण बीटा (1/2,1/2) के समानुपाती है, आयामी वक्र जो बर्नौली के मापदंड p के फलन के रूप में बेसिन की तरह दिखता है और द्विपद वितरण है। बेसिन की दीवारें p के सिरों p → 0 और p → 1 पर सिंग्युलेरिटी के समीप  पहुंचने से बनती हैं, जहां बीटा (1/2,1/2) अनंत तक पहुंचता है। तथा बीटा वितरण से पहले जेफ़रीज़ 2-आयामी सतह (त्रि-आयामी अंतरिक्ष में एम्बेडेड) है जो बेसिन की तरह दिखती है जिसकी केवल दो दीवारें कोने α = β = 0 पर मिलती हैं (और अन्य दो दीवारों को गायब कर देती हैं) बीटा वितरण के आकार मापदंड α और β का कार्य है । इस 2-आयामी सतह की दो निकटवर्ती दीवारें α, β → 0 पर एकवचन (ट्राइगामा फलन के) के पास आकृति मापदंडों α और β द्वारा बनाई गई हैं। इसमें α, β → ∞ के लिए कोई दीवार नहीं है क्योंकि इस स्तिथियों में बीटा वितरण के लिए फिशर के सूचना आव्युह का निर्धारक शून्य तक पहुंचता है।

यह अगले खंड में दिखाया जाएगा कि जेफरी की पूर्व संभाव्यता का परिणाम पश्च संभाव्यता में होता है (जब द्विपद संभावना फलन द्वारा गुणा किया जाता है) जो हाल्डेन और बेयस पूर्व संभावनाओं के पश्च संभाव्यता परिणामों के मध्य मध्यवर्ती हैं।

जेफरीज़ पहले विश्लेषणात्मक रूप से प्राप्त करना जटिल हो सकता है, और कुछ स्थितियों के लिए यह उपस्थित नहीं है (असममित त्रिकोणीय वितरण जैसे सरल वितरण कार्यों के लिए भी)। बर्जर, बर्नार्डो और सन, 2009 के पेपर में संदर्भ पूर्व संभाव्यता वितरण परिभाषित किया गया है जो (जेफ्रीस पूर्व के विपरीत) असममित त्रिकोणीय वितरण के लिए उपस्थित है। वे अपने संदर्भ के लिए पूर्व में विवृत  -रूप अभिव्यक्ति प्राप्त नहीं कर सकते हैं, किन्तु संख्यात्मक गणना यह दर्शाती है कि यह पूर्व (उचित) द्वारा लगभग पूरी तरह से फिट है।


 * $$ \operatorname{Beta}(\tfrac{1}{2}, \tfrac{1}{2}) \sim\frac{1}{\sqrt{\theta(1-\theta)}}$$

जहां θ समर्थन के साथ असममित त्रिकोणीय वितरण के लिए वेरिएबल है [0, 1] (त्रिकोणीय वितरण पर विकिपीडिया के आलेख में निम्नलिखित मापदंड मानों के अनुरूप: वर्टेक्स सी = θ, बाएं अंत = 0, और दायां अंत बी = 1 ). बर्जर एट अल। अनुमानी तर्क भी देते हैं कि बीटा (1/2,1/2) वास्तव में असममित त्रिकोणीय वितरण के लिए स्पष्ट बर्जर-बर्नार्डो-सन संदर्भ हो सकता है। इसलिए, बीटा (1/2,1/2) न केवल बर्नौली और द्विपद वितरण के लिए जेफ्रीस पूर्व है, किंतु असममित त्रिकोणीय वितरण के लिए बर्जर-बर्नार्डो-सूर्य संदर्भ भी प्रतीत होता है (जिसके लिए जेफ्रीस पूर्व नहीं करता है) उपस्थित है कि परियोजना प्रबंधन और परियोजना कार्यों की निवेश और अवधि का वर्णन करने के लिए पीईआरटी विश्लेषण में उपयोग किया जाने वाला वितरण।

क्लार्क और बैरोन सिद्ध करें कि, निरंतर धनात्मक पुजारियों के मध्य, जेफ़रीज़ पूर्व (जब यह उपस्थितहै) आकार n और मापदंड के प्रतिरूप के मध्य शैनन की पारस्परिक जानकारी को स्पर्शोन्मुख रूप से अधिकतम करता है, और इसलिए जेफ़्रीज़ पूर्व सबसे असंक्रामक पूर्व है (शैनन जानकारी के रूप में जानकारी को मापना)। प्रमाण iid यादृच्छिक वेरिएबल  के लिए संभाव्यता घनत्व कार्यों के मध्य कुल्बैक-लीब्लर विचलन की परीक्षा पर टिकी हुई है।

पश्च बीटा वितरण पर विभिन्न पूर्व संभाव्यता विकल्पों का प्रभाव
यदि यादृच्छिक वेरिएबल X की संख्या  से प्रतिरूप लिए जाते हैं, जिसके परिणाम स्वरूप "n" बर्नौली में सफलताएँ और f विफलताएँ होती हैं तो परीक्षण n = s + f, फिर पैरामीटर s और f के लिए संभावना फलन x = p दिया गया है (नीचे दिए गए भावों में x = p संकेतन इस बात पर जोर देगा कि डोमेन x द्विपद वितरण में पैरामीटर p के मान को दर्शाता है), निम्नलिखित द्विपद वितरण है:

यदि पूर्व संभाव्यता जानकारी के बारे में मान्यताओं को α प्रायर और β प्रायर मापदंडों के साथ बीटा वितरण द्वारा यथोचित रूप से अच्छी तरह से अनुमानित किया गया है, तो:
 * $$\mathcal{L}(s,f\mid x=p) = {s+f \choose s} x^s(1-x)^f = {n \choose s} x^s(1-x)^{n - s}. $$

एक निरंतर घटना स्थान के लिए बेयस के प्रमेय के अनुसार, पश्च संभाव्यता पूर्व संभाव्यता और संभावना फलन के उत्पाद द्वारा दी जाती है (दिए गए साक्ष्य s और f = n n − s), सामान्यीकृत है जिससे वक्र के नीचे का क्षेत्र सामान्तर हो होता है, निम्नलिखित नुसार:
 * $${\operatorname{PriorProbability}}(x=p;\alpha \operatorname{Prior},\beta \operatorname{Prior}) = \frac{ x^{\alpha \operatorname{Prior}-1}(1-x)^{\beta \operatorname{Prior}-1}}{\Beta(\alpha \operatorname{Prior},\beta \operatorname{Prior})}$$


 * $$\begin{align}

& \operatorname{posterior probability}(x=p\mid s,n-s) \\[6pt] = {} & \frac{\operatorname{PriorProbability}(x=p;\alpha \operatorname{Prior},\beta \operatorname{Prior}) \mathcal{L}(s,f\mid x=p)} {\int_0^1\operatorname{PriorProbability}(x=p;\alpha \operatorname{Prior},\beta \operatorname{Prior}) \mathcal{L}(s,f\mid x=p) dx} \\[6pt] = {} & \frac{\int_0^1 \left({n \choose s} x^{s+\alpha \operatorname{Prior}-1}(1-x)^{n-s+\beta \operatorname{Prior}-1} /\Beta(\alpha \operatorname{Prior}, \beta \operatorname{Prior})\right) dx} \\[6pt] = {} & \frac{x^{s+\alpha \operatorname{Prior}-1}(1-x)^{n-s+\beta \operatorname{Prior}-1}}{\int_0^1 \left(x^{s+\alpha \operatorname{Prior}-1}(1-x)^{n-s+\beta \operatorname{Prior}-1}\right) dx} \\[6pt] = {} & \frac{x^{s+\alpha \operatorname{Prior}-1}(1-x)^{n-s+\beta \operatorname{Prior}-1}}{\Beta(s+\alpha \operatorname{Prior},n-s+\beta \operatorname{Prior})}. \end{align}                                                                                                                                                                                   $$ द्विपद गुणांक


 * $${s+f \choose s}={n \choose s}=\frac{(s+f)!}{s! f!}=\frac{n!}{s!(n-s)!}$$

पश्च संभाव्यता के अंश और भाजक दोनों में प्रकट होता है, और यह एकीकरण वेरिएबल x पर निर्भर नहीं करता है, इसलिए यह रद्द हो जाता है, और यह अंतिम परिणाम के लिए अप्रासंगिक है। इसी तरह पूर्व संभाव्यता के लिए सामान्य कारक, बीटा फलन बी (α प्रायर, β प्रायर) रद्द हो जाता है और यह अंतिम परिणाम के लिए सारहीन है। यदि कोई पूर्व-सामान्यीकृत पूर्व का उपयोग करता है तब समान पश्च संभाव्यता परिणाम प्राप्त किया जा सकता है

क्योंकि सामान्य करने वाले कारक सभी रद्द हो जाते हैं। अनेक लेखक (स्वयं जेफरीज़ सहित) इस प्रकार गैर-सामान्यीकृत पूर्व सूत्र का उपयोग करते हैं क्योंकि सामान्यीकरण निरंतर रद्द हो जाता है। पश्च संभाव्यता का अंश पूर्व संभाव्यता और संभावना कार्य के केवल (असामान्यीकृत) उत्पाद होने के कारण समाप्त होता है, और भाजक शून्य से तक इसका अभिन्न अंग है। भाजक में बीटा फलन B(s + α प्रायर, n − s + β प्रायर), यह सुनिश्चित करने के लिए सामान्यीकरण स्थिरांक के रूप में प्रकट होता है कि कुल पश्च संभाव्यता एकता में एकीकृत हो जाती है।
 * $$x^{\alpha \operatorname{Prior}-1}(1-x)^{\beta \operatorname{Prior}-1}$$

परीक्षणों की कुल संख्या के लिए सफलताओं की संख्या का अनुपात द्विपद स्तिथियों में पर्याप्त आंकड़ा है, जो निम्नलिखित परिणामों के लिए प्रासंगिक है।

'बेयस पूर्व संभाव्यता (बीटा (1,1)) के लिए, पश्च संभाव्यता है:


 * $$\operatorname{posterior probability}(p=x\mid s,f) = \frac{x^{s}(1-x)^{n-s}}{\Beta(s+1,n-s+1)}, \text{ with mean }=\frac{s+1}{n+2},\text{ (and mode }=\frac{s}{n}\text{ if } 0 < s < n).$$

जेफरीज़ की पूर्व संभावना (बीटा (1/2,1/2)) के लिए, पश्च संभावना है:


 * $$\operatorname{posterior probability}(p=x\mid s,f) = {x^{s-\tfrac{1}{2}}(1-x)^{n-s-\frac{1}{2}} \over \Beta(s+\tfrac{1}{2},n-s+\tfrac{1}{2})} ,\text{ with mean } = \frac{s+\tfrac{1}{2}}{n+1},\text{ (and mode= }\frac{s-\tfrac{1}{2}}{n-1}\text{ if } \tfrac{1}{2} < s < n-\tfrac{1}{2}).$$

और हाल्डेन पूर्व संभावना (बीटा (0,0)) के लिए, पश्च संभावना है:

उपरोक्त भावों से यह पता चलता है कि s/n = 1/2 के लिए) उपरोक्त सभी तीन पूर्व संभावनाओं का परिणाम पश्च संभाव्यता माध्य = मोड = 1/2 के लिए समान स्थान पर होता है। s/n < 1/2 के लिए, निम्नलिखित प्राथमिकताओं का उपयोग करते हुए,उपयोग किया जाता है इसके पश्चात् की संभावनाओं का कारण इस प्रकार है: बेयस पूर्व के लिए कारण जेफरीस पूर्व के लिए कारण हाल्डेन पूर्व के लिए कारण। s/n > 1/2 के लिए इन असमानताओं के क्रम को उलट दिया जाता है जैसे कि हाल्डेन पूर्व संभाव्यता का परिणाम सबसे बड़ा पश्च माध्य होता है। हाल्डेन पूर्व संभाव्यता बीटा (0,0) माध्य (अगले परीक्षण में सफलता की संभावना के लिए अपेक्षित मान) के साथ पश्च संभाव्यता घनत्व का परिणाम है, जो परीक्षणों की कुल संख्या के लिए सफलताओं की संख्या के अनुपात s/n के समान है। . इसलिए, हाल्डेन पूर्व परिणाम अगले परीक्षण में अपेक्षित मूल्य के साथ अधिकतम संभावना के सामान्तर पश्च संभाव्यता में परिणाम देता है। बेयस पूर्व संभाव्यता बीटा (1,1) अनुपात s/n (अधिकतम संभावना) के समान मोड के साथ पश्च संभाव्यता घनत्व में परिणाम देता है।
 * $$\operatorname{posterior probability}(p=x\mid s,f) = \frac{x^{s-1}(1-x)^{n-s-1}}{\Beta(s,n-s)}, \text{ with mean} = \frac{s}{n},\text{ (and mode= }\frac{s-1}{n-2}\text{ if } 1 < s < n -1).$$

इस स्तिथियों में यह है कि 100% परीक्षण सफल रहे हैं s= n, बेयस पूर्व संभावना बीटा (1,1) के परिणामस्वरूप उत्तराधिकार के नियम (n + 1)/(n + 2) के सामान्तर पश्च प्रत्याशित मान होता है, जबकि हाल्डेन पूर्व बीटा (0,0) का परिणाम 1 के पश्चात् के अपेक्षित मूल्य (अगले परीक्षण में सफलता की पूर्ण निश्चितता) में होता है। जेफ़रीज़ पूर्व संभाव्यता के परिणामस्वरूप (n + 1/2)/(n + 1) के सामान्तर पश्च प्रत्याशित मान होता है। सुविधाएं (पृष्ठ 303) बताते हैं: यह उत्तराधिकार का नया नियम प्रदान करता है और लेने के लिए 'उचित' स्थिति को व्यक्त करता है, अर्थात्, एन सफलताओं के अटूट रन के पश्चात् हम अगले परीक्षण के लिए संभावना मानते हैं कि हम इस धारणा के सामान्तर हैं औसत रन के लगभग आधे रास्ते पर हैं, अर्थात हम (2n + 2) परीक्षणों में बार विफलता की उम्मीद करते हैं। बेयस-लाप्लास नियम का तात्पर्य है कि हम औसत रन के अंत के समीप हैं या हम (n + 2) परीक्षणों में बार विफलता की उम्मीद करते हैं। तुलना स्पष्ट रूप से 'तर्कसंगतता' के दृष्टिकोण से नए परिणाम (जिसे अब जेफ़रीज़ प्रायर कहा जाता है) का समर्थन करती है।

इसके विपरीत, इस स्तिथियों में है कि 100% परीक्षणों के परिणाम स्वरूप विफलता (s = 0) हुई है, बेज़ पूर्व संभाव्यता बीटा (1,1) के परिणाम 1/(n + के सामान्तर अगले परीक्षण में सफलता के लिए अपेक्षित मान हैं। 2), जबकि हाल्डेन पूर्व बीटा (0,0) का परिणाम 0 के अगले परीक्षण में सफलता के पश्चात् के अपेक्षित मूल्य में होता है (अगले परीक्षण में विफलता की पूर्ण निश्चितता)। जेफ़्रीज़ की पूर्व संभाव्यता का परिणाम अगले परीक्षण में सफलता के लिए अपेक्षित पश्चगामी मान होता है, जो (1/2)/(n + 1) के सामान्तर होता है, जिसका फ़ायदा होता है (पृष्ठ 303) बताते हैं: बेयस-लाप्लास परिणाम 1/(एन + 2) की तुलना में कहीं अधिक उचित रूप से दूरस्थ परिणाम है।

जेनेस प्रश्न (वर्दी पूर्व बीटा (1,1) के लिए) स्थितियों के लिए इन सूत्रों का उपयोग s = 0 या s = n होगा क्योंकि इंटीग्रल अभिसरण नहीं करते हैं (बीटा (1,1) s = 0 या के लिए अनुचित पूर्व है s = n) होगा । व्यवहार में, पूर्व बेज़ के लिए दोनों सिरों के मध्य मोड के उपस्थित होने के लिए आवश्यक 0<s<n नियममों में सामान्यतः पूरी होती हैं, और इसलिए बेज़ पूर्व (0 < s < n तक) का परिणाम दोनों के मध्य स्थित पश्च मोड में होता है डोमेन के अंत तक होता है ।

जैसा कि उत्तराधिकार के नियम पर अनुभाग में टिप्पणी की गई है, के. पियर्सन ने दिखाया कि n परीक्षणों में n सफलताओं के पश्चात् पश्च संभाव्यता (पूर्व संभाव्यता के रूप में बेयस बीटा (1,1) वितरण के आधार पर) कि अगला (n + 1) परीक्षण सभी सफल होंगे,जो कि ठीक 1/2 है, चाहे n का मान कुछ भी हो। जिसके पूर्व संभाव्यता के रूप में हाल्डेन बीटा (0,0) वितरण के आधार पर होता है, यह पश्च संभाव्यता 1 है (पूर्ण निश्चितता है कि n परीक्षणों में n सफलताओं के पश्चात् अगला (n + 1) परीक्षण सभी सफल होंगे)। सुविधाएं (पृ. 303) दर्शाता है कि, जिसे अब जेफ़रीज़ प्रायर के नाम से जाना जाता है, उसके लिए यह प्रायिकता ((n + 1/2)/(n + 1))((n + 3/2)/(n + 2) है )...(2n + 1/2)/(2n + 1), जो n = 1, 2, 3 के लिए 15/24, 315/480, 9009/13440 देता है; तेजी से सीमित मूल्य के समीप पहुंच रहा है $$1/\sqrt{2} = 0.70710678\ldots$$ n के रूप में अनंत की ओर जाता है। पर्क्स टिप्पणी करते हैं कि जिसे अब जेफ़रीज़ प्रायर के रूप में जाना जाता है: स्पष्ट रूप से या तब बेज़-लाप्लास परिणाम या जेफ़रीज़ द्वारा अस्वीकार किए गए (हाल्डेन) वैकल्पिक नियम के परिणाम की तुलना में अधिक 'उचित' है जो संभाव्यता के रूप में निश्चितता देता है। यह स्पष्ट रूप से प्रेरण की प्रक्रिया के साथ बहुत उत्तम पत्राचार प्रदान करता है। क्या यह उद्देश्य के लिए 'बिल्कुल' उचित है, अर्थात क्या यह अभी तक अधिक  बड़ा है, एकता तक पहुंचने की बेतुकापन के बिना, यह तय करने का स्तिथि  है। किन्तु यह अनुभूत किया जाना चाहिए कि परिणाम प्रतिरूप करण प्रयोग से पहले पूर्ण उदासीनता और ज्ञान की अनुपस्थिति की धारणा पर निर्भर करता है।

इन तीन पूर्व संभाव्यता वितरणों के साथ प्राप्त पश्च वितरण के प्रसरण निम्नलिखित हैं:

बेयस की पूर्व संभावना (बीटा (1,1)) के लिए, पश्च विचरण है:

जेफरीज़ की पूर्व संभावना (बीटा (1/2,1/2)) के लिए, पश्च विचरण है:
 * $$\text{variance} = \frac{(n-s+1)(s+1)}{(3+n)(2+n)^2},\text{ which for } s=\frac{n}{2} \text{ results in variance} =\frac{1}{12+4n}$$

और हाल्डेन पूर्व संभावना (बीटा (0,0)) के लिए, पश्च विचरण है:
 * $$\text{variance} = \frac{(n-s+\frac{1}{2})(s+\frac{1}{2})}{(2+n)(1+n)^2} ,\text{ which for } s=\frac n 2 \text{ results in var} = \frac 1 {8 + 4n}$$

तब, जैसा कि सिल्वे ने टिप्पणी की, बड़े n के लिए, विचरण छोटा है और इसलिए पश्च वितरण अत्यधिक केंद्रित है, जबकि माना गया पूर्व वितरण बहुत फैला हुआ था। यह इस बात के अनुरूप है कि कोई क्या उम्मीद करेगा, क्योंकि अस्पष्ट पूर्व ज्ञान (बेयस प्रमेय के माध्यम से) सूचनात्मक प्रयोग द्वारा अधिक स्पष्ट पश्च ज्ञान में परिवर्तित हो जाता है। छोटे n के लिए हल्डेन बीटा (0,0) सबसे बड़े पश्च विचरण  में पूर्व परिणाम जबकि बेयस बीटा (1,1) पूर्व परिणाम अधिक केंद्रित पश्च में। जेफ़्रीज़ पूर्व बीटा (1/2,1/2) के परिणाम स्वरूप अन्य दो के मध्य पश्च विचरण  होता है। जैसे-जैसे n बढ़ता है, वैरियंस तेजी से घटता जाता है जिससे कि तीनों पूर्ववर्तियों के लिए पश्च विचरण  लगभग समान  मान में ही परिवर्तित हो जाता है (शून्य प्रसरण के रूप में n → ∞)। पिछले परिणाम को याद करते हुए कि हाल्डेन पूर्व संभाव्यता बीटा (0,0) का परिणाम माध्य के साथ पश्च संभाव्यता घनत्व (अगले परीक्षण में सफलता की संभावना के लिए अपेक्षित मूल्य) के समान सफलताओं की संख्या के अनुपात s/n के समान है। परीक्षणों की कुल संख्या, यह उपरोक्त अभिव्यक्ति से अनुसरण करता है कि हाल्डेन पूर्व बीटा (0,0) परिणाम भी अधिकतम के संदर्भ में व्यक्त भिन्नता के समान भिन्नता के साथ पश्च में होता है। संभावना अनुमान s/n और प्रतिरूप आकार (में ):
 * $$\text{variance} = \frac{(n-s)s}{(1+n)n^2}, \text{ which for }s=\frac{n}{2}\text{ results in variance} =\frac{1}{4+4n}$$


 * $$\text{variance} = \frac{\mu(1-\mu)}{1 + \nu}= \frac{(n-s)s}{(1+n) n^2} $$

कारण μ=s/n और प्रतिरूप आकार ν=n के साथ।

बायेसियन अनुमान में, द्विपद वितरण से पहले पूर्व वितरण बीटा (α प्रायर, β प्रायर) का उपयोग करना सफलता की वास्तविक संख्या में (α प्रायर − 1) छद्म-अवलोकन और (β प्रायर − 1) विफलता की छद्म-अवलोकन जोड़ने के सामान्तर है और विफलताओं का अवलोकन किया जाता है ,उसके बाद फिर वास्तविक और छद्म-अवलोकन दोनों पर सफलताओं के अनुपात द्वारा द्विपद वितरण के मापदंड p का अनुमान लगाया जाता है । समान पूर्व बीटा(1,1) किसी छद्म अवलोकन को नहीं जोड़ता (या घटाता) है क्योंकि बीटा(1,1) के लिए यह (α प्रायर − 1) = 0 और (β प्रायर − 1) =0 का अनुसरण करता है। बीटा (0,0) प्रत्येक से छद्म अवलोकन घटाता है और जेफरीस पूर्व बीटा (1/2,1/2) सफलता के 1/2 छद्म-अवलोकन और विफलता की समान संख्या घटाता है। इस घटाव का पश्च वितरण को सुचारू करने का प्रभाव है। यदि सफलताओं का अनुपात αप्रायर और βप्रायर के 50% (s/n ≠ 1/2) मान 1 से कम नहीं है (और इसलिए ऋणात्मक  (α प्रायर − 1) और (β प्रायर − 1)) स्पार्सिटी का पक्ष लेते हैं, अर्थात वितरण जहां मापदंड p या तब 0 या 1 के समीप  है। वास्तव में, 0 और 1 के मध्य αप्रायर और βप्रायर के मान, साथ संचालन करते समय, एकाग्रता मापदंड के रूप में कार्य करते हैं।

संलग्न प्लॉट प्रतिरूप आकार n ∈ {3,10,50}, सफलताओं s ∈ {n/2,n/4} और बीटा(α प्रायर,β प्रायर) ∈ {बीटा(0,0), बीटा (1/2,1/2), बीटा (1,1)}। n={4,12,40}, Success s={n/4} और बीटा(α प्रायर,β प्रायर) ∈ { बीटा(0,0),बीटा(1/2,1/2) के स्तिथियाँ भी दिखाए गए हैं, बीटा (1,1)}। पहला प्लॉट सक्सेस s ∈ {n/2} के लिए मीन = मोड = 1/2 के साथ सिमेट्रिक केस दिखाता है और दूसरा प्लॉट विषम केस s ∈ {n/4} दिखाता है। छवियों से पता चलता है कि 50 के प्रतिरूप के आकार के साथ पश्च के लिए पूर्वों के मध्य थोड़ा अंतर है (पी = 1/2 के पास अधिक स्पष्ट शिखर द्वारा विशेषता)। बहुत छोटे प्रतिरूप आकार के लिए महत्वपूर्ण अंतर दिखाई देते हैं (विशेष रूप से प्रतिरूप आकार के पतित स्तिथियों के लिए चापलूसी वितरण के लिए = 3)। इसलिए, विषम स्तिथियाँ , सफलताओं के साथ = {n/4}, सममित स्थितियों की तुलना में, छोटे प्रतिरूप के आकार में, पूर्व की पसंद से बड़ा प्रभाव दिखाते हैं। सममित वितरण के लिए, बेयस पूर्व बीटा (1,1) का परिणाम सबसे वेरिएबल म और उच्चतम पश्च वितरण में होता है और हाल्डेन पूर्व बीटा (0,0) का परिणाम सबसे सपाट और निम्नतम शिखर वितरण होता है। जेफरीज़ पूर्व बीटा (1/2,1/2) उनके मध्य में है। लगभग सममित, बहुत अधिक विषम वितरण के लिए, पुरोहितबं का प्रभाव समान होता है। बहुत छोटे प्रतिरूप के आकार के लिए (इस स्तिथियों में 3 के प्रतिरूप के आकार के लिए) और विषम वितरण (इस उदाहरण में s ∈ {n/4} के लिए) हाल्डेन पूर्व में विलक्षणता के साथ रिवर्स-j-आकार का वितरण हो सकता है बायाँ छोर। चूंकि, यह केवल पतित स्थितियों में होता है (इस उदाहरण में n = 3 और इसलिए s = 3/4 < 1, पतित मान क्योंकि हल्दाने के पश्च भाग के लिए s को एकता से अधिक होना चाहिए जिससे मध्य में मोड स्थित हो अंत, और क्योंकि s = 3/4 पूर्णांक संख्या नहीं है, इसलिए यह संभावना के लिए द्विपद वितरण की प्रारंभिक धारणा का उल्लंघन करता है) और यह उचित प्रतिरूप आकार के सामान्य स्थितियों में कोई समस्या नहीं है (जैसे कि स्थिति 1 < s < n − 1, मोड के दोनों सिरों के मध्य उपस्थितहोने के लिए आवश्यक है, पूरा हो गया है)।

उनकी किताब जेनेस के अध्याय 12 (पृष्ठ 385) में प्रमाणित करता है कि हाल्डेन पूर्व बीटा (0,0) पूर्ण अज्ञानता के ज्ञान की पूर्व स्थिति का वर्णन करता है, जहां हम यह भी सुनिश्चित नहीं हैं कि किसी प्रयोग के लिए शारीरिक रूप से संभव है या तब सफलता या असफलता, जबकि बेयस (वर्दी) पूर्व बीटा (1,1) प्रयुक्त होता है यदि कोई जानता है कि दोनों बाइनरी परिणाम संभव हैं। जिन्हें जेनेस कहते हैं: बेयस-लाप्लास (बीटा (1,1)) की व्याख्या करने से पहले पूर्ण अज्ञानता की स्थिति का वर्णन नहीं करना चाहिए, किंतु ज्ञान की स्थिति जिसमें हमने सफलता और विफलता देखी है अनेक बार हमने कम से कम देखा है कि सफलता और असफलता तब हम जानते हैं कि प्रयोग भौतिक संभावना के अर्थ में वास्तविक द्विआधारी है। जेनेस विशेष रूप से जेफरीस के पूर्व बीटा (1/2,1/2) पर चर्चा  नहीं करता है (पृष्ठ 181, 423 और जेनेस पुस्तक के अध्याय 12 पर जेफ्रीस के पूर्व की जेन्स चर्चा इसके अतिरिक्त जेफरीज़ द्वारा अपनी पुस्तक के 1939 संस्करण में प्रस्तुत किए गए अनुचित, गैर-सामान्यीकृत, पूर्व 1/p dp को संदर्भित करता है, सात साल पहले उन्होंने प्रस्तुत किया था जिसे अब जेफरीस के अपरिवर्तनीय पूर्व के रूप में जाना जाता है: फिशर के सूचना आव्युह के निर्धारक का वर्गमूल। 1/p जेफरीज़' (1946) वेरिएबल घातांकी वितरण से पहले का अपरिवर्तनीय है, बर्नौली या द्विपद वितरणों के लिए नहीं)। चूंकि, उपरोक्त चर्चा  से यह पता चलता है कि जेफरीस बीटा (1/2,1/2) पूर्व हल्दाने बीटा (0,0) और बेयस बीटा (1,1) पूर्व के मध्य ज्ञान की स्थिति का प्रतिनिधित्व करता है।

इसी तरह, कार्ल पियर्सन ने अपनी 1892 की पुस्तक विज्ञान का व्याकरण में (1900 संस्करण का पृष्ठ 144) ने कहा कि बेज़ (बीटा (1,1) वर्दी पूर्व में पूर्ण अज्ञानता नहीं थी, और यह कि इसका उपयोग तब किया जाना चाहिए जब पूर्व सूचना हमारी अज्ञानता को समान रूप से वितरित करने के लिए उचित हो। के. पियर्सन ने लिखा: फिर भी ऐसा लगता है कि हमने जो एकमात्र अनुमान लगाया है वह यह है: प्रकृतिक, दिनचर्या और विसंगति के बारे में कुछ भी नहीं जानना (ग्रीक ανομία से, अर्थात्: ए- बिना, और नोमोस नियम) को समान रूप से घटित होने की संभावना के रूप में माना जाता है। अब हम इस धारणा को बनाने में वास्तव में न्याय संगत नहीं थे, क्योंकि इसमें ऐसा ज्ञान सम्मिलित  है जो हमारे पास प्रकृति के संबंध में नहीं है। हम सामान्य रूप से सिक्कों की संरचना और कार्रवाई के अपने अनुभव का उपयोग यह प्रमाणित  करने के लिए करते हैं कि सिर और टेल  समान रूप से संभावित हैं, किन्तु हमारे पास कोई नहीं है अनुभव से पहले प्रमाणित  करने का अधिकार कि, जैसा कि हम प्रकृति के बारे में कुछ भी नहीं जानते हैं, दिनचर्या  और उल्लंघन समान रूप से संभावित हैं। हमारी अज्ञानता में हमें अनुभव से पहले विचार करना चाहिए कि प्रकृति में सभी दिनचर्या, सभी विसंगतियाँ (सामान्यता), या दोनों का मिश्रण सम्मिलित  हो सकता है। इसमें y का अनुपात जो भी हो, और यह कि सभी समान रूप से संभावित हैं। अनुभव के पश्चात् इनमें से कौन सा संविधान सबसे अधिक संभावित है, यह स्पष्ट रूप से इस बात पर निर्भर होना चाहिए कि वह अनुभव कैसा रहा है।

यदि पर्याप्त प्रतिरूप (सांख्यिकी) है, और पश्च संभाव्यता मोड डोमेन (x = 0 या x = 1) के वेरिएबल सीमाओं में से पर स्थित नहीं है, बेयस के तीन पूर्व (बीटा (1,1)), जेफरीस (बीटा(1/2,1/2)) और हाल्डेन (बीटा(0,0)) को समान पश्च संभाव्यता घनत्व प्राप्त करना चाहिए। अन्यथा, गेलमैन एट अल के रूप में। (पृष्ठ 65) इंगित करें, यदि इतने कम डेटा उपलब्ध हैं कि गैर-सूचनात्मक पूर्व वितरण के विकल्प से फर्क पड़ता है, तब किसी को प्रासंगिक जानकारी को पूर्व वितरण में या बर्जर के रूप में रखना चाहिए (पृ. 125) इंगित करता है कि जब अलग-अलग उचित प्राथमिकताएं पर्याप्त रूप से अलग-अलग उत्तर देती हैं, तब क्या यह कहना सही हो सकता है कि ही उत्तर है? क्या यह स्वीकार करना उत्तम नहीं होगा कि पूर्व मान्यताओं के आधार पर निष्कर्ष के साथ वैज्ञानिक अनिश्चितता है?

आदेश आँकड़े
ऑर्डर सांख्यिकी के सिद्धांत में बीटा वितरण का महत्वपूर्ण अनुप्रयोग है। मूल परिणाम यह है कि निरंतर समान वितरण (निरंतर) से आकार n के प्रतिरूप के सबसे छोटे kth के वितरण में बीटा वितरण होता है। इस परिणाम का सारांश इस प्रकार है:


 * $$U_{(k)} \sim \operatorname{Beta}(k,n+1-k).$$

इससे, और संभाव्यता अभिन्न परिवर्तन से संबंधित सिद्धांत के अनुप्रयोग से, किसी भी निरंतर वितरण से किसी भी व्यक्तिगत ऑर्डर स्टेटिस्टिक का वितरण प्राप्त किया जा सकता है।

विषयगत तर्क
मानक तर्क में, प्रस्तावों को या तब सही या गलत माना जाता है। इसके विपरीत, व्यक्तिपरक तर्क यह मानता है कि मनुष्य पूर्ण निश्चितता के साथ यह निर्धारित नहीं कर सकता है कि वास्तविक विश्व के बारे में कोई प्रस्ताव बिल्कुल सही है या गलत। व्यक्तिपरक तर्क में द्विआधारी घटनाओं के a पश्चवर्ती संभाव्यता अनुमानों को बीटा वितरण द्वारा दर्शाया जा सकता है।

तरंगिका विश्लेषण
एक तरंगिका तरंग-जैसा दोलन है जिसका आयाम शून्य से प्रारंभिक होता है, बढ़ता है, और फिर वापस शून्य हो जाता है। इसे सामान्यतः संक्षिप्त दोलन के रूप में देखा जा सकता है जो तुरंत क्षय हो जाता है। छोटा लहर  का उपयोग अनेक अलग-अलग प्रकार के डेटा से जानकारी निकालने के लिए किया जा सकता है, जिसमें ऑडियो सिग्नल और छवियां सम्मिलित  हैं, किन्तु निश्चित रूप से इन्हीं तक सीमित नहीं हैं। इस प्रकार, वेवलेट्स को विशिष्ट गुणों के लिए उद्देश्यपूर्ण रूप से तैयार किया जाता है जो उन्हें  संकेत आगे बढ़ाना  के लिए उपयोगी बनाते हैं। तरंगिकाएँ समय और आवृत्ति दोनों में स्थानीयकृत होती हैं जबकि मानक फूरियर रूपांतरण केवल आवृत्ति में स्थानीयकृत होता है। इसलिए, मानक फूरियर ट्रांसफ़ॉर्म केवल स्थिर प्रक्रियाओं पर प्रयुक्त होते हैं, जबकि तरंगिकाएँ गैर-स्थिर प्रक्रियाओं पर प्रयुक्त होती हैं। बीटा वितरण के आधार पर निरंतर तरंगिकाओं का निर्माण किया जा सकता है। बीटा तरंगिका हार तरंगों की नरम प्रकार के रूप में देखा जा सकता है जिसका आकार दो आकार के मापदंडों α और β द्वारा ठीक-ठीक है।

संख्या आनुवंशिकी
बैल्डिंग-निकोल्स मॉडल संख्या आनुवंशिकी में उपयोग किए जाने वाले बीटा वितरण का दो-मापदंड सांख्यिकीय मापदंड है। यह उप-विभाजित संख्या  के घटकों में एलील आवृत्तियों का सांख्यिकीय विवरण है:



\begin{align} \alpha &= \mu \nu,\\ \beta &= (1 - \mu) \nu, \end{align} $$ जहाँ $$\nu =\alpha+\beta= \frac{1-F}{F}$$ और $$0 < F < 1$$; जहाँ  F दो संख्या  के मध्य (राइट की) आनुवंशिक दूरी है।

परियोजना प्रबंधन: कार्य निवेश और अनुसूची मॉडलिंग
बीटा वितरण का उपयोग उन घटनाओं को मॉडल करने के लिए किया जा सकता है जो न्यूनतम और अधिकतम मान द्वारा परिभाषित अंतराल के अंदर होने के लिए विवश हैं। इस कारण से, बीटा वितरण - त्रिकोणीय वितरण के साथ - पीईआरटी, महत्वपूर्ण पथ विधि (सीपीएम), संयुक्त निवेश अनुसूची मॉडलिंग (जेसीएसएम) और अन्य परियोजना प्रबंधन/नियंत्रण प्रणालियों में बड़े पैमाने पर उपयोग किया जाता है जिससेपूरा होने में लगने वाले समय और निवेश का वर्णन किया जा सके किसी कार्य का। परियोजना प्रबंधन में, बीटा वितरण के माध्य और मानक विचलन का अनुमान लगाने के लिए आशुलिपि संगणनाओं का व्यापक रूप से उपयोग किया जाता है:
 * $$ \begin{align}

\mu(X) & = \frac{a + 4b + c}{6} \\ \sigma(X) & = \frac{c-a}{6} \end{align}$$ जहाँ a न्यूनतम है, c अधिकतम है, और b सबसे संभावित मान है (α > 1 और β > 1 के लिए बहुलक (सांख्यिकी)।

माध्य के लिए उपरोक्त अनुमान $$\mu(X)= \frac{a + 4b + c}{6}$$ PERT तीन-बिंदु अनुमान के रूप में जाना जाता है और यह β के निम्न मानों में से किसी के लिए स्पष्ट है (इन सीमाओं के अंदर इच्छानुसार α के लिए):


 * β = α > 1 (सममित स्तिथि ) मानक विचलन के साथ $$\sigma(X) = \frac{c-a}{2 \sqrt {1+2\alpha}}$$, विषमता = 0, और अतिरिक्त ककुदता = $$ \frac{-6}{3+2 \alpha}$$

फ़ाइल:बीटा वितरण बीटा=alpha from 1.05 to 4.95.svgया


 * β = 6 - α 5 के लिए > α > 1 (विषम स्तिथि ) मानक विचलन के साथ


 * $$\sigma(X) = \frac{(c-a)\sqrt{\alpha(6-\alpha)}}{6 \sqrt 7},$$

विषमता = $$\frac{(3-\alpha) \sqrt 7}{2\sqrt{\alpha(6-\alpha)}}$$, और अतिरिक्त कर्टोसिस = $$\frac{21}{\alpha (6- \alpha)} - 3$$

फ़ाइल:बीटा वितरण बीटा=6-alpha from 1.05 to 4.95.svg

मानक विचलन σ(X) = (c - a)/6 के लिए उपरोक्त अनुमान α और β के निम्नलिखित मानों में से किसी के लिए स्पष्ट है:


 * α = β = 4 (सममित) विषमता = 0 के साथ, और अतिरिक्त कर्टोसिस = -6/11।
 * β = 6 - α और $$\alpha = 3 - \sqrt2$$ (राइट-टेल्ड, पॉजिटिव विषम) विषमता के साथ $$=\frac{1}{\sqrt 2}$$, और अतिरिक्त कर्टोसिस = 0
 * β = 6 - α और $$\alpha = 3 + \sqrt2$$ (बाएं-टेल, ऋणात्मक विषम) विषमता के साथ $$= \frac{-1}{\sqrt 2}$$, और अतिरिक्त कर्टोसिस = 0

अन्यथा, ये α और β के अन्य मूल्यों के साथ बीटा वितरण के लिए खराब अनुमान हो सकते हैं, माध्य में 40% की औसत त्रुटि और विचरण में 549% प्रदर्शित करते हैं।

रैंडम वेरिएट जनरेशन
यदि X और Y स्वतंत्र हैं, साथ में $$X \sim \Gamma(\alpha, \theta)$$ और $$Y \sim \Gamma(\beta, \theta)$$ तब


 * $$\frac{X}{X+Y} \sim \Beta(\alpha, \beta).$$

तब बीटा संस्करण उत्पन्न करने के लिए एल्गोरिदम उत्पन्न करना है $$\frac{X}{X + Y}$$, जहां X गामा वितरण है#मापदंड (α, 1) के साथ रैंडम वैरिएट जनरेशन और मापदंड (β, 1) के साथ Y स्वतंत्र गामा वेरिएट है। वास्तव में, यहाँ $$\frac{X}{X+Y}$$ और $$X+Y$$ स्वतंत्र हैं, और $$X+Y \sim \Gamma(\alpha + \beta, \theta)$$. यदि $$Z \sim \Gamma(\gamma, \theta)$$ और $$Z$$ से स्वतंत्र है $$X$$ और $$Y$$, तब $$\frac{X+Y}{X+Y+Z} \sim \Beta(\alpha+\beta,\gamma)$$ और $$\frac{X+Y}{X+Y+Z}$$ से स्वतंत्र है $$\frac{X}{X+Y}$$. इससे पता चलता है कि स्वतंत्र का उत्पाद $$\Beta(\alpha,\beta)$$ और $$\Beta(\alpha+\beta,\gamma)$$ यादृच्छिक वेरिएबल है $$\Beta(\alpha,\beta+\gamma)$$ अनियमित परिवर्तनशील वस्तु।

साथ ही, n यूनिफ़ॉर्म डिस्ट्रीब्यूशन (सतत) वेरियेट्स का kth ऑर्डर स्टेटिस्टिक है $$\Beta(k, n+1-k)$$, इसलिए विकल्प यदि α और β छोटे पूर्णांक हैं तब α + β - 1 समान वेरिएबल उत्पन्न करना है और α-th सबसे छोटा चुनना है।

बीटा वितरण उत्पन्न करने का दूसरा विधि पोल्या कलश मॉडल है। इस पद्धति के अनुसार, α काली गेंदों और β सफेद गेंदों के साथ कलश से शुरुआत की जाती है और प्रतिस्थापन के साथ समान रूप से खींचा जाता है। प्रत्येक परीक्षण में अतिरिक्त गेंद निकाली गई अंतिम गेंद के रंग के अनुसार जोड़ी जाती है। असीमित रूप से, काले और सफेद गेंदों का अनुपात बीटा वितरण के अनुसार वितरित किया जाएगा, जहां प्रयोग की प्रत्येक पुनरावृत्ति अलग मान उत्पन्न करेगी।

उलटा रूपांतरण प्रतिरूप करण का उपयोग करना भी संभव है।

बीटा वितरण के लिए सामान्य सन्निकटन
एक बीटा वितरण $$\Beta(\alpha,\beta)$$ α ~ β और α और β >> 1 औसत 1/2 और विचरण 1/4 (2α + 1) के साथ लगभग सामान्य है। यदि α ≥ β के व्युत्क्रम के लघुगणक का घनमूल लेकर सामान्य सन्निकटन में सुधार किया जा सकता है $$\Beta(\alpha,\beta)$$

इतिहास
थॉमस बेयस, मरणोपरांत पेपर में रिवेरिएबल ्ड प्राइस द्वारा 1763 में प्रकाशित, बर्नौली परीक्षणों में सफलता की संभावना के घनत्व के रूप में बीटा वितरण प्राप्त किया (देखें ), किन्तुपेपर बीटा वितरण के किसी भी पल का विश्लेषण नहीं करता है या इसके किसी भी गुण पर चर्चा नहीं करता है।

बीटा वितरण की पहली व्यवस्थित आधुनिक चर्चा संभवतः कार्ल पियर्सन के कारण है। पियर्सन के कागजात में  बीटा वितरण को अंतर समीकरण के समाधान के रूप में जोड़ा गया है: पियर्सन वितरण | पियर्सन का प्रकार I वितरण जो इच्छानुसार से स्थानांतरण और पुन: स्केलिंग को छोड़कर अनिवार्य रूप से समान है (बीटा और पियर्सन प्रकार I वितरण सदैव उचित विकल्प द्वारा सामान्तर किया जा सकता है मापदंड)। वास्तव में, द्वितीय विश्व युद्ध से पहले कुछ दशकों में अनेक अंग्रेजी पुस्तकों और जर्नल लेखों में, बीटा वितरण को पियर्सन के टाइप I वितरण के रूप में संदर्भित करना सामान्य  बात थी। विलियम पॉलिन एल्डर्टन|(विलियम पी. एल्डर्टन) अपने 1906 मोनोग्राफ में आवृत्ति घटता और सहसंबंध पियर्सन के टाइप I वितरण के रूप में बीटा वितरण का और विश्लेषण करता है, जिसमें चार मापदंड स्तिथियों के  लिए क्षणों की विधि की पूरी चर्चा  सम्मिलित  है, और आरेख (जो एल्डर्टन के रूप में वर्णित है) u-आकार, j-आकार, मुड़ j-आकार, कॉक्ड- टोपी के आकार, क्षैतिज और कोण वाली सीधी रेखा के स्तिथियाँ । एल्डर्टन ने लिखा है कि मैं मुख्य रूप से प्रोफेसर पियर्सन का ऋणी हूं, किन्तुऋण प्रकार का है जिसके लिए औपचारिक धन्यवाद देना असंभव है। विलियम पॉलिन एल्डर्टन ने अपने 1906 के मोनोग्राफ में मोड के रूप में चुने गए वितरण की उत्पत्ति के लिए समीकरणों सहित बीटा वितरण पर प्रभावशाली जानकारी प्रदान करता है, साथ ही साथ अन्य पियर्सन वितरणों के लिए: प्रकार I से VII तक। एल्डर्टन ने बीटा और गामा कार्यों पर परिशिष्ट (II) सहित अनेक परिशिष्ट भी सम्मिलित  किए। पश्चात् के संस्करणों में, एल्डर्टन ने माध्य के रूप में चुने गए वितरण की उत्पत्ति के लिए समीकरण जोड़े, और पियर्सन वितरण VIII से XII तक का विश्लेषण किया।

जैसा कि बोमन और शेंटन ने टिप्पणी की है फ़िशर और पियर्सन के मध्य (मापदंड) अनुमान के दृष्टिकोण में मतभेद था, विशेष रूप से (पियर्सन की विधि) क्षणों से संबंधित और (फ़िशर की विधि) बीटा वितरण के स्तिथियों में अधिकतम संभावना। साथ ही बोमन और शेंटन के अनुसार, प्रकार I (बीटा वितरण) मॉडल के विवाद का केंद्र होने का स्तिथि विशुद्ध संयोग था। 4 मापदंडों का अधिक कठिन मॉडल खोजना कठिन होता। कार्ल पियर्सन के साथ फिशर के लंबे समय से चल रहे सार्वजनिक संघर्ष को प्रतिष्ठित पत्रिकाओं में अनेक लेखों में देखा जा सकता है। उदाहरण के लिए, बीटा वितरण के लिए चार मापदंडों के अनुमान के संबंध में, और फिशर की पियर्सन की पलों की पद्धति की मनमानी के रूप में आलोचना, पियर्सन का लेख देखें क्षणों की विधि और अधिकतम संभावना की विधि (यूनिवर्सिटी कॉलेज, लंदन से उनकी सेवानिवृत्ति के तीन साल पश्चात् प्रकाशित, जहां उनकी स्थिति फिशर और पियर्सन के बेटे एगॉन के मध्य विभाजित हो गई थी) जिसमें पियर्सन ने लिखा है कि मैंने पढ़ा (रॉयल स्टैटिस्टिकल सोसाइटी के जर्नल में कोशाई का पेपर, 1933) जो जहाँ तक है मुझे पता है कि वर्तमान में प्रोफेसर फिशर की विधि के आवेदन का एकमात्र स्तिथि  प्रकाशित हुआ है। मेरे विस्मय के लिए यह विधि पहले (पियर्सन) मेथड ऑफ मोमेंट्स द्वारा फ़्रीक्वेंसी कर्व के कॉन्स्टेंट को काम करने पर निर्भर करती है और फिर उस पर सुपरपोज़िंग करती है, जिसे फ़िशर अधिकतम संभावना की विधि के अनुसार प्राप्त करने के लिए और सन्निकटन बताता है, वह क्या रखता है, वह इस प्रकार वक्र स्थिरांकों के अधिक कुशल मान प्राप्त होंगे।

आंकड़ों के इतिहास पर डेविड और एडवर्ड्स का ग्रंथ 1911 में, बीटा वितरण के पहले आधुनिक उपचार का हवाला देते हैं, इतालवी सांख्यिकीविद्, जनसांख्यिकी और समाजशास्त्र, कॉनराड गिन्नी  के कारण बीटा पदनाम का उपयोग करना मानक बन गया है, जिन्होंने गिनी गुणांक विकसित किया था। नॉर्मन लॉयड जॉनसन|(एन.एल.जॉनसन) और सैमुअल कोटज़|(एस.कोट्ज़,) अपने व्यापक और बहुत ही सूचनात्मक मोनोग्राफ में सांख्यिकीय विज्ञान क्रेडिट कोराडो गिन्नी में प्रमुख ऐतिहासिक व्यक्तित्वों पर प्रारंभिक बायेसियन के रूप में ... जिन्होंने प्रारंभिक बीटा वितरण के मापदंडों को अलग करने की समस्या से निपटा, एकल विधियों द्वारा जो तथाकथित अनुभवजन्य बेयस दृष्टिकोण के आगमन की आशंका थी।

बाहरी संबंध

 * "बीटा Distribution" by Fiona Maclachlan, the Wolfram Demonstrations Project, 2007.
 * बीटा Distribution – Overview and Example, xycoon.com
 * बीटा Distribution, brighton-webs.co.uk
 * बीटा Distribution Video, exstrom.com
 * Harvard University Statistics 110 Lecture 23 बीटा Distribution, Prof. Joe Blitzstein
 * Harvard University Statistics 110 Lecture 23 बीटा Distribution, Prof. Joe Blitzstein
 * Harvard University Statistics 110 Lecture 23 बीटा Distribution, Prof. Joe Blitzstein