मोनोटोन संभावना अनुपात

 वितरण में एकरस संभावना अनुपात $$f(x)$$ और $$g(x)$$ <दिव> उपरोक्त संभाव्यता घनत्व फ़ंक्शन का अनुपात पैरामीटर में बढ़ रहा है $$x$$, इसलिए $$f(x)/g(x)$$ मोनोटोन संभावना अनुपात संपत्ति को संतुष्ट करता है।

आंकड़ों में, मोनोटोन संभावना अनुपात संपत्ति दो संभाव्यता घनत्व कार्यों (पीडीएफ) के अनुपात की संपत्ति है। औपचारिक रूप से, वितरण ƒ(x) और g(x) गुण धारण करते हैं यदि


 * $$\text{for every }x_1 > x_0, \quad \frac{f(x_1)}{g(x_1)} \geq \frac{f(x_0)}{g(x_0)}$$

यानी, अगर तर्क में अनुपात घटता नहीं है $$x$$.

यदि कार्य पहले-अलग-अलग हैं, तो संपत्ति को कभी-कभी कहा जा सकता है
 * $$\frac{\partial}{\partial x} \left( \frac{f(x)}{g(x)} \right) \geq 0$$

दो वितरणों के लिए जो कुछ तर्क x के संबंध में परिभाषा को संतुष्ट करते हैं, हम कहते हैं कि उनके पास x में MLRP है। वितरण के एक परिवार के लिए जो सभी कुछ आंकड़े टी (एक्स) के संबंध में परिभाषा को पूरा करते हैं, हम कहते हैं कि उनके पास टी (एक्स) में एमएलआर है।

अंतर्ज्ञान
MLRP का उपयोग एक डेटा-जनरेटिंग प्रक्रिया का प्रतिनिधित्व करने के लिए किया जाता है जो कुछ प्रेक्षित चर के परिमाण और इसके द्वारा प्राप्त वितरण के बीच एक सीधा संबंध प्राप्त करता है। अगर $$f(x)$$ के संबंध में MLRP को संतुष्ट करता है $$g(x)$$, प्रेक्षित मान जितना अधिक होगा $$x$$, अधिक संभावना यह वितरण से खींची गई थी $$f$$ इसके बजाय $$g$$. मोनोटोनिक संबंधों के लिए हमेशा की तरह, संभावना अनुपात की मोनोटोनिकिटी आँकड़ों में काम आती है, खासकर जब अधिकतम संभावना | अधिकतम-संभावना अनुमान का उपयोग किया जाता है। इसके अलावा, एमएलआर वाले वितरण परिवारों में कई अच्छे व्यवहार वाले स्टोचैस्टिक गुण होते हैं, जैसे प्रथम-क्रम स्टोकेस्टिक प्रभुत्व और बढ़ते जोखिम अनुपात। दुर्भाग्य से, जैसा कि हमेशा होता है, इस धारणा की ताकत यथार्थवाद की कीमत पर आती है। दुनिया में कई प्रक्रियाएं इनपुट और आउटपुट के बीच एक मोनोटोनिक पत्राचार प्रदर्शित नहीं करती हैं।

उदाहरण: कड़ी मेहनत करना या आलसी होना
मान लीजिए आप किसी प्रोजेक्ट पर काम कर रहे हैं, और आप या तो कड़ी मेहनत कर सकते हैं या सुस्त हो सकते हैं। अपनी पसंद के प्रयास को बुलाओ $$e$$ और परिणामी परियोजना की गुणवत्ता $$q$$. यदि एमएलआरपी आपके प्रयास पर क्यू सशर्त के वितरण के लिए है $$e$$, गुणवत्ता जितनी अधिक होगी, आपके द्वारा कड़ी मेहनत करने की संभावना उतनी ही अधिक होगी। इसके विपरीत, गुणवत्ता जितनी कम होगी, आपके सुस्त होने की संभावना उतनी ही अधिक होगी।


 * 1) प्रयास चुनें $$e \in \{H,L\}$$ जहां H का मतलब हाई और L का मतलब लो है
 * 2) अवलोकन करना $$q$$ से खींचा $$f(q\mid e)$$. बेयस के कानून द्वारा एक समान पूर्व के साथ,
 * $$\Pr[e=H\mid q]=\frac{f(q\mid H)}{f(q\mid H)+f(q\mid L)}$$
 * 1) कल्पना करना $$f(q\mid e)$$ एमएलआरपी को संतुष्ट करता है। पुनर्व्यवस्थित करने पर, कार्यकर्ता द्वारा कठिन परिश्रम करने की प्रायिकता है
 * $$\frac{1}{1+f(q\mid L)/f(q\mid H)}$$
 * जो, एमएलआरपी के लिए धन्यवाद, नीरस रूप से बढ़ रहा है $$q$$ (क्योंकि $$f(q\mid L)/f(q\mid H)$$ में घट रहा है $$q$$). इसलिए यदि कोई नियोक्ता प्रदर्शन की समीक्षा कर रहा है तो वह अपने कर्मचारी के व्यवहार को उसके काम की योग्यता से अनुमान लगा सकता है।

एमएलआर को संतुष्ट करने वाले वितरण के परिवार
सांख्यिकीय मॉडल अक्सर मानते हैं कि डेटा वितरण के कुछ परिवार से वितरण द्वारा उत्पन्न होते हैं और उस वितरण को निर्धारित करना चाहते हैं। यह कार्य सरल हो जाता है यदि परिवार के पास मोनोटोन संभावना अनुपात संपत्ति (एमएलआरपी) है।

घनत्व कार्यों का एक परिवार $$\{ f_\theta (x)\}_{\theta\in \Theta}$$ एक पैरामीटर द्वारा अनुक्रमित $$\theta$$ एक आदेशित सेट में मान लेना $$\Theta$$ कहा जाता है कि आँकड़ों में एक मोनोटोन संभावना अनुपात (एमएलआर) है $$T(X)$$ अगर किसी के लिए $$\theta_1 < \theta_2$$,
 * $$\frac{f_{\theta_2}(X=x_1,x_2,x_3,\dots)}{f_{\theta_1}(X=x_1,x_2,x_3,\dots)} $$का एक गैर-घटता कार्य है $$T(X)$$.

फिर हम कहते हैं कि वितरण के परिवार में एमएलआर है $$T(X)$$.

परिकल्पना परीक्षण
यदि यादृच्छिक चर के परिवार में MLRP है $$T(X)$$, परिकल्पना के लिए एक समान रूप से सबसे शक्तिशाली परीक्षण आसानी से निर्धारित किया जा सकता है $$H_0 : \theta \le \theta_0$$ बनाम $$H_1 : \theta > \theta_0$$.

उदाहरण: प्रयास और आउटपुट
उदाहरण: चलो $$e$$ स्टोकेस्टिक तकनीक में एक इनपुट बनें - कार्यकर्ता का प्रयास, उदाहरण के लिए - और $$y$$ इसका आउटपुट, जिसकी संभावना प्रायिकता घनत्व फ़ंक्शन द्वारा वर्णित है $$f(y;e).$$ फिर परिवार की मोनोटोन संभावना अनुपात संपत्ति (एमएलआरपी)। $$f$$ निम्नानुसार व्यक्त किया गया है: किसी के लिए  $$e_1,e_2$$, यह तथ्य कि  $$e_2 > e_1$$ तात्पर्य है कि अनुपात  $$f(y;e_2)/f(y;e_1)$$ में बढ़ रहा है  $$y$$.

अन्य सांख्यिकीय गुणों से संबंध
मोनोटोन संभावनाएं सांख्यिकीय सिद्धांत के कई क्षेत्रों में उपयोग की जाती हैं, जिसमें बिंदु अनुमान और परिकल्पना परीक्षण, साथ ही संभाव्यता मॉडल भी शामिल हैं।

घातीय परिवार
एक-पैरामीटर एक्सपोनेंशियल फैमिली में मोनोटोन संभावना-कार्य होते हैं। विशेष रूप से, संभाव्यता घनत्व कार्यों या संभाव्यता द्रव्यमान कार्यों के एक-आयामी घातीय परिवार के साथ
 * $$f_\theta(x) = c(\theta)h(x)\exp(\pi(\theta)T(x))$$

पर्याप्तता (सांख्यिकी) टी (एक्स) में एक मोनोटोन गैर-घटती संभावना अनुपात है, बशर्ते कि $$\pi(\theta)$$ घटता नहीं है।

समान रूप से सबसे शक्तिशाली परीक्षण: कार्लिन-रुबिन प्रमेय
कार्लिन-रुबिन प्रमेय के अनुसार, मोनोटोन संभावना कार्यों का उपयोग समान रूप से सबसे शक्तिशाली परीक्षणों के निर्माण के लिए किया जाता है। एक स्केलर मापन पर विचार करें जिसमें स्केलर पैरामीटर θ द्वारा प्राचलित प्रायिकता घनत्व फलन हो, और संभावना अनुपात को परिभाषित करें $$ \ell(x) = f_{\theta_1}(x) / f_{\theta_0}(x)$$. अगर $$\ell(x)$$ मोनोटोन गैर-घटता है, में $$x$$, किसी भी जोड़ी के लिए $$\theta_1 \geq \theta_0$$ (जिसका अर्थ है कि बड़ा $$x$$ है, अधिक सम्भावना है $$H_1$$ है), तो दहलीज परीक्षण:
 * $$\varphi(x) =

\begin{cases} 1 & \text{if } x > x_0 \\ 0 & \text{if } x < x_0 \end{cases}$$
 * कहाँ $$x_0$$ इसलिए चुना जाता है $$\operatorname{E}_{\theta_0}\varphi(X)=\alpha$$

परीक्षण के लिए आकार α का UMP परीक्षण है $$ H_0: \theta \leq \theta_0 \text{ vs. } H_1: \theta > \theta_0 .$$ ध्यान दें कि ठीक यही परीक्षण परीक्षण के लिए UMP भी है $$ H_0: \theta = \theta_0 \text{ vs. } H_1: \theta > \theta_0 .$$

माध्य निष्पक्ष अनुमान
मोनोटोन संभावना-कार्यों का उपयोग मध्य-निष्पक्ष आकलनकर्ताओं के निर्माण के लिए किया जाता है, जोहान फनज़ागल और अन्य द्वारा निर्दिष्ट विधियों का उपयोग करते हुए। ऐसी ही एक प्रक्रिया राव-ब्लैकवेल प्रमेय का एक एनालॉग है। समान रूप से न्यूनतम-विचरण निष्पक्ष अनुमानक के लिए राव-ब्लैकवेल प्रक्रिया|मीन-निष्पक्ष अनुमानक: प्रक्रिया माध्य के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में संभाव्यता वितरण के एक छोटे वर्ग के लिए है- निष्पक्ष अनुमान लेकिन हानि कार्यों के एक बड़े वर्ग के लिए।

आजीवन विश्लेषण: उत्तरजीविता विश्लेषण और विश्वसनीयता
यदि वितरण का एक परिवार $$f_\theta(x)$$ में मोनोटोन संभावना अनुपात गुण है $$T(X)$$,
 * 1) परिवार में मोनोटोन घटती खतरे की दर है $$\theta$$ (लेकिन जरूरी नहीं कि अंदर $$T(X)$$)
 * 2) परिवार पहले क्रम (और इसलिए दूसरे क्रम) में स्टोकास्टिक प्रभुत्व प्रदर्शित करता है $$x$$, और का सबसे अच्छा बायेसियन अपडेट $$\theta$$ में बढ़ रहा है $$T(X)$$.

लेकिन इसके विपरीत नहीं: न तो मोनोटोन खतरे की दर और न ही स्टोकेस्टिक प्रभुत्व एमएलआरपी को प्रभावित करते हैं।

प्रमाण
वितरण परिवार चलो $$f_\theta$$ एक्स में एमएलआर को संतुष्ट करें, ताकि के लिए $$\theta_1>\theta_0$$ और $$x_1>x_0$$:


 * $$\frac{f_{\theta_1}(x_1)}{f_{\theta_0}(x_1)} \geq \frac{f_{\theta_1}(x_0)}{f_{\theta_0}(x_0)},$$

या समकक्ष:


 * $$f_{\theta_1}(x_1) f_{\theta_0}(x_0) \geq f_{\theta_1}(x_0) f_{\theta_0}(x_1). \, $$

इस अभिव्यक्ति को दो बार एकीकृत करना, हम प्राप्त करते हैं:

पहले क्रम का स्टोकेस्टिक प्रभुत्व
प्रथम क्रम प्रभुत्व प्राप्त करने के लिए उपरोक्त दो असमानताओं को मिलाएं:
 * $$F_{\theta_1}(x) \leq F_{\theta_0}(x) \ \forall x$$

मोनोटोन खतरा दर
मोनोटोन खतरा दर प्राप्त करने के लिए केवल ऊपर दी गई दूसरी असमानता का उपयोग करें:
 * $$\frac{f_{\theta_1}(x)}{1-F_{\theta_1}(x)} \leq \frac{f_{\theta_0}(x)}{1-F_{\theta_0}(x)} \ \forall x $$

अर्थशास्त्र
एमएलआर तंत्र डिजाइन और सूचना के अर्थशास्त्र में एजेंटों के प्रकार वितरण पर एक महत्वपूर्ण शर्त है, जहां एमएलआर के परिणाम के रूप में पॉल मिलग्रोम ने संकेतों की अनुकूलता (स्टोकेस्टिक प्रभुत्व के संदर्भ में) को परिभाषित किया। तंत्र डिजाइन मॉडल के अधिकांश समाधान ऐसे वितरणों को मानते हैं जो समाधान विधियों का लाभ लेने के लिए एमएलआर को संतुष्ट करते हैं जो कि लागू करना और व्याख्या करना आसान हो सकता है।