अपेक्षित न्यूनता

अपेक्षित न्यूनता एक संकट माप है - यह वित्तीय संकट मापन के क्षेत्र में एक अवधारणा है जिसका उपयोग निवेश के बाजार संकट या मूल्य संकट का मूल्यांकन करने के लिए किया जाता है। Q% स्तर पर अपेक्षित न्यूनता सबसे खराब $$q\%$$ स्थिति में जानकारी संग्रह पर अपेक्षित मान होता है जो ईएस संकट मान का एक विकल्प है जो हानि वितरण के आकार के प्रति अधिक संवेदनशील होता है।

अपेक्षित न्यूनता को संकट पर सशर्त मूल्य (सीवीएआर) भी कहा जाता है, संकट पर औसत मूल्य (एवीएआर), अपेक्षित हानि (ईटीएल), और सुपरक्वांटाइल भी कहा जाता है।

अपेक्षित न्यूनता एक निवेश के संकट का सत्यापान्ती विधि से मूल्यांकन करता है, जिसमें न्यूनतम लाभदायक परिणामों पर ध्यान केंद्रित होता है। उच्च q मानों के लिए, यह सबसे लाभदायक परंतु असंभावित संभावनाओं को अनदेखा करता है, जबकि छोटे q मानों के लिए यह सबसे बड़े हानियों पर ध्यान केंद्रित होता है। दूसरी ओर, छोटे q मानों के लिए भी अपेक्षित न्यूनता केवल एक ही सबसे प्रलयांकारी परिणाम को ही नहीं ध्यान में लेता है, जिसमें अधिकतम छूट होती है। अधिकांश परिस्थितियों में प्रयुक्त q मान 5% होता है।

अपेक्षित न्यूनता को वीएआर की तुलना में एक अधिक उपयोगी संकट माप हो सकता हैं, क्योंकि यह वित्तीय जानकारी संग्रह संकट का एक सुसंगठित स्पेक्ट्रल माप है। इसे एक निर्धारित क्वांटाइल स्तर q के लिए गणना की जाती है और यह जानकारी संग्रह मान की औसत हानि को परिभाषित करता है जब एक हानि $$q$$-मात्रा पर या उससे न्यूनतम हो रही होती हैं।.

औपचारिक परिभाषा
यदि $$X \in L^p(\mathcal{F})$$ अनुमान के समय में एक $$0 < \alpha < 1$$ जानकारी संग्रह का भुगतान होता है तब हम अपेक्षित न्यूनता को इस प्रकार परिभाषित करते हैं


 * $$ \operatorname{ES}_\alpha(X) = -\frac{1}{\alpha} \int_0^\alpha \operatorname{VaR}_\gamma(X) \, d\gamma$$

जहाँ $$\operatorname{VaR}_\gamma$$ संकट का मान होता है. इसे समतुल्य रूप में लिखा जा सकता है


 * $$\operatorname{ES}_\alpha(X) = -\frac{1}{\alpha} \left(\operatorname E[X \ 1_{\{X \leq x_{\alpha}\}}] + x_\alpha(\alpha - P[X \leq x_\alpha])\right)$$

जहाँ $$x_\alpha = \inf\{x \in \mathbb{R}: P(X \leq x) \geq \alpha\}$$ निम्नतम $$\alpha$$-क्वांटाइल और $$1_A(x) = \begin{cases}1 &\text{if }x \in A\\ 0 &\text{else}\end{cases}$$ सूचक फलन होता है. और दोहरा प्रतिनिधित्व होता है


 * $$ \operatorname {ES}_\alpha(X) = \inf_{Q \in \mathcal{Q}_\alpha} E^Q[X]$$

जहाँ $$\mathcal{Q}_\alpha$$ संभाव्यता मापों का समूह है जो भौतिक माप $$P$$ के लिए बिल्कुल सतत होती है ऐसा है कि $$\frac{dQ}{dP} \leq \alpha^{-1}$$ लगभग निश्चित रूप से.निरन्तरता प्रदान करते हैं ध्यान दें कि $$\frac{dQ}{dP}$$ रेडॉन-निकोडिम का $$Q$$ इसके संबंध में $$P$$. व्युत्पन्न होता है।

अपेक्षित न्यूनता को सुसंगत संकट उपायों $$L^p$$ के एक सामान्य वर्ग में सामान्यीकृत किया जा सकता है रिक्त स्थान संबंधित $$L^q$$ दोहरे लक्षण डोमेन को अधिक सामान्य ऑर्लिक्ज़ हार्ट्स के लिए बढ़ाया जा सकता है।

यदि अंतर्निहित वितरण के लिए $$X$$ एक सतत वितरण है तो अपेक्षित न्यूनता परिभाषित पूंछ सशर्त अपेक्षा के $$\operatorname{TCE}_{\alpha}(X) = E[-X\mid X \leq -\operatorname{VaR}_{\alpha}(X)]$$ समान होते है.

अनौपचारिक रूप से, और गैर-कठोरता से, यह समीकरण यह कहने जैसा है कि हानि इतना गंभीर है कि वे केवल अल्फा प्रतिशत समय में होते हैं, हमारा औसत हानि क्या है।

अपेक्षित न्यूनता को विरूपण फलन द्वारा दिए गए विरूपण संकट माप के रूप में भी लिखा जा सकता है


 * $$g(x) = \begin{cases}\frac{x}{1-\alpha} & \text{if }0 \leq x < 1-\alpha,\\ 1 & \text{if }1-\alpha \leq x \leq 1.\end{cases} \quad$$

उदाहरण
उदाहरण 1. यदि हम मानते हैं कि हमारे जानकारी संग्रह के संभावित परिणामों में से सबसे खराब 5% पर हमारा औसत हानि ईयूआर 1000 होता है, तो हम कह सकते हैं कि 5% पूंछ के लिए हमारी अपेक्षित न्यूनता ईयूआर 1000 होता है।

उदाहरण 2. एक जानकारी संग्रह पर विचार करें जिसमें अवधि के अंत में निम्नलिखित संभावित मान होंगे:

अब मान लीजिए कि हमने इस जानकारी संग्रह के लिए अवधि की प्रारंभ में 100 का भुगतान किया था। पुनः प्रत्येक परिस्थिति में लाभ (अंतिम मान−100) होता है:

आइए इस तालिका से अपेक्षित न्यूनता $$\operatorname{ES}_q$$ के कुछ मानों के लिए $$q$$ की गणना करते हैं

इन मानों को कैसे गणना किया गया था देखने के लिए, $$\operatorname{ES}_{0.05}$$, की गणना की जाती है, अर्थात 5% परिस्थितियों में सबसे खराब होने की अपेक्षा में सबसे अच्छी होती हैं। ये परिस्थितियों (लाभ टेबल के पंक्ति 1 के एक उपसमूह के हिस्से होते हैं, जिनमें निवेशित 100 का हानि का प्राप्ति है। इन परिस्थितियों के लिए अपेक्षित लाभ -100 होती है।

अब की गणना पर विचार करें $$\operatorname{ES}_{0.20}$$, 100 में से सबसे खराब 20 परिस्थितियों में उम्मीद देती है। ये परिस्थिति इस प्रकार हैं: पंक्ति एक से 10 घटना, और पंक्ति दो से 10 घटना होती है। पंक्ति 1 के लिए -100 का लाभ होता है, जबकि पंक्ति 2 के लिए -20 का लाभ होता है। अपेक्षित मूल्य सूत्र का उपयोग करके हम प्राप्त करते हैं


 * $$\frac{ \frac{10}{100}(-100)+\frac{10}{100}(-20) }{ \frac{20}{100}} = -60.$$

इसी प्रकार किसी भी मूल्य के लिए $$q$$. हम ऊपर से प्रारंभ करते हुए उतनी पंक्तियों का चयन करते हैं जितनी संचयी संभावना देने के लिए आवश्यक हैं $$q$$ और फिर उन परिस्थितियों पर एक अपेक्षा की गणना करना चाहिए। सामान्यतः, चयनित अंतिम पंक्ति का पूरी तरह से उपयोग नहीं किया जा सकता है (उदाहरण के लिए गणना में $$-\operatorname{ES}_{0.20}$$ पंक्ति 2 द्वारा प्रदान किए गए प्रति 100 30 परिस्थितियों में से केवल 10 का उपयोग किया जाता हैं)।

अंतिम उदाहरण के रूप में, गणना $$-\operatorname{ES}_1$$ करें .सभी परिस्थितियों में यही अपेक्षा होती है, या


 * $$0.1(-100)+0.3(-20)+0.4\cdot 0+0.2\cdot 50 = -6. \, $$

संकट का मूल्य (VaR) तुलना के लिए निम्न दिया गया है।

गुण
अपेक्षित न्यूनता $$\operatorname{ES}_q$$ के रूप में बढ़ता और $$q$$ के रूप में घट जाती है.

100%-मात्रात्मक अपेक्षित न्यूनता $$\operatorname{ES}_{1}$$ जानकारी संग्रह के अपेक्षित मूल्य के नकारात्मक के समान होती है।

किसी दिए गए जानकारी संग्रह के लिए, अपेक्षित न्यूनता $$\operatorname{ES}_q$$ संकट वाले मान से $$\operatorname{VaR}_q$$ में $$q$$ स्तर अधिक या उसके समान होती है ।

अपेक्षित न्यूनता का अनुकूलन
अपेक्षित न्यूनता, अपने मानक रूप में, सामान्यतः गैर-उत्तल अनुकूलन समस्या को जन्म देने के लिए जानी जाती है। यद्यपि, समस्या को रैखिक प्रोग्रामिंग में परिवर्तित करना और वैश्विक समाधान खोजना संभव होता है। यह विशेषताओ से अपेक्षित न्यूनता को आधुनिक जानकारी संग्रह सिद्धांत के मध्य-विचरण जानकारी संग्रह अनुकूलन के विकल्पों की आधारशिला बनाती है, जो वापसी वितरण के उच्च क्षणों (जैसे, तिरछापन और कर्टोसिस) के लिए जिम्मेदार होती है।

मान लीजिए कि हम किसी जानकारी संग्रह की अपेक्षित न्यूनता को न्यूनतम करना चाहते हैं। अपने 2000 के पेपर में रॉकफेलर और उरीसेव का मुख्य योगदान सहायक फलन $$F_{\alpha}(w,\gamma)$$ का परिचय देता है,अपेक्षित न्यूनता के लिए$$ F_\alpha(w,\gamma) = \gamma + {1\over{1-\alpha}} \int_{\ell(w,x)\geq \gamma} \left[\ell(w,x)-\gamma\right] p(x) \, dx$$होती हैं। जहाँ $$\gamma = \operatorname{VaR}_\alpha(X)$$ और $$\ell(w,x)$$ जानकारी संग्रह भार $$w\in\mathbb{R}^p$$ के एक सेट के लिए एक हानि फलन होती है और इसे वापसी पर प्रारंभ किया जाता हैं। रॉकफेलर/यूर्यासेव ने यह प्रमाणित $$F_\alpha(w,\gamma)$$ किया कि संबंध में उत्तल फलन $$\gamma$$ होती है और न्यूनतम बिंदु पर अपेक्षित न्यूनता के समान होती है। जानकारी संग्रह वापसी के एक सेट के लिए अपेक्षित न्यूनता की संख्यात्मक गणना करने के लिए, इसे उत्पन्न $$J$$ करना आवश्यक है जानकारी संग्रह घटकों का अनुकरण; यह प्रायः कोपुला (संभावना सिद्धांत) का उपयोग करके किया जाता है। हाथ में इन सिमुलेशन के सापेक्ष, सहायक फलन का अनुमान लगाया जा सकता है:$$\widetilde{F}_\alpha(w,\gamma) = \gamma + {1\over{(1-\alpha)J}}\sum_{j=1}^J [\ell(w,x_j) - \gamma]_{+}$$यह सूत्रीकरण के समान होता है:$$\min_{\gamma,z,w} \; \gamma + {1\over{(1-\alpha)J}} \sum_{j=1}^J z_j, \quad \text{s.t. } z_j \geq \ell(w,x_j)-\gamma,\; z_j \geq 0$$ अंत में, एक रैखिक हानि फलन $$\ell(w,x_{j}) = -w^T x_j$$ का चयन करना और अनुकूलन समस्या को एक रैखिक कार्यक्रम में परिवर्तित कर देता है। मानक विधियों का उपयोग करके, उस जानकारी संग्रह को ढूंढना आसान होता है जो अपेक्षित न्यूनता को न्यूनतम करता है।

सतत संभाव्यता वितरण के लिए सूत्र
किसी जानकारी संग्रह $$X$$ के भुगतान के समय अपेक्षित न्यूनता की गणना के लिए बंद-फ़ॉर्म सूत्र उपस्थित होता हैं या तदनुरूप हानि $$L = -X$$ एक विशिष्ट सतत वितरण का अनुसरण करता है। पहले परिस्थिति में, अपेक्षित न्यूनता निम्न बाईं-पूंछ सशर्त अपेक्षा की  विपरीत संख्या $$-\operatorname{VaR}_\alpha (X)$$ से $$\operatorname {ES}_\alpha(X) = E[-X\mid X \leq -\operatorname{VaR}_\alpha(X)] = -\frac{1}{\alpha}\int_0^\alpha \operatorname{VaR}_\gamma(X) \, d\gamma = -\frac{1}{\alpha} \int_{-\infty}^{-\operatorname{VaR}_\alpha(X)} xf(x) \, dx.$$

मेल खाती है :

के विशिष्ट मूल्य $\alpha$ इस परिस्थिति में 5% और 1% होती हैं।

अभियांत्रिकी या बीमांकिक अनुप्रयोगों के लिए घाटे के वितरण $$L = -X$$ पर विचार करना अधिक सामान्य होती है, इस परिस्थिति में अपेक्षित न्यूनता उपरोक्त दाएँ-पूंछ सशर्त अपेक्षा $$\operatorname{VaR}_\alpha (L)$$ से मेल खाती है  और के विशिष्ट मूल्य $$\alpha$$ 95% और 99%

$$\operatorname {ES}_\alpha(L) = \operatorname E[L\mid L \geq \operatorname{VaR}_\alpha(L)] = \frac{1}{1-\alpha} \int^1_\alpha \operatorname{VaR}_\gamma(L)d\gamma = \frac{1}{1-\alpha} \int^{+\infty}_{\operatorname{VaR}_\alpha(L)} yf(y) \, dy.$$

हैं:

क्योंकी निम्न दिए गए कुछ सूत्र बाएँ-पूंछ वाले परिस्थिति के लिए और कुछ दाएँ-पूंछ वाले परिस्थिति के लिए निकाले गए थे, इसलिए निम्नलिखित समाधान $$ \operatorname {ES}_\alpha(X) = -\frac{1}{\alpha} \operatorname E[X] + \frac{1-\alpha}{\alpha} \operatorname {ES}_\alpha(L) \text{ and } \operatorname{ES}_\alpha(L) = \frac{1}{1-\alpha} \operatorname E[L]+\frac{\alpha}{1-\alpha} \operatorname {ES}_\alpha(X).$$

उपयोगी हो सकते हैं।

सामान्य वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पी.डी.एफ. $$f(x) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}$$ के सापेक्ष सामान्य वितरण (गाऊसी) का अनुसरण करता है। तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = -\mu+\sigma\frac{\varphi(\Phi^{-1}(\alpha))}{\alpha}$$ समान होती है, जहाँ $$\varphi(x)=\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}$$ मानक सामान्य पीडीएफ $$\Phi(x)$$ होती है, और मानक सामान्य सी.डी.एफ. है, इसलिए $$\Phi^{-1}(\alpha)$$ मानक सामान्य मात्रा होती है.

यदि किसी जानकारी संग्रह का हानि हो $$L$$ सामान्य वितरण का अनुसरण करता है, अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \mu+\sigma\frac{\varphi(\Phi^{-1}(\alpha))}{1-\alpha}$$ समान होती है.

सामान्यीकृत विद्यार्थी का टी-वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पीडीएफ $$f(x) = \frac{\Gamma\left(\frac{\nu+1}{2}\right)}{\Gamma\left(\frac{\nu}{2} \right) \sqrt{\pi\nu} \sigma} \left(1+\frac{1}{\nu}\left(\frac{x-\mu}{\sigma}\right)^2\right)^{-\frac{\nu+1}{2}}$$ के सापेक्ष सामान्यीकृत छात्र के टी-वितरण का अनुसरण करता है। तो अपेक्षित न्यूनता के समान होता है, जहाँ $$\tau(x)=\frac{\Gamma\bigl(\frac{\nu+1}{2}\bigr)}{\Gamma\bigl(\frac{\nu}{2}\bigr)\sqrt{\pi\nu}}\Bigl(1+\frac{x^2}{\nu}\Bigr)^{-\frac{\nu+1}{2}}$$ मानक टी-वितरण पीडीएफ है, और $$\Tau(x)$$ मानक टी-वितरण सी.डी.एफ होता है, इसलिए $$\Tau^{-1}(\alpha)$$ मानक टी-वितरण मात्रा है।

यदि किसी जानकारी संग्रह का हानि हो $$L$$ सामान्यीकृत छात्र के टी-वितरण का अनुसरण करता है, अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \mu+\sigma\frac{\nu+(\Tau^{-1}(\alpha))^2}{\nu-1}\frac{\tau(\Tau^{-1}(\alpha))}{1-\alpha}$$ समान होती है।

लाप्लास वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पी.डी.एफ. $$f(x) = \frac{1}{2b}e^{-|x-\mu|/b}$$ के सापेक्ष लाप्लास वितरण का अनुसरण करता है।

और सी.डी.एफ.


 * $$F(x) = \begin{cases}

1 - \frac{1}{2} e^{-(x-\mu)/b} & \text{if }x \geq \mu,\\[4pt] \frac{1}{2} e^{(x-\mu)/b} & \text{if }x < \mu. \end{cases}$$ तो अपेक्षित न्यूनता $$\operatorname{ES}_\alpha(X) = -\mu + b(1 - \ln 2\alpha)$$ के लिए $$\alpha \le 0.5$$ समान होती है.

यदि किसी जानकारी संग्रह का हानि हो $$L$$ लाप्लास वितरण का अनुसरण करते हुए, अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \begin{cases} \mu + b \frac{\alpha}{1-\alpha} (1-\ln2\alpha) & \text{if }\alpha < 0.5,\\[4pt] \mu + b[1 - \ln(2(1-\alpha))] & \text{if }\alpha \ge 0.5. \end{cases}$$ समान होती है।



लॉजिस्टिक वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पी.डी.एफ. $$f(x) = \frac{1}{s} e^{-\frac{x-\mu}{s}}\left(1+e^{-\frac{x-\mu}{s}}\right)^{-2}$$ के सापेक्ष लॉजिस्टिक वितरण का अनुसरण करता है। और सी.डी.एफ. $$F(x) = \left(1+e^{-\frac{x-\mu}{s}}\right)^{-1}$$ तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = -\mu + s \ln\frac{(1-\alpha)^{1-\frac{1}{\alpha}}}{\alpha}$$ समान होती है.

यदि किसी जानकारी संग्रह का हानि हो और $$L$$ लॉजिस्टिक वितरण का अनुसरण करते हुए, अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \mu + s\frac{-\alpha\ln\alpha-(1-\alpha)\ln(1-\alpha)}{1-\alpha}$$ समान होती है.

घातीय वितरण
यदि किसी जानकारी संग्रह का हानि हो $$L$$ पी.डी.एफ. $$f(x) = \begin{cases}\lambda e^{-\lambda x} & \text{if }x \geq 0,\\ 0 & \text{if }x < 0.\end{cases}$$ के सापेक्ष घातांकीय वितरण का अनुसरण करता है। और सी.डी.एफ. $$F(x) = \begin{cases}1 - e^{-\lambda x} & \text{if }x \geq 0,\\ 0 & \text{if }x < 0.\end{cases}$$ तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \frac{-\ln(1-\alpha)+1}{\lambda}$$ समान होता है.

पेरेटो वितरण
यदि किसी जानकारी संग्रह का हानि हो $$L$$ पी.डी.एफ. $$f(x) = \begin{cases} \frac{a x_m^a}{x^{a+1}} & \text{if }x \geq x_m,\\ 0 & \text{if }x < x_m. \end{cases}$$ के सापेक्ष पेरेटो वितरण का अनुसरण करता है। और सी.डी.एफ. $$F(x) = \begin{cases} 1 - (x_m/x)^a & \text{if }x \geq x_m,\\ 0 & \text{if }x < x_m. \end{cases}$$ तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \frac{x_m a}{(1-\alpha)^{1/a}(a-1)}$$ समान होती है।.

सामान्यीकृत पेरेटो वितरण (जीपीडी)
यदि किसी जानकारी संग्रह का हानि हो $$L$$ पी.डी.एफ $$f(x) = \frac{1}{s} \left( 1+\frac{\xi (x-\mu)}{s} \right)^{\left(-\frac{1}{\xi}-1\right)}$$. के सापेक्ष सामान्यीकृत पेरेटो वितरण का अनुसरण करता है।और सी.डी.एफ$$F(x) = \begin{cases} 1 - \left(1+\frac{\xi(x-\mu)}{s}\right)^{-1 /\xi} & \text{if }\xi \ne 0,\\ 1-\exp \left( -\frac{x-\mu}{s} \right) & \text{if }\xi = 0. \end{cases}$$

तो अपेक्षित न्यूनता के


 * $$\operatorname{ES}_\alpha(L) = \begin{cases}

\mu + s \left[ \frac{(1-\alpha)^{-\xi}}{1-\xi}+\frac{(1-\alpha)^{-\xi}-1}{\xi} \right] & \text{if }\xi \ne 0,\\ \mu + s \left[1 - \ln(1-\alpha) \right] & \text{if }\xi = 0, \end{cases}$$समान होती है और VaR के $$ \operatorname{VaR}_\alpha(L) = \begin{cases} \mu + s \frac{(1-\alpha)^{-\xi}-1}{\xi} & \text{if }\xi \ne 0,\\ \mu - s \ln(1-\alpha) & \text{if }\xi = 0. \end{cases}$$ समान होती है



वेइबुल वितरण
यदि किसी जानकारी संग्रह का हानि हो $$L$$ पीडीएफ $$f(x) = \begin{cases} \frac{k}{\lambda} \left(\frac{x}{\lambda}\right)^{k-1} e^{-(x/\lambda)^k} & \text{if }x \geq 0,\\ 0 & \text{if }x < 0. \end{cases}$$ के सापेक्ष वेइबुल वितरण का अनुसरण करता है, और सी.डी.एफ. $$F(x) = \begin{cases} 1 - e^{-(x/\lambda)^k} & \text{if }x \geq 0,\\ 0 & \text{if }x < 0. \end{cases}$$ तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \frac{\lambda}{1-\alpha} \Gamma\left(1+\frac{1}{k},-\ln(1-\alpha)\right)$$ समान होती है, जहाँ $$\Gamma(s,x)$$ ऊपरी अधूरा गामा फलन होती है।

सामान्यीकृत चरम मूल्य वितरण (जीईवी)
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पीडीएफ $$f(x) = \begin{cases} \frac{1}{\sigma} \left( 1+\xi \frac{ x-\mu}{\sigma} \right)^{-\frac{1}{\xi}-1} \exp\left[-\left( 1 + \xi \frac{x-\mu}{\sigma} \right)^{-{1}/{\xi}}\right] & \text{if } \xi \ne 0,\\ \frac{1}{\sigma}e^{-\frac{x-\mu}{\sigma}}e^{-e^{-\frac{x-\mu}{\sigma}}} & \text{if } \xi = 0. \end{cases}$$ के सापेक्ष सामान्यीकृत चरम मूल्य वितरण का अनुसरण करता है। और सी.डी.एफ. $$F(x) = \begin{cases} \exp\left(-\left(1+\xi\frac{x-\mu}{\sigma}\right)^{-{1}/{\xi}}\right) & \text{if }\xi \ne 0,\\ \exp\left(-e^{-\frac{x-\mu}{\sigma}}\right) & \text{if }\xi = 0. \end{cases}$$ अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = \begin{cases} -\mu - \frac{\sigma}{\alpha \xi} \big[ \Gamma(1-\xi,-\ln\alpha)-\alpha \big] & \text{if }\xi \ne 0,\\ -\mu - \frac{\sigma}{\alpha} \big[ \text{li}(\alpha) - \alpha \ln(-\ln \alpha) \big] & \text{if }\xi = 0. \end{cases}$$ समान होती है और वीएआर के $$\operatorname{VaR}_\alpha(X) = \begin{cases} -\mu - \frac{\sigma}{\xi} \left[(-\ln \alpha)^{-\xi}-1 \right] & \text{if }\xi \ne 0,\\ -\mu + \sigma \ln(-\ln\alpha) & \text{if }\xi = 0. \end{cases}$$ समान होता है, जहाँ $$\Gamma(s,x)$$ ऊपरी अधूरा गामा फलन, $$\mathrm{li}(x) = \int \frac{dx}{\ln x}$$ लघुगणकीय अभिन्न फलन होता है.

यदि किसी जानकारी संग्रह का हानि हो $$L$$ सामान्यीकृत चरम मूल्य वितरण का अनुसरण करता है, तो अपेक्षित न्यूनता $$\operatorname{ES}_\alpha(X) = \begin{cases} \mu + \frac{\sigma}{(1-\alpha) \xi} \bigl[ \gamma(1-\xi,-\ln\alpha)-(1-\alpha) \bigr] & \text{if }\xi \ne 0,\\ \mu + \frac{\sigma}{1-\alpha} \bigl[y - \text{li}(\alpha) + \alpha \ln(-\ln \alpha) \bigr] & \text{if }\xi = 0. \end{cases}$$ समान होती है, जहाँ $$\gamma(s,x)$$ निम्न अपूर्ण गामा फलन है, और $$y$$ यूलर-मास्चेरोनी स्थिरांक होती है।

सामान्यीकृत हाइपरबोलिक सेकेंट (जीएचएस) वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पी.डी.एफ. $$f(x) = \frac{1}{2 \sigma} \operatorname{sech}\left(\frac{\pi}{2} \frac{x-\mu}{\sigma}\right)$$ के सापेक्ष हाइपरबोलिक सेकेंट वितरण का अनुसरण करता है। और सी.डी.एफ. $$F(x) = \frac{2}{\pi}\arctan\left[\exp\left(\frac{\pi}{2}\frac{x-\mu}{\sigma}\right)\right]$$ तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = - \mu - \frac{2\sigma}{\pi} \ln\left( \tan \frac{\pi\alpha}{2} \right) - \frac{2\sigma}{\pi^2\alpha}i\left[\operatorname{Li}_2\left(-i\tan\frac{\pi\alpha}{2}\right)-\operatorname{Li}_2\left(i\tan\frac{\pi\alpha}{2}\right)\right]$$ समान होता है, जहाँ $$\operatorname{Li}_2$$ स्पेंस का कार्य एक, $$i=\sqrt{-1}$$ काल्पनिक इकाई होती है।.

जॉनसन का एसयू-वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ सी.डी.एफ. के सापेक्ष $$F(x) = \Phi\left[\gamma+\delta\sinh^{-1}\left(\frac{x-\xi}{\lambda}\right)\right]$$ जॉनसन के एसयू-वितरण का अनुसरण करता है। तो अपेक्षित न्यूनता $$\operatorname{ES}_\alpha(X) = -\xi - \frac{\lambda}{2\alpha} \left[ \exp\left(\frac{1-2\gamma\delta}{2\delta^2}\right) \; \Phi\left(\Phi^{-1}(\alpha)-\frac{1}{\delta}\right) - \exp\left(\frac{1+2\gamma\delta}{2\delta^2}\right) \; \Phi\left(\Phi^{-1}(\alpha)+\frac{1}{\delta}\right) \right]$$ समान होती है, जहाँ $$\Phi$$ मानक सामान्य वितरण का सी.डी.एफ होता.है।.

बर टाइप XII वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ बर्र टाइप XII वितरण का अनुसरण करता है तो पी.डी.एफ. $$f(x) = \frac{ck}{\beta} \left(\frac{x-\gamma}{\beta}\right)^{c-1} \left[1+\left(\frac{x-\gamma}{\beta} \right)^c\right]^{-k-1}$$ और सी.डी.एफ. $$F(x) = 1-\left[1+\left(\frac{x-\gamma}{\beta} \right)^c \right]^{-k}$$, अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = - \gamma - \frac{\beta}{\alpha} \left( (1-\alpha)^{-1/k}-1 \right)^{1/c} \left[ \alpha -1+{_2F_1}\left(\frac{1}{c},k;1+\frac{1}{c};1-(1-\alpha)^{-1/k}\right) \right]$$ समान होता है, जहाँ $$_2F_1$$ वैकल्पिक रूप से हाइपरजियोमेट्रिक फलन  होता है।.

सुई वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ पीडीएफ के सापेक्ष $$f(x) = \frac{ck}{\beta} \left(\frac{x-\gamma}{\beta}\right)^{ck-1} \left[1+\left(\frac{x-\gamma}{\beta}\right)^c\right]^{-k-1}$$ डैगम वितरण का अनुसरण करता है। और सी.डी.एफ. $$F(x) = \left[1+\left(\frac{x-\gamma}{\beta}\right)^{-c}\right]^{-k}$$, अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = - \gamma - \frac{\beta}{\alpha} \frac{ck}{ck+1} \left( \alpha^{-1/k}-1 \right)^{-k-\frac{1}{c}} {_2F_1}\left(k+1,k+\frac{1}{c};k+1+\frac{1}{c};-\frac{1}{\alpha^{-1/k}-1}\right) $$ समान है, जहाँ $$_2F_1$$ हाइपरजियोमेट्रिक फलन होता है.।

लॉगनॉर्मल वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ लॉग-सामान्य वितरण, अर्थात यादृच्छिक चर $$\ln(1+X)$$ का अनुसरण करता है पी.डी.एफ. के सापेक्ष $$f(x) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}$$ सामान्य वितरण का अनुसरण करता है। तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = 1 - \exp\left(\mu+\frac{\sigma^2}{2}\right) \frac{\Phi\left(\Phi^{-1}(\alpha)-\sigma\right)}{\alpha}$$ समान है, जहाँ $$\Phi(x)$$ मानक सामान्य सी.डी.एफ होती है, इसलिए $$\Phi^{-1}(\alpha)$$ मानक सामान्य मात्रा होती है।.

लॉग-लॉजिस्टिक वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ लॉग-लॉजिस्टिक वितरण, अर्थात यादृच्छिक चर $$\ln(1+X)$$ का अनुसरण करता है पी.डी.एफ. के सापेक्ष लॉजिस्टिक वितरण का $$f(x) = \frac{1}{s} e^{-\frac{x-\mu}{s}} \left(1+e^{-\frac{x-\mu}{s}}\right)^{-2}$$ अनुसरण करता है।, तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = 1-\frac{e^\mu}{\alpha}I_\alpha(1+s,1-s)\frac{\pi s}{\sin\pi s}$$ समान होता है , जहाँ $$I_\alpha$$ अपूर्ण बीटा फलन $$I_\alpha(a,b)=\frac{\Beta_\alpha(a,b)}{\Beta(a,b)}$$ होती है,.

क्योंकी अपूर्ण बीटा फलन को केवल सकारात्मक तर्कों के लिए परिभाषित किया गया है, अधिक सामान्य परिस्थिति के लिए अपेक्षित न्यूनता को हाइपरजियोमेट्रिक फलन के सापेक्ष $$\operatorname{ES}_\alpha(X) = 1-\frac{e^\mu \alpha^s}{s+1} {_2F_1}(s,s+1;s+2;\alpha)$$ व्यक्त किया जा सकता है:.

यदि किसी जानकारी संग्रह का हानि हो $$L$$ पीडीएफ के सापेक्ष लॉग-लॉजिस्टिक वितरण का अनुसरण करता है। $$f(x) = \frac{\frac{b}{a}(x/a)^{b-1}}{(1+(x/a)^b)^2}$$ और सी.डी.एफ. $$F(x) = \frac{1}{1+(x/a)^{-b}}$$, तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(L) = \frac{a}{1-\alpha} \left[ \frac{\pi}{b} \csc\left(\frac{\pi}{b}\right) - \Beta_\alpha \left(\frac{1}{b}+1,1-\frac{1}{b}\right) \right]$$ समान होता है, जहाँ $$B_\alpha$$ अधूरा बीटा फलन होता है.

लॉग-लाप्लास वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ लॉग-लाप्लास वितरण, अर्थात यादृच्छिक चर का अनुसरण करता है $$\ln(1+X)$$ पी.डी.एफ. लाप्लास वितरण का $$f(x) = \frac{1}{2b}e^{-\frac{|x-\mu|}{b}}$$ अनुसरण करता है।, तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = \begin{cases} 1 - \frac{e^\mu (2\alpha)^b}{b+1} & \text{if }\alpha \le 0.5,\\ 1 - \frac{e^\mu 2^{-b}}{\alpha(b-1)} \left[(1-\alpha)^{(1-b)}-1\right] & \text{if } \alpha > 0.5. \end{cases}$$ समान होता है।.

लॉग-सामान्यीकृत हाइपरबोलिक सेकेंट (लॉग-जीएचएस) वितरण
यदि किसी जानकारी संग्रह का भुगतान $$X$$ लॉग-जीएचएस वितरण, अर्थात यादृच्छिक चर का अनुसरण करता है $$\ln(1+X)$$ पी.डी.एफ. के सापेक्ष $$f(x) = \frac{1}{2 \sigma} \operatorname{sech} \left(\frac{\pi}{2}\frac{x-\mu}{\sigma}\right)$$ हाइपरबोलिक सेकेंट वितरण का अनुसरण करता है।, तो अपेक्षित न्यूनता के $$\operatorname{ES}_\alpha(X) = 1 - \frac{1}{\alpha(\sigma+{\pi/2})} \left(\tan\frac{\pi \alpha}{2}\exp\frac{\pi \mu}{2\sigma}\right)^{2\sigma/\pi} \tan\frac{\pi \alpha}{2} {_2F_1}\left(1,\frac{1}{2}+\frac{\sigma}{\pi};\frac{3}{2}+\frac{\sigma}{\pi};-\tan\left(\frac{\pi \alpha}{2}\right)^2\right)$$ समान है , जहाँ $$_2F_1$$ हाइपरजियोमेट्रिक फलन है।.

गतिशील अपेक्षित न्यूनता
समय t पर अपेक्षित न्यूनता का सशर्त संकट माप संस्करण द्वारा परिभाषित किया गया है


 * $$\operatorname{ES}_\alpha^t(X) = \operatorname{ess\sup}_{Q \in \mathcal{Q}_{\alpha}^t} E^Q[-X \mid \mathcal{F}_t]$$

जहाँ

$$\mathcal{Q}_{\alpha}^t = \left\{Q = P\,\vert_{\mathcal{F}_t}: \frac{dQ}{dP} \leq \alpha_t^{-1} \text{ a.s.}\right\} $$.

यह समय-संगत संकट का हल नहीं है। समय-संगत संस्करण द्वारा दिया गया है
 * $$\rho_{\alpha}^t(X) = \operatorname{ess\sup}_{Q \in \tilde{\mathcal{Q}}_{\alpha}^t} E^Q[-X\mid\mathcal{F}_t]$$

इस प्रकार कि
 * $$\tilde{\mathcal{Q}}_{\alpha}^t = \left\{Q \ll P: \operatorname{E}\left[\frac{dQ}{dP} \mid \mathcal{F}_{\tau+1} \right] \leq \alpha_t^{-1} \operatorname{E}\left[\frac{dQ}{dP} \mid \mathcal{F}_{\tau}\right] \; \forall \tau \geq t \text{ a.s.}\right\}.$$

होता है।

यह भी देखें

 * सुसंगत संकट उपाय
 * स्टोकेस्टिक प्रोग्रामिंग के लिए विस्तारित गणितीय प्रोग्रामिंग (ईएमपी) #ईएमपी - ईएस और वीएआर से जुड़ी अनुकूलन समस्याओं के लिए समाधान प्रौद्योगिकी
 * एन्ट्रोपिक मूल्य खतरे में है
 * किसी चुनौती के आधार पर उसकी कीमत

वैश्विक आंकड़े, ईंटेग्रेशन एवं योगदान को लेकर भांसली एट एल. और नोवाक में वैर और ईएस के आंकड़े का सांख्यिकीय अनुमान करने के विधि मिलते हैं। वैर और ईएस के पूर्वानुमान करते समय, या जानकारी संग्रहं को पूंछ की संकट को न्यूनतम करने के लिए अनुकूलित करते समय, स्टॉक वापसी की वितरण में असममिति और गैर-सामान्यताओं को समान्यताओं की आकस्मिकता, असममिति, और विकेंद्रता जैसे गैर-साधारण प्रभावों को ध्यान में रखना महत्वपूर्ण होता है।

बाहरी संबंध

 * Rockafellar, Uryasev: Optimization of conditional Value-at-Risk, 2000.
 * C. Acerbi and D. Tasche: On the Coherence of Expected Shortfall, 2002.
 * Rockafellar, Uryasev: Conditional Value-at-Risk for general loss distributions, 2002.
 * Acerbi: Spectral measures of risk, 2005
 * Phi-Alpha optimal portfolios and extreme risk management, Best of Wilmott, 2003
 * "Coherent measures of Risk", Philippe Artzner, Freddy Delbaen, Jean-Marc Eber, and David Heath