नवीकरण सिद्धांत

नवीकरण सिद्धांत संभाव्यता सिद्धांत की शाखा है जो धारण समय के लिए पॉइसन प्रक्रिया को सामान्य करता है। घातांकी रूप से वितरण होल्डिंग समय के अतिरिक्त, नवीनीकरण प्रक्रिया में कोई भी स्वतंत्र और समान रूप से वितरित आईआईडी होल्डिंग समय हो सकता है जिसका परिमित माध्य हो। नवीनीकरण-रिवॉर्ड प्रक्रिया में अतिरिक्त रूप से प्रत्येक होल्डिंग समय पर किए गए रिवॉर्ड का यादृच्छिक क्रम होता है, जो आईआईडी हैं किंतु होल्डिंग समय से स्वतंत्र होने की आवश्यकता नहीं है।

नवीकरण प्रक्रिया में बड़ी संख्या और केंद्रीय सीमा प्रमेय के स्थिर नियम के समान स्पर्शोन्मुख गुण होते हैं। नवीनीकरण फलन $$m(t)$$ (आगमन की अपेक्षित संख्या) और रिवॉर्ड फलन $$g(t)$$ (अपेक्षित रिवॉर्ड मान) नवीकरण सिद्धांत में महत्वपूर्ण हैं। नवीकरण फलन पुनरावर्ती अभिन्न समीकरण को संतुष्ट करता है। प्रमुख नवीनीकरण समीकरण के कनवल्शन का सीमित मान देता है $$m'(t)$$ उपयुक्त गैर-नकारात्मक फलन के साथ मार्कोव नवीनीकरण प्रक्रियाओं की विशेष स्थति के रूप में नवीकरण प्रक्रियाओं के सुपरपोजिशन का अध्ययन किया जा सकता है।

अनुप्रयोगों के माध्यम से कारखाने में व्यर्थ हो चुकी मशीनरी को परिवर्तित करने के लिए सर्वोत्तम रणनीति की गणना करना और विभिन्न बीमा पॉलिसियों के दीर्घकालिक लाभों की तुलना करना सम्मिलित है। निरीक्षण विरोधाभास इस तथ्य से संबंधित है कि समय t पर नवीकरण अंतराल का अवलोकन औसत नवीनीकरण अंतराल की तुलना में औसत मान के साथ अंतराल देता है।

परिचय
नवीनीकरण प्रक्रिया प्वासों प्रक्रिया का सामान्यीकरण है। संक्षेप में, पॉइसन प्रक्रिया सकारात्मक पूर्णांकों (सामान्यतः शून्य से प्रारंभ) पर निरंतर-समय की मार्कोव प्रक्रिया है, जिसमें प्रत्येक पूर्णांक पर स्वतंत्र रूप से वितरित होल्डिंग समय होता है। $$i$$ अगले पूर्णांक तक जाने से पहले, $$i+1$$ नवीनीकरण प्रक्रिया में, होल्डिंग समय का घातीय वितरण होना आवश्यक नहीं है; अन्यथा, होल्डिंग समय का सकारात्मक संख्याओं पर वितरण हो सकता है, जब तक कि होल्डिंग समय स्वतंत्र और समान रूप से वितरित (आईआईडी) और परिमित माध्य हो।

औपचारिक परिभाषा
$$(S_i)_{i \geq 1}$$ परिमित अपेक्षित मान के साथ समान रूप से वितरित सकारात्मक स्वतंत्र समान रूप से वितरित रैंडम चर का अनुक्रम हो


 * $$ 0 < \operatorname{E}[S_i] < \infty. $$

हम यादृच्छिक चर का उल्लेख करते हैं $$S_i$$ के रूप में $$i$$-वें होल्डिंग समय है,

प्रत्येक n > 0 के लिए परिभाषित करें:


 * $$ J_n = \sum_{i=1}^n S_i, $$

प्रत्येक $$J_n$$ के रूप में जाना जाता है $$n$$-वें जम्प का समय और अंतराल $$[J_n,J_{n+1}]$$ को "नवीनीकरण अंतराल" कहा जाता है।

तब $$(X_t)_{t\geq0}$$ यादृच्छिक चर द्वारा दिया जाता है


 * $$ X_t = \sum^\infty_{n=1} \operatorname{\mathbb{I}}_{\{J_n \leq t\}}=\sup \left\{\, n: J_n \leq t\, \right\}$$

जहाँ $$\operatorname{\mathbb{I}}_{\{J_n \leq t\}}$$यादृच्छिक चर द्वारा दिया जाता है
 * $$\operatorname{\mathbb{I}}_{\{J_n \leq t\}} = \begin{cases}

1, & \text{if } J_n \leq t \\ 0, & \text{otherwise} \end{cases} $$

$$(X_t)_{t\geq0}$$ समय t द्वारा हुई जम्प की संख्या का प्रतिनिधित्व करता है, और इसे नवीनीकरण प्रक्रिया कहा जाता है।

व्याख्या
यदि कोई यादृच्छिक समय पर होने वाली घटनाओं पर विचार करता है, तो कोई होल्डिंग समय के बारे में सोच सकता है $$\{ S_i : i \geq 1 \}$$ निरन्तर दो घटनाओं के मध्य बीता हुआ यादृच्छिक समय है। उदाहरण के लिए, यदि नवीनीकरण प्रक्रिया विभिन्न मशीनों के विभक्त होने की संख्या को मॉडलिंग कर रही है, तो होल्डिंग समय मशीन के विभक्त होने से पहले दूसरी मशीन के विभक्त होने के मध्य के समय का प्रतिनिधित्व करता है।

पोइसन प्रक्रिया मार्कोव संपत्ति के साथ अद्वितीय नवीनीकरण प्रक्रिया है,क्योंकि घातीय वितरण मेमोरी लेस्स की संपत्ति के साथ अद्वितीय निरंतर यादृच्छिक चर है।

नवीनीकरण-रिवॉर्ड प्रक्रिया
$$W_1, W_2, \ldots$$ संतोषजनक आईआईडी यादृच्छिक चर (पुरस्कार) का क्रम हो,


 * $$\operatorname{E}|W_i| < \infty.\, $$

फिर यादृच्छिक चर


 * $$Y_t = \sum_{i=1}^{X_t}W_i $$

नवीनीकरण-रिवॉर्ड प्रक्रिया में कहा जाता है कि विपरीत $$S_i$$, प्रत्येक $$W_i$$ नकारात्मक मान के साथ-साथ सकारात्मक मान भी ले सकते हैं।

यादृच्छिक चर $$Y_t$$ दो अनुक्रमों पर निर्भर करता है: होल्डिंग समय $$S_1, S_2, \ldots$$ और रिवॉर्ड $$W_1, W_2, \ldots$$ इन दो अनुक्रमों को स्वतंत्र होने की आवश्यकता नहीं है। विशेष रूप से, $$W_i$$ फलन $$S_i$$ हो सकता है।

व्याख्या
मशीन के निरन्तर व्यर्थ होने के मध्य के समय के रूप में होल्डिंग समय की उपरोक्त व्याख्या के संदर्भ में, रिवॉर्ड $$W_1,W_2,\ldots$$ (जो इस स्थिति में नकारात्मक होता है) को क्रमिक व्यर्थ के परिणामस्वरूप होने वाली क्रमिक त्रुटिनिवारण व्यय के रूप में देखा जा सकता है।

वैकल्पिक सादृश्य यह है कि हमारे निकट मैजिक गूस है जो अंतराल पर संख्या देते है $$S_i$$ (होल्डिंग समय) के रूप में वितरित किया जाता है, कभी-कभी यह यादृच्छिक भार के रूप में संख्या देते है, (यादृच्छिक भार का भी) जिसके लिए उत्तरदायी (और उचित मूल्य) निवारण की आवश्यकता होती है। रिवॉर्ड $$W_i$$ उत्तरोत्तर संख्या (i = 1,2,3,...) और $$Y_t$$ समय t पर कुल वित्तीय रिवॉर्ड रिकॉर्ड करता है।

नवीनीकरण फलन
हम नवीनीकरण फलन को कुछ समय तक देखी गई जम्प की संख्या $$t$$ के अपेक्षित मान के रूप में परिभाषित करते हैं:


 * $$m(t) = \operatorname{E}[X_t].\, $$

एलीमेंट्री नवीनीकरण प्रमेय
नवीनीकरण फलन संतुष्ट करता है


 * $$\lim_{t \to \infty} \frac{1}{t} m(t) = \frac 1 {\operatorname{E}[S_1]}.$$
 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!Proof
 * The strong law of large numbers for renewal processes implies
 * The strong law of large numbers for renewal processes implies


 * $$\lim_{t \to \infty} \frac {X_t} t = \frac{1}{\operatorname{E}[S_1]}.$$

To prove the elementary renewal theorem, it is sufficient to show that $$\left\{\frac{X_t}{t}; t \geq 0 \right\}$$ is uniformly integrable.

To do this, consider some truncated renewal process where the holding times are defined by $$\overline{S_n} = a \operatorname{\mathbb{I}}\{S_n > a\}$$ where $$a$$ is a point such that $$0 < F(a) = p < 1 $$ which exists for all non-deterministic renewal processes. This new renewal process $$ \overline{X}_t $$ is an upper bound on $$ X_t $$ and its renewals can only occur on the lattice $$ \{na; n \in \mathbb{N} \} $$. Furthermore, the number of renewals at each time is geometric with parameter $$p$$. So we have



\begin{align} \overline{X_t} &\leq \sum_{i=1}^{[at]} \operatorname{Geometric}(p) \\ \operatorname{E}\left[\,\overline{X_t}^2\,\right] &\leq C_1 t + C_2 t^2 \\ P\left(\frac{X_t}{t} > x\right) &\leq \frac{\operatorname E\left[X_t^2\right]}{t^2x^2} \leq \frac{\operatorname E\left[\overline{X_t}^2\right]}{t^2x^2} \leq \frac{C}{x^2}. \end{align} $$
 * }

नवीनीकरण रिवॉर्ड प्रक्रियाओं के लिए प्राथमिक नवीनीकरण प्रमेय
हम रिवॉर्ड फलन को परिभाषित करते हैं:


 * $$g(t) = \operatorname{E}[Y_t].\, $$

रिवॉर्ड फलन संतुष्ट करता है


 * $$\lim_{t \to \infty} \frac{1}{t}g(t) = \frac{\operatorname{E}[W_1]}{\operatorname{E}[S_1]}.$$

नवीकरण समीकरण
नवीनीकरण फलन संतुष्ट करता है


 * $$m(t) = F_S(t) + \int_0^t m(t-s) f_S(s)\, ds $$

जहाँ $$F_S$$ का संचयी बंटन फलन है $$S_1$$ और $$f_S$$ संगत प्रायिकता घनत्व फलन है।


 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!सिद्ध
 * We may iterate the expectation about the first holding time:
 * We may iterate the expectation about the first holding time:


 * $$m(t) = \operatorname{E}[X_t] = \operatorname{E}[\operatorname{E}(X_t \mid S_1)]. \, $$

From the definition of the renewal process, we have


 * $$\operatorname{E}(X_t \mid S_1=s) = \operatorname{\mathbb{I}}_{\{t \geq s\}} \left( 1 + \operatorname{E}[X_{t-s}] \right). \, $$

So



\begin{align} m(t) & = \operatorname{E}[X_t] \\[12pt] & = \operatorname{E}[\operatorname{E}(X_t \mid S_1)] \\[12pt] & = \int_0^\infty \operatorname{E}(X_t \mid S_1=s) f_S(s)\, ds \\[12pt] & = \int_0^\infty \operatorname{\mathbb{I}}_{\{t \geq s\}} \left( 1 + \operatorname{E}[X_{t-s}] \right) f_S(s)\, ds \\[12pt] & = \int_0^t \left( 1 + m(t-s) \right) f_S(s)\, ds \\[12pt] & = F_S(t) + \int_0^t m(t-s) f_S(s)\, ds, \end{align}$$

as required.
 * }

प्रमुख नवीकरण प्रमेय
बता दें कि X नवीनीकरण फलन के साथ नवीनीकरण प्रक्रिया $$m(t)$$ और अंतराल का अर्थ $$\mu$$ है। $$g:[0,\infty) \rightarrow [0,\infty)$$ फलन संतोषजनक हो:
 * $$\int_0^\infty g(t)\, dt < \infty$$
 * g मोनोटोन और न बढ़ने वाला है

प्रमुख नवीकरण प्रमेय बताता है कि, जैसा कि $$t\rightarrow \infty$$:
 * $$\int_0^t g(t-x)m'(x) \, dx \rightarrow \frac{1}{\mu}\int_0^\infty g(x)\, dx$$

नवीनीकरण प्रमेय
$$g(x)=\mathbb{I}_{[0, h]}(x)$$ किसी के लिए $$h>0$$ की विशेष स्थिति के रूप में नवीकरण प्रमेय देता है:
 * $$m(t+h)-m(t)\rightarrow \frac{h}{\mu}$$ जैसा $$t\rightarrow \infty$$

परिणाम को अभिन्न समीकरणों का उपयोग करके या युग्मन (संभाव्यता) तर्क द्वारा सिद्ध किया जा सकता है।चूँकि प्रमुख नवीकरण प्रमेय की विशेष स्थिति है, इसका उपयोग चरण कार्यों पर विचार करके और फिर चरण कार्यों के अनुक्रमों को बढ़ाकर पूर्ण प्रमेय को निकालने के लिए किया जा सकता है।

स्पर्शोन्मुख गुण
नवीकरण प्रक्रियाओं और नवीकरण-रिवॉर्ड प्रक्रियाओं में बड़ी संख्या के स्थिर नियम के समान गुण होते हैं, जो एक ही प्रमेय से प्राप्त किए जा सकते हैं। यदि $$(X_t)_{t\geq0}$$ नवीनीकरण प्रक्रिया है और $$(Y_t)_{t\geq0}$$ नवीनीकरण-रिवॉर्ड प्रक्रिया है तो:


 * $$ \lim_{t \to \infty} \frac{1}{t} X_t = \frac{1}{\operatorname{E}[S_1]} $$


 * $$ \lim_{t \to \infty} \frac{1}{t} Y_t = \frac{1}{\operatorname{E}[S_1]} \operatorname{E}[W_1]$$

लगभग निश्चित रूप से,


 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!सिद्ध
 * First consider $$(X_t)_{t\geq0}$$. By definition we have:
 * First consider $$(X_t)_{t\geq0}$$. By definition we have:


 * $$J_{X_t} \leq t \leq J_{X_t+1}$$

for all $$t \geq 0$$ and so



\frac{J_{X_t}}{X_t} \leq \frac{t}{X_t} \leq \frac{J_{X_t+1}}{X_t} $$

for all t &ge; 0.

Now since $$0< \operatorname{E}[S_i] < \infty $$ we have:


 * $$X_t \to \infty$$

as $$t \to \infty$$ almost surely (with probability 1). Hence:


 * $$\frac{J_{X_t}}{X_t} = \frac{J_n}{n} = \frac{1}{n}\sum_{i=1}^n S_i \to \operatorname{E}[S_1] $$

almost surely (using the strong law of large numbers); similarly:


 * $$\frac{J_{X_t+1}}{X_t} = \frac{J_{X_t+1}}{X_t+1}\frac{X_t+1}{X_t} = \frac{J_{n+1}}{n+1}\frac{n+1}{n} \to \operatorname{E}[S_1]\cdot 1 $$

almost surely.

Thus (since $$t/X_t$$ is sandwiched between the two terms)



\frac{1}{t} X_t \to \frac{1}{\operatorname{E}[S_1]} $$

almost surely.

Next consider $$(Y_t)_{t\geq0}$$. We have


 * $$\frac{1}{t}Y_t = \frac{X_t}{t} \frac{1}{X_t} Y_t \to \frac{1}{\operatorname{E}[S_1]}\cdot\operatorname{E}[W_1] $$

almost surely (using the first result and using the law of large numbers on $$Y_t$$). नवीनीकरण प्रक्रियाओं में अतिरिक्त रूप से केंद्रीय सीमा प्रमेय के समान गुण होते हैं:
 * }


 * $$\frac{X_t-t/\mu}{\sqrt{t\sigma^2/\mu^3}}$$

निरीक्षण विरोधाभास
नवीकरण प्रक्रियाओं की लोकप्रिय विशेषता यह है कि यदि हम कुछ पूर्व निर्धारित समय t की प्रतीक्षा करते हैं और फिर निरीक्षण करते हैं कि t युक्त नवीकरण अंतराल कितना बड़ा है, तो हमें आशा करनी चाहिए कि यह औसत आकार के नवीनीकरण अंतराल से सामान्यतः बड़ा होगा।

गणितीय रूप से 'निरीक्षण विरोधाभास' कहता है: किसी भी t > 0 के लिए t युक्त नवीकरण अंतराल पहले नवीनीकरण अंतराल की तुलना में स्टोचैस्टिक रूप से बड़ा है। अर्थात्, सभी x > 0 और t > 0 के लिए:


 * $$ \operatorname{P}(S_{X_t+1} > x) \geq \operatorname{P}(S_1>x) = 1-F_S(x)$$

जहां FS आईआईडी होल्डिंग समय Si का संचयी वितरण फलन है, ज्वलंत उदाहरण 'बस प्रतीक्षा समय विरोधाभास' है: बस आगमन के दिए गए यादृच्छिक वितरण के लिए, बस स्टॉप पर औसत सवार बसों के औसत ऑपरेटर की तुलना में अधिक देरी देखता है।

विरोधाभास का संकल्प यह है कि समय t पर हमारा प्रारूप वितरण आकार-पक्षपाती है (प्रारूप पूर्वाग्रह देखें), इसमें अंतराल चयन की जाने की संभावना इसके आकार के समानुपाती होती है। चूँकि, औसत आकार का नवीनीकरण अंतराल आकार-पक्षपाती नहीं है।


 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!सिद्ध
 * Observe that the last jump-time before t is $$J_{X_t}$$; and that the renewal interval containing t is $$S_{X_t+1}$$. Then
 * Observe that the last jump-time before t is $$J_{X_t}$$; and that the renewal interval containing t is $$S_{X_t+1}$$. Then

\begin{align} \operatorname{P}(S_{X_t+1}>x) & {} = \int_0^\infty \operatorname{P}(S_{X_t+1}>x \mid J_{X_t} = s) f_{J_{X_t}}(s) \, ds \\[12pt] & {} = \int_0^\infty \operatorname{P}(S_{X_t+1}>x | S_{X_t+1}>t-s) f_{J_{X_t}}(s)\, ds \\[12pt] & {} = \int_0^\infty \frac{\operatorname{P}(S_{X_t+1}>x \,, \, S_{X_t+1}>t-s)}{\operatorname{P}(S_{X_t+1}>t-s)} f_{J_{X_t}}(s) \, ds \\[12pt] & {} = \int_0^\infty \frac{ 1-F(\max \{ x,t-s \}) }{1-F(t-s)} f_{J_{X_t}}(s) \, ds \\[12pt] & {} = \int_0^\infty \min \left\{\frac{ 1-F(x) }{1-F(t-s)},\frac{ 1-F(t-s)  }{1-F(t-s)}\right\} f_{J_{X_t}}(s) \, ds \\[12pt] & {} = \int_0^\infty \min \left\{\frac{ 1-F(x) }{1-F(t-s)},1\right\} f_{J_{X_t}}(s) \, ds \\[12pt] & {} \geq \int_0^\infty (1-F(x)) f_{J_{X_t}}(s) \, ds = 1-F(x) = \operatorname{P}(S_1>x),\\[12pt] \end{align} $$ since both $$\frac{ 1-F(x) }{1-F(t-s)}$$ and $$1$$ are greater than or equal to $$1-F(x)$$ for all values of s.
 * }

सुपरपोजिशन
जब तक नवीनीकरण प्रक्रिया पोइसन प्रक्रिया नहीं है, दो स्वतंत्र नवीनीकरण प्रक्रियाओं का सुपरपोजिशन (योग) नवीनीकरण प्रक्रिया नहीं है। चूँकि, ऐसी प्रक्रियाओं को मार्कोव नवीनीकरण प्रक्रियाओं नामक प्रक्रियाओं के एक बड़े वर्ग के भीतर वर्णित किया जा सकता है। चूँकि, सुपरपोज़िशन प्रक्रिया में पहली इंटर-इवेंट समय का संचयी वितरण फलन द्वारा दिया गया है
 * $$R(t) = 1 - \sum_{k=1}^K \frac{\alpha_k}{\sum_{l=1}^K \alpha_l} (1-R_k(t)) \prod_{j=1,j\neq k}^K \alpha_j \int_t^\infty (1-R_j(u))\,\text{d}u$$

जहां Rk(t) और αk> 0 इंटर-इवेंट समय का सीडीएफ है और प्रक्रिया की आगमन दर k है।

उदाहरण अनुप्रयोग
एरिक उद्यमी के निकट n मशीनें हैं, जिनमें से प्रत्येक का परिचालन जीवनकाल समान रूप से शून्य और दो वर्षों के मध्य वितरित किया गया है। एरिक प्रत्येक मशीन को तब तक चलने दे सकता है जब तक कि वह विफल न हो जाए और प्रतिस्थापन व्यय €2600; वैकल्पिक रूप से वह €200 की व्यय से किसी भी समय मशीन को परिवर्तित कर सकता है जबकि यह अभी भी कार्यात्मक है।

उसकी इष्टतम प्रतिस्थापन नीति क्या है?


 * {| class="toccolours collapsible collapsed" width="80%" style="text-align:left"

!समाधान
 * The lifetime of the n machines can be modeled as n independent concurrent renewal-reward processes, so it is sufficient to consider the case n=1. Denote this process by $$(Y_t)_{t \geq 0}$$. The successive lifetimes S of the replacement machines are independent and identically distributed, so the optimal policy is the same for all replacement machines in the process.
 * The lifetime of the n machines can be modeled as n independent concurrent renewal-reward processes, so it is sufficient to consider the case n=1. Denote this process by $$(Y_t)_{t \geq 0}$$. The successive lifetimes S of the replacement machines are independent and identically distributed, so the optimal policy is the same for all replacement machines in the process.

If Eric decides at the start of a machine's life to replace it at time 0 < t < 2 but the machine happens to fail before that time then the lifetime S of the machine is uniformly distributed on [0, t] and thus has expectation 0.5t. So the overall expected lifetime of the machine is:



\begin{align} \operatorname{E}[S] & = \operatorname{E}[S \mid \text{fails before } t] \cdot \operatorname{P}[\text{fails before } t] + \operatorname{E}[S \mid \text{does not fail before } t] \cdot \operatorname{P}[\text{does not fail before } t] \\[6pt] & = 0.5t(\frac{t}{2}) + t(\frac{2-t}{2}) \end{align} $$

and the expected cost W per machine is:



\begin{align} \operatorname{E}[W] & = \operatorname{E}[W \mid \text{fails before } t] \cdot \operatorname{P}(\text{fails before } t) + \operatorname{E}[W \mid \text{does not fail before } t]\cdot \operatorname{P}(\text{does not fail before } t) \\[6pt] & = 2600(\frac{t}{2}) + 200(\frac{2-t}{2}) = 1200t + 200. \end{align} $$

So by the strong law of large numbers, his long-term average cost per unit time is:



\frac{1}{t} Y_t \simeq \frac{\operatorname{E}[W]}{\operatorname{E}[S]} = \frac{ 4(1200t + 200) }{ t^2 + 4t - 2t^2 } $$

then differentiating with respect to t:



\frac{\partial}{\partial t} \frac{ 4(1200t + 200) }{ t^2 + 4t - 2t^2 } = 4\frac{ (4t - t^2)(1200) - (4 - 2t)(1200t + 200) }{ (t^2 + 4t - 2t^2)^2 }, $$

this implies that the turning points satisfy:



\begin{align} 0 & = (4t - t^2)(1200) - (4 - 2t)(1200t + 200) = 4800t - 1200t^2 -4800t - 800 + 2400t^2 + 400t \\[6pt] & = -800 + 400t + 1200t^2, \end{align} $$

and thus



0 = 3t^2 + t - 2 = (3t -2)(t+1). $$

We take the only solution t in [0, 2]: t = 2/3. This is indeed a minimum (and not a maximum) since the cost per unit time tends to infinity as t tends to zero, meaning that the cost is decreasing as t increases, until the point 2/3 where it starts to increase.
 * }

यह भी देखें

 * कैम्पबेल प्रमेय (प्रायिकता)
 * यौगिक पॉइसन प्रक्रिया
 * सतत समय मार्कोव प्रक्रिया
 * लिटिल लेम्मा
 * लोटका का अभिन्न समीकरण
 * हथेली-खिन्चाइन प्रमेय
 * पोइसन प्रक्रिया
 * केउटिंग सिद्धांत
 * अवशिष्ट समय
 * व्यर्थ सिद्धांत
 * सेमी-मार्कोव प्रक्रिया