टोबिट मॉडल

आँकड़ों में, टोबिट मॉडल प्रतिगमन विश्लेषण का वर्ग है जिसमें आश्रित और स्वतंत्र चर की देखी गई सीमा सेंसरिंग (सांख्यिकी) है। यह शब्द जेम्स टोबिन के संदर्भ में आर्थर गोल्डबर्गर द्वारा गढ़ा गया था, जिन्होंने 1958 में शून्य-फुलाया मॉडल की समस्या को कम करने के लिए मॉडल विकसित किया। इस प्रकार से टिकाऊ वस्तुओं पर घरेलू खर्च के अवलोकन के लिए जीरो-इन्फ्लेटेड डेटा।  क्योंकि ट्रंकेशन (सांख्यिकी) और अन्य गैर-यादृच्छिक रूप से चुने गए नमूनों को संभालने के लिए टोबिन की विधि को सरलता से बढ़ाया जा सकता है, कुछ लेखक टोबिट मॉडल की व्यापक परिभाषा अपनाते हैं जिसमें ये स्तिथियों सम्मिलित होते हैं।

इस प्रकार से टोबिन का विचार संभावित कार्य को संशोधित करना था किन्तु यह प्रत्येक अवलोकन के लिए असमान नमूना करण संभावना को दर्शाता है कि अव्यक्त चर निर्धारित सीमा से ऊपर या नीचे गिर गया है या नहीं। नमूने के लिए, जैसा कि टोबिन के मूल स्तिथियों में, नीचे से शून्य पर सेंसर किया गया था, प्रत्येक गैर-सीमा अवलोकन के लिए नमूना संभावना केवल उचित घनत्व फलन की ऊंचाई है। किसी भी सीमा अवलोकन के लिए, यह संचयी वितरण है, यानी उपयुक्त घनत्व फलन के शून्य से नीचे का अभिन्न अंग होते है। टोबिट संभावना फलन इस प्रकार घनत्व और संचयी बंटन फलन का मिश्रण होता है।

संभावना फलन
इस प्रकार से टाइप I टोबिट के लिए संभावना और log संभावना फ़ंक्शन नीचे दिए गए हैं। यह टोबिट है जिसे नीचे से सेंसर किया गया है $$ y_L $$ जब अव्यक्त चर $$ y_j^* \leq y_L $$. सम्भावना फलन लिखने में, हम पहले सूचक $$ I $$ फलन को परिभाषित करते हैं :


 * $$ I(y) = \begin{cases}

0 & \text{if } y \leq y_L, \\ 1  & \text{if } y > y_L. \end{cases}$$ अगला, चलो $$ \Phi $$ मानक सामान्य संचयी बंटन फलन हो और $$ \varphi $$ मानक सामान्य संभाव्यता घनत्व फलन होना। अवलोकनों N के साथ सेट किए गए डेटा के लिए टाइप I टोबिट के लिए संभावना कार्य है


 * $$ \mathcal{L}(\beta, \sigma) = \prod _{j=1}^N \left(\frac{1}{\sigma}\varphi \left(\frac{y_j-X_j\beta }{\sigma} \right)\right)^{I(y_j)} \left(1-\Phi \left(\frac{X_j\beta-y_L}{\sigma}\right)\right)^{1-I(y_j)}$$

और log संभावना द्वारा दी गई है
 * $$\begin{align}

\log \mathcal{L}(\beta, \sigma) &= \sum^n_{j = 1} I(y_j) \log \left( \frac{1}{\sigma} \varphi\left( \frac{y_j - X_j\beta}{\sigma} \right) \right) + (1 - I(y_j)) \log\left( 1- \Phi\left( \frac{X_j \beta - y_L}{\sigma} \right) \right) \\ &= \sum_{y_j>y_L} \log \left( \frac{1}{\sigma} \varphi\left( \frac{y_j - X_j\beta}{\sigma} \right) \right) + \sum_{y_j=y_L} \log\left( \Phi\left( \frac{ y_L - X_j \beta}{\sigma} \right) \right) \end{align}$$

रिपैरामेट्रिजेशन
जैसा कि ऊपर कहा गया है, log -लाइबिलिटी विश्व स्तर पर अवतल नहीं है, जो अधिकतम संभावना अनुमान को जटिल बनाता है। ओल्सेन ने सरल रीपरमेट्रिजेशन $$\beta = \delta/\gamma$$ और $$\sigma^2 = \gamma^{-2}$$ का सुझाव दिया, जिसके परिणामस्वरूप रूपांतरित log -लाइबिलिटी होती है,


 * $$\log \mathcal{L}(\delta, \gamma) = \sum_{y_j>y_L} \left\{ \log \gamma + \log \left[ \varphi\left( \gamma y_j - X_j \delta \right) \right] \right\} + \sum_{y_j=y_L} \log\left[ \Phi\left( \gamma y_L - X_j \delta \right) \right]$$

जो रूपांतरित मापदंडों के संदर्भ में विश्व स्तर पर अवतल है। ट्रंकेटेड (टूबिट II) मॉडल के लिए, ओर्मे ने दिखाया कि जबकि log -लाइबिलिटी विश्व स्तर पर अवतल नहीं है, यह उपरोक्त परिवर्तन के अधीन किसी भी स्थिर बिंदु पर अवतल है।

संगति
यदि संबंध पैरामीटर $$\beta$$ प्रेक्षित प्रतिगमन द्वारा अनुमान $$ y_i $$ को $$ x_i $$ पर पुनः प्राप्त करके लगाया जाता है, परिणामी सामान्य न्यूनतम वर्ग प्रतिगमन अनुमानक संगत अनुमानक है। यह ढलान गुणांक के नीचे-पक्षपाती अनुमान और अवरोधन के ऊपर-पक्षपाती अनुमान का उत्पादन करेगा। ताकेशी अमेमिया (1973) ने सिद्ध किया है कि इस मॉडल के लिए टोबिन द्वारा सुझाया गया अधिकतम संभावना अनुमानक सुसंगत किया है।

व्याख्या
$$\beta$$ h> गुणांक के प्रभाव के रूप में व्याख्या नहीं की जानी चाहिए $$x_i$$ पर $$y_i$$, जैसा कि रेखीय प्रतिगमन मॉडल के साथ होगा; यह सामान्य त्रुटि है। इसके अतिरिक्त, इसे के संयोजन के रूप में व्याख्या किया जाना चाहिए

(1) में परिवर्तन $$y_i$$ सीमा से ऊपर वालों में से, सीमा से ऊपर होने की संभावना से भारित; और

(2) सीमा से ऊपर होने की संभावना में परिवर्तन, यदि ऊपर हो तो $$y_i$$ के अपेक्षित मान से भारित होता है

टोबिट मॉडल के रूपांतर
इस प्रकार से सेंसरिंग (सांख्यिकी) कहां और जब होती है, इसे परिवर्तन करके टोबिट मॉडल के परिवर्तित किए जा सकते हैं। इन भिन्नताओं को पाँच श्रेणियों में वर्गीकृत करता है (tobit type I - tobit type V), जहाँ tobit type I ऊपर वर्णित पहले मॉडल के लिए है। श्नेडलर (2005) टोबिट मॉडल के इन और अन्य विविधताओं के लिए निरंतर संभावना अनुमानक प्राप्त करने के लिए सामान्य सूत्र प्रदान करता है।

टाइप I
इस प्रकार से टोबिट मॉडल सेंसर किए गए प्रतिगमन मॉडल का विशेष स्तिथिय है, क्योंकि अव्यक्त चर $$y_i^*$$ स्वतंत्र चर $$ x_i $$ के रूप में सदैव नहीं देखा जा सकता है देखने योग्य है। टोबिट मॉडल का सामान्य परिवर्तन $$ y_L$$ मान पर सेंसर करना है शून्य से भिन्न:


 * $$ y_i = \begin{cases}

y_i^* & \text{if } y_i^* >y_L, \\ y_L  & \text{if } y_i^* \leq y_L. \end{cases}$$ एक अन्य उदाहरण उपरोक्त मान $$ y_U$$ को सेंसर करना है.


 * $$ y_i = \begin{cases}

y_i^* & \text{if } y_i^* <y_U, \\ y_U  & \text{if } y_i^* \geq y_U. \end{cases}$$ फिर भी और मॉडल का परिणाम जब $$ y_i $$ होता है ही समय में ऊपर और नीचे से सेंसर किया जाता है।


 * $$ y_i = \begin{cases}

y_i^* & \text{if } y_L0, \\ 0  & \text{if } y_{1i}^* \leq 0. \end{cases}$$ टाइप I टूबिट में, गुप्त चर भागीदारी की प्रक्रिया और ब्याज के परिणाम दोनों को अवशोषित करता है। टाइप II टूबिट भागीदारी (चयन) की प्रक्रिया और ब्याज के परिणाम को स्वतंत्र होने की अनुमति देता है, अवलोकन योग्य डेटा पर सशर्त होता है।

हेकमैन सुधार टाइप II टोबिट में आता है, जिसे कभी-कभी जेम्स हेकमैन के नाम पर हेकिट कहा जाता है।

टाइप III
टाइप III दूसरे देखे गए आश्रित चर का परिचय देता है।
 * $$ y_{1i} = \begin{cases}

y_{1i}^* & \text{if } y_{1i}^* >0, \\ 0  & \text{if } y_{1i}^* \leq 0. \end{cases}$$
 * $$ y_{2i} = \begin{cases}

y_{2i}^* & \text{if } y_{1i}^* >0, \\ 0  & \text{if } y_{1i}^* \leq 0. \end{cases}$$ हेक्मैन सुधार मॉडल इस प्रकार में आता है।

टाइप IV
टाइप IV तीसरा अवलोकित आश्रित चर और तीसरा अव्यक्त चर प्रस्तुत करता है।
 * $$ y_{1i} = \begin{cases}

y_{1i}^* & \text{if } y_{1i}^* >0, \\ 0  & \text{if } y_{1i}^* \leq 0. \end{cases}$$
 * $$ y_{2i} = \begin{cases}

y_{2i}^* & \text{if } y_{1i}^* >0, \\ 0  & \text{if } y_{1i}^* \leq 0. \end{cases}$$
 * $$ y_{3i} = \begin{cases}

y_{3i}^* & \text{if } y_{1i}^* \leq0, \\ 0  & \text{if } y_{1i}^*  <0. \end{cases}$$

वी टाइप करें
प्रकार II के समान, प्रकार V में केवल का चिह्न $$y_{1i}^*$$ देखा जाता है।
 * $$ y_{2i} = \begin{cases}

y_{2i}^* & \text{if } y_{1i}^* >0, \\ 0  & \text{if } y_{1i}^* \leq 0. \end{cases}$$
 * $$ y_{3i} = \begin{cases}

y_{3i}^* & \text{if } y_{1i}^* \leq 0, \\ 0  & \text{if } y_{1i}^* > 0. \end{cases}$$

गैर पैरामीट्रिक संस्करण
यदि अंतर्निहित अव्यक्त चर $$y_i^*$$ सामान्य रूप से वितरित नहीं किया जाता है, किसी को विश्लेषण करने के लिए क्षणों के अतिरिक्त क्वांटाइल्स का उपयोग करना चाहिए

देखने योग्य चर $$y_i$$. पॉवेल का सीएलएडी अनुमानक इसे प्राप्त करने का संभावित तरीका प्रदान करता है।

अनुप्रयोग
उदाहरण के लिए, टोबिट मॉडल को उप-राष्ट्रीय सरकारों को वितरित वित्तीय हस्तांतरण सहित अनुदान प्राप्ति को प्रभावित करने वाले कारकों का अनुमान लगाने के लिए प्रयुक्त किया गया है, जो इन अनुदानों के लिए आवेदन कर सकते हैं। इन स्तिथियों में, अनुदान प्राप्तकर्ताओं को नकारात्मक राशि प्राप्त नहीं हो सकती है, और इस प्रकार डेटा को सेंसर कर दिया जाता है। उदाहरण के लिए, डहलबर्ग और जोहानसन (2002) ने 115 नगर पालिकाओं (जिनमें से 42 को अनुदान प्राप्त हुआ) के नमूने का विश्लेषण किया। डुबॉइस और फत्तोर (2011) पोलिश उप-राष्ट्रीय सरकारों को प्रयुक्त करके यूरोपीय संघ निधि प्राप्ति में विभिन्न कारकों की भूमिका की जांच करने के लिए टोबिट मॉडल का उपयोग करते हैं। चूँकि डेटा को गलत विनिर्देशन के संकट के साथ शून्य से अधिक बिंदु पर बाएं सेंसर किया जा सकता है। कठोरता की जांच के लिए दोनों अध्ययन प्रोबिट और अन्य मॉडल प्रयुक्त करते हैं। कुछ वस्तुओं पर शून्य व्यय के साथ टिप्पणियों को समायोजित करने के लिए मांग विश्लेषण में टोबिट मॉडल भी प्रयुक्त किए गए हैं। टोबिट मॉडल के संबंधित अनुप्रयोग में, नॉनलाइनियर टूबिट रिग्रेशन मॉडल की प्रणाली का उपयोग संयुक्त रूप से होमोसेडेस्टिक, हेटेरोसेडेस्टिक और सामान्यीकृत हेटरोसेडेस्टिक वेरिएंट के साथ ब्रांड डिमांड प्रणाली का अनुमान लगाने के लिए किया गया है।

यह भी देखें

 * सामान्य बाधा मॉडल को काट दिया गया
 * सीमित निर्भर चर
 * शुद्ध करनेवाला (तंत्रिका नेटवर्क)
 * काटे गए प्रतिगमन मॉडल
 * प्रोबिट मॉडल, टोबिट नाम टोबिन, उनके निर्माता और प्रोबिट मॉडल के साथ उनकी समानता पर एक व्यंग्य है।
 * प्रोबिट मॉडल, टोबिट नाम टोबिन, उनके निर्माता और प्रोबिट मॉडल के साथ उनकी समानता पर एक व्यंग्य है।