एफ परीक्षण

एक एफ-परीक्षण कोई भी सांख्यिकीय परीक्षण है जिसमें परीक्षण सांख्यिकी का शून्य परिकल्पना के तहत एफ-वितरण|एफ-वितरण होता है। इसका सबसे अधिक उपयोग तब किया जाता है जब मॉडल का चयन किया जाता है जिसे आंकड़े सेट में फिट किया जाता है, ताकि उस मॉडल की पहचान की जा सके जो जनसंख्या (आँकड़ों) से सबसे अच्छा फिट बैठता है जिससे डेटा का नमूना लिया गया था। सटीक 'एफ'-परीक्षण मुख्य रूप से तब उत्पन्न होते हैं जब मॉडल को कम से कम वर्गों का उपयोग करके डेटा में फिट किया गया हो। यह नाम रोनाल्ड फिशर के सम्मान में जॉर्ज डब्ल्यू स्नेडेकोर द्वारा गढ़ा गया था। फिशर ने शुरू में 1920 के दशक में सांख्यिकीय को विचरण अनुपात के रूप में विकसित किया था।

सामान्य उदाहरण
एफ-परीक्षणों के उपयोग के सामान्य उदाहरणों में निम्नलिखित मामलों का अध्ययन शामिल है: इसके अलावा, कुछ सांख्यिकीय प्रक्रियाएं, जैसे रैखिक मॉडल में कई तुलनाओं के समायोजन के लिए शेफ़ की विधि, एफ-परीक्षणों का भी उपयोग करती हैं।
 * यह परिकल्पना कि सामान्य वितरण आबादी के दिए गए सेट का अंकगणितीय माध्य, सभी समान मानक विचलन वाले हैं, समान हैं। यह शायद सबसे प्रसिद्ध एफ-परीक्षण है, और भिन्नता (एनोवा) के विश्लेषण में एक महत्वपूर्ण भूमिका निभाता है।
 * परिकल्पना है कि एक प्रस्तावित प्रतिगमन मॉडल डेटा को अच्छी तरह से फिट करता है। वर्गों का अभाव-योग्य योग देखें।
 * परिकल्पना है कि एक प्रतिगमन विश्लेषण में एक डेटा सेट दो प्रस्तावित रैखिक मॉडल के सरलतम का अनुसरण करता है जो सांख्यिकीय मॉडल # एक दूसरे के भीतर नेस्टेड मॉडल हैं।

दो भिन्नताओं की समानता का एफ-परीक्षण
एफ-परीक्षण सामान्य वितरण|गैर-सामान्यता के मजबूत आंकड़े हैं। विचरण के विश्लेषण (ANOVA) में, वैकल्पिक परीक्षणों में लेवेने का परीक्षण, बार्टलेट का परीक्षण और ब्राउन-फोर्सिथ परीक्षण शामिल हैं। हालांकि, जब इनमें से कोई भी परीक्षण समरूपता (अर्थात् विचरण की एकरूपता) की अंतर्निहित धारणा का परीक्षण करने के लिए किया जाता है, तो माध्य प्रभावों के परीक्षण के लिए प्रारंभिक चरण के रूप में, प्रयोग-वार प्रकार I त्रुटि दर में वृद्धि होती है।

सूत्र और गणना
वर्गों के योगों के विभाजन के संदर्भ में डेटा के संग्रह में विचरण के अपघटन पर विचार करके अधिकांश एफ-परीक्षण उत्पन्न होते हैं। एफ-परीक्षण में परीक्षण आँकड़ा परिवर्तनशीलता के विभिन्न स्रोतों को दर्शाने वाले वर्गों के दो मापित योगों का अनुपात है। वर्गों के इन योगों का निर्माण इसलिए किया जाता है ताकि अशक्त परिकल्पना के सत्य न होने पर आँकड़ा अधिक हो जाए। एफ-वितरण का पालन करने के लिए आंकड़े के लिए | शून्य परिकल्पना के तहत एफ-वितरण, वर्गों की रकम स्वतंत्रता (संभाव्यता सिद्धांत) होनी चाहिए, और प्रत्येक को स्केल्ड ची-स्क्वेर्ड वितरण |χ²-वितरण का पालन करना चाहिए। बाद की स्थिति की गारंटी है यदि डेटा मान स्वतंत्र हैं और एक सामान्य भिन्नता के साथ सामान्य वितरण है।

बहु-तुलना एनोवा समस्याएं
विचरण (एनोवा) के एकतरफा विश्लेषण में एफ-टेस्ट का उपयोग यह आकलन करने के लिए किया जाता है कि क्या कई पूर्व-निर्धारित समूहों के भीतर मात्रात्मक चर के अपेक्षित मान एक दूसरे से भिन्न हैं। उदाहरण के लिए, मान लीजिए कि एक चिकित्सा परीक्षण चार उपचारों की तुलना करता है। एनोवा एफ-टेस्ट का उपयोग यह आकलन करने के लिए किया जा सकता है कि क्या कोई भी उपचार औसत श्रेष्ठ या निम्न स्तर पर है, दूसरों की तुलना में अशक्त परिकल्पना है कि सभी चार उपचार समान औसत प्रतिक्रिया देते हैं। यह एक सर्वग्राही परीक्षण का एक उदाहरण है, जिसका अर्थ है कि कई संभावित अंतरों में से किसी का पता लगाने के लिए एकल परीक्षण किया जाता है। वैकल्पिक रूप से, हम उपचारों के बीच जोड़ीवार परीक्षण कर सकते हैं (उदाहरण के लिए, चार उपचारों के साथ चिकित्सीय परीक्षण उदाहरण में हम उपचारों के जोड़े के बीच छह परीक्षण कर सकते हैं)। एनोवा एफ-परीक्षण का लाभ यह है कि हमें पूर्व-निर्दिष्ट करने की आवश्यकता नहीं है कि किन उपचारों की तुलना की जानी है, और हमें कई तुलना करने के लिए समायोजित करने की आवश्यकता नहीं है। एनोवा एफ-परीक्षण का नुकसान यह है कि यदि हम अशक्त परिकल्पना को अस्वीकार करते हैं, तो हम नहीं जानते कि कौन से उपचार दूसरों से महत्वपूर्ण रूप से भिन्न कहे जा सकते हैं, और न ही, यदि एफ-परीक्षण स्तर α पर किया जाता है, तो क्या हम बता सकते हैं सबसे बड़े माध्य अंतर वाली उपचार जोड़ी स्तर α पर महत्वपूर्ण रूप से भिन्न होती है।

एक तरफ़ा 'ANOVA' F-परीक्षण परीक्षण आँकड़ा का सूत्र है


 * $$F = \frac{\text{explained variance}}{\text{unexplained variance}} ,$$

या


 * $$F = \frac{\text{between-group variability}}{\text{within-group variability}}.$$

समझाया गया विचरण, या बीच-समूह परिवर्तनशीलता है



\sum_{i=1}^{K} n_i(\bar{Y}_{i\cdot} - \bar{Y})^2/(K-1) $$ कहाँ $$\bar{Y}_{i\cdot}$$ i-वें समूह में औसत को दर्शाता है, $$n_i$$ i-वें समूह में प्रेक्षणों की संख्या है,$$\bar{Y}$$ डेटा के समग्र माध्य को दर्शाता है, और $$K$$ समूहों की संख्या को दर्शाता है।

अस्पष्टीकृत प्रसरण, या भीतर-समूह परिवर्तनशीलता है



\sum_{i=1}^{K}\sum_{j=1}^{n_{i}} \left( Y_{ij}-\bar{Y}_{i\cdot} \right)^2/(N-K), $$ कहाँ $$Y_{ij}$$ जे हैवां i में अवलोकनवां बाहर $$K$$ समूह और $$N$$ समग्र नमूना आकार है। यह एफ-सांख्यिकीय स्वतंत्रता की डिग्री के साथ एफ-वितरण|एफ-वितरण का अनुसरण करता है $$d_1=K-1$$ और $$d_2=N-K$$ शून्य परिकल्पना के तहत। आँकड़ा बड़ा होगा यदि बीच-समूह परिवर्तनशीलता समूह-समूह परिवर्तनशीलता के सापेक्ष बड़ा है, जो कि होने की संभावना नहीं है यदि समूहों के अपेक्षित मूल्य सभी का मूल्य समान है।

ध्यान दें कि जब एक तरफ़ा ANOVA F-परीक्षण के लिए केवल दो समूह हों, $$F = t^{2}$$जहाँ t विद्यार्थी का t-परीक्षण है|छात्र का $$t$$ आँकड़ा।

प्रतिगमन समस्याएं
दो मॉडलों, 1 और 2 पर विचार करें, जहां मॉडल 1 मॉडल 2 के भीतर 'नेस्टेड' है। मॉडल 1 प्रतिबंधित मॉडल है, और मॉडल 2 अप्रतिबंधित है। यानी मॉडल 1 में पी है1 पैरामीटर, और मॉडल 2 में पी है2 पैरामीटर, जहां पी1<p2, और मॉडल 1 में मापदंडों के किसी भी विकल्प के लिए, समान प्रतिगमन वक्र को मॉडल 2 के मापदंडों के कुछ विकल्प द्वारा प्राप्त किया जा सकता है।

इस संबंध में एक सामान्य संदर्भ यह है कि यह तय करना है कि क्या कोई मॉडल एक सहज मॉडल की तुलना में डेटा को बेहतर ढंग से फिट करता है, जिसमें केवल व्याख्यात्मक शब्द इंटरसेप्ट शब्द है, ताकि निर्भर चर के लिए सभी अनुमानित मान उस चर के बराबर सेट किए जाएं। नमूना माध्य। भोला मॉडल प्रतिबंधित मॉडल है, क्योंकि सभी संभावित व्याख्यात्मक चर के गुणांक बराबर शून्य तक सीमित हैं।

एक अन्य सामान्य संदर्भ यह तय कर रहा है कि क्या डेटा में कोई संरचनात्मक विराम है: यहां प्रतिबंधित मॉडल एक प्रतिगमन में सभी डेटा का उपयोग करता है, जबकि अप्रतिबंधित मॉडल डेटा के दो अलग-अलग उपसमूहों के लिए अलग-अलग प्रतिगमन का उपयोग करता है। एफ-टेस्ट के इस प्रयोग को चाउ परीक्षण के नाम से जाना जाता है।

अधिक पैरामीटर वाला मॉडल हमेशा कम से कम डेटा के साथ-साथ कम पैरामीटर वाले मॉडल को फिट करने में सक्षम होगा। इस प्रकार आम तौर पर मॉडल 2 मॉडल 1 की तुलना में डेटा के लिए एक बेहतर (यानी कम त्रुटि) फिट करेगा। लेकिन अक्सर यह निर्धारित करना चाहता है कि मॉडल 2 डेटा के लिए काफी बेहतर फिट देता है या नहीं। इस समस्या का एक तरीका एफ-टेस्ट का उपयोग करना है।

यदि दोनों मॉडलों के मापदंडों का अनुमान लगाने के लिए एन डेटा बिंदु हैं, तो एफ आंकड़े की गणना कर सकते हैं, द्वारा दिया गया


 * $$F=\frac{\left(\frac{\text{RSS}_1 - \text{RSS}_2 }{p_2 - p_1}\right)}{\left(\frac{\text{RSS}_2}{n - p_2}\right)} ,$$

जहां आर.एस.एसi मॉडल i के वर्गों का अवशिष्ट योग है। यदि प्रतिगमन मॉडल की गणना भार के साथ की गई है, तो RSS को बदलेंi χ के साथ2, अवशिष्टों के वर्ग का भारित योग। अशक्त परिकल्पना के तहत कि मॉडल 2 मॉडल 1 की तुलना में काफी बेहतर फिट प्रदान नहीं करता है, F का F वितरण होगा, जिसमें (p2-पी1, एन−पी2) स्वतंत्रता की डिग्री (सांख्यिकी)। शून्य परिकल्पना को खारिज कर दिया जाता है यदि डेटा से गणना की गई एफ एफ-वितरण के महत्वपूर्ण मूल्य से अधिक है। कुछ वांछित झूठी-अस्वीकृति संभावना के लिए एफ-वितरण (उदाहरण के लिए 0.05)। चूँकि F संभावना अनुपात आँकड़ों का एक मोनोटोन फलन है, F-परीक्षण एक संभावना अनुपात परीक्षण है।

यह भी देखें

 * स्वस्थ भलाई

बाहरी संबंध

 * Table of F-test critical values
 * Free calculator for F-testing
 * The F-test for Linear Regression
 * by Mark Thoma