रैखिक न्यूनतम वर्ग

From Vigyanwiki
Revision as of 20:23, 24 March 2023 by alpha>Poonam Singh

रेखीय न्यूनतम वर्ग (LLS) डेटा के रैखिक कार्यों का न्यूनतम वर्ग सन्निकटन है। यह रेखीय प्रतिगमन में सम्मिलित सांख्यिकीय समस्याओं को हल करने के लिए योगों का एक सेट है, जिसमें सामान्य न्यूनतम वर्ग (अनवेटेड), भारित न्यूनतम वर्ग और सामान्यीकृत न्यूनतम वर्ग (सहसंबद्ध) अवशिष्ट (सांख्यिकी) सम्मिलित हैं। रेखीय कम से कम वर्गों के लिए संख्यात्मक तरीकों में सामान्य समीकरणों और मैट्रिक्स अपघटन विधियों के मैट्रिक्स को बदलना सम्मिलित है।

मुख्य फॉर्मूलेशन

तीन मुख्य रैखिक न्यूनतम वर्ग योग हैं:

  • सामान्य न्यूनतम वर्ग (OLS) सबसे सामान्य अनुमानक है। ओएलएस अनुमानों का प्रयोग सामान्यतः प्रयोगात्मक और अवलोकन संबंधी अध्ययन डेटा दोनों का विश्लेषण करने के लिए किया जाता है।
    OLS पद्धति आँकड़ों में चुकता त्रुटियों और अवशिष्टों के योग को कम करती है, और अज्ञात पैरामीटर सदिश β के अनुमानित मान के लिए एक बंद-रूप अभिव्यक्ति की ओर ले जाती है:
    कहाँ एक वेक्टर है जिसका ith तत्व निर्भर चर का ith अवलोकन है, और एक आव्यूह है जिसका ij अवयव jवें स्वतंत्र चर का iवां प्रेक्षण है। अनुमानक एक अनुमानक और सुसंगत अनुमानक का पूर्वाग्रह है यदि त्रुटियों में परिमित विचरण है और प्रतिगामी के साथ असंबद्ध हैं:[1]
    कहाँ मैट्रिक्स की पंक्ति i का स्थानान्तरण है यह धारणा के अनुसार दक्षता (सांख्यिकी) भी है कि त्रुटियों में परिमित विचरण है और समरूपता है, जिसका अर्थ है कि E[εi2</उप>|एक्सi] i पर निर्भर नहीं है। यह स्थिति कि त्रुटियां प्रतिगमनकर्ताओं के साथ असंबद्ध हैं, सामान्यतः एक प्रयोग में संतुष्ट होंगी, लेकिन अवलोकन संबंधी डेटा के मामले में, छोड़े गए सहसंयोजक z की संभावना को बाहर करना मुश्किल है जो कि देखे गए सहसंयोजक और प्रतिक्रिया चर दोनों से संबंधित है . इस तरह के सहसंयोजक का अस्तित्व सामान्यतः प्रतिगामी और प्रतिक्रिया चर के बीच एक सहसंबंध की ओर ले जाएगा, और इसलिए 'β' के एक असंगत अनुमानक के लिए। समरूपता की स्थिति प्रयोगात्मक या अवलोकन संबंधी डेटा के साथ विफल हो सकती है। यदि लक्ष्य या तो अनुमान या भविष्य कहनेवाला मॉडलिंग है, तो बहुसंरेखता उपस्तिथ होने पर OLS अनुमानों का प्रदर्शन खराब हो सकता है, जब तक कि नमूना आकार बड़ा न हो।
  • 'भारित न्यूनतम वर्ग' (WLS) का उपयोग तब किया जाता है जब मॉडल की त्रुटि शर्तों में विषमलैंगिकता उपस्तिथ होती है।
  • 'सामान्यीकृत न्यूनतम वर्ग' (जीएलएस) ओएलएस पद्धति का एक विस्तार है, जो β के कुशल अनुमान की अनुमति देता है जब या तो विषमलैंगिकता, या सहसंबंध, या दोनों मॉडल की त्रुटि शर्तों के बीच उपस्तिथ होते हैं, जब तक कि विषमलैंगिकता का रूप और सहसंबंध डेटा से स्वतंत्र रूप से जाना जाता है। विषमलैंगिकता को संभालने के लिए जब त्रुटि शब्द एक दूसरे के साथ असंबद्ध होते हैं, GLS भारित एनालॉग को OLS प्रतिगमन से चुकता अवशेषों के योग में कम कर देता है, जहां i के लिए वजन</supcase var(ε) के व्युत्क्रमानुपाती हैi). जीएलएस के इस विशेष मामले को भारित न्यूनतम वर्ग कहा जाता है। अनुमान समस्या का GLS समाधान है
    जहां Ω त्रुटियों का सहप्रसरण मैट्रिक्स है। जीएलएस को डेटा में एक रैखिक परिवर्तन लागू करने के रूप में देखा जा सकता है ताकि रूपांतरित डेटा के लिए ओएलएस की मान्यताओं को पूरा किया जा सके। जीएलएस को लागू करने के लिए, त्रुटियों की सहप्रसरण संरचना को गुणक स्थिरांक तक जाना जाना चाहिए।

वैकल्पिक फॉर्मूलेशन

अन्य योगों में सम्मिलित हैं:

  • पुनरावर्ती रूप से कम से कम वर्गों को फिर से भारित किया गया (आईआरएलएस) का उपयोग तब किया जाता है जब विषमलैंगिकता, या सहसंबंध, या दोनों मॉडल की त्रुटि शर्तों के बीच उपस्तिथ होते हैं, लेकिन जहां डेटा से स्वतंत्र रूप से त्रुटियों की सहप्रसरण संरचना के बारे में बहुत कम जानकारी होती है।[2] पहले पुनरावृत्ति में, OLS, या GLS एक अनंतिम सहप्रसरण संरचना के साथ किया जाता है, और अवशिष्टों को फिट से प्राप्त किया जाता है। अवशिष्टों के आधार पर, त्रुटियों की सहप्रसरण संरचना का एक बेहतर अनुमान सामान्यतः प्राप्त किया जा सकता है। वजन को परिभाषित करने के लिए त्रुटि संरचना के इस अनुमान का उपयोग करके बाद में जीएलएस पुनरावृत्ति का प्रदर्शन किया जाता है। प्रक्रिया को अभिसरण के लिए पुनरावृत्त किया जा सकता है, लेकिन कई स्थितियों में, केवल एक पुनरावृत्ति β के कुशल अनुमान को प्राप्त करने के लिए पर्याप्त है।[3][4]
  • वाद्य चर प्रतिगमन (IV) तब किया जा सकता है जब प्रतिगमन त्रुटियों के साथ सहसंबद्ध होते हैं। इस मामले में, हमें कुछ सहायक 'वाद्य चर' z के अस्तित्व की आवश्यकता हैi ऐसा है कि ई [जेडiεi] = 0। यदि Z उपकरणों का मैट्रिक्स है, तो अनुमानक को बंद रूप में दिया जा सकता है
    इष्टतम उपकरण प्रतिगमन उस स्थिति के लिए शास्त्रीय IV प्रतिगमन का विस्तार है जहां E[εi | zi] = 0.
  • कुल न्यूनतम वर्ग (TLS)[5] रेखीय प्रतिगमन मॉडल के कम से कम वर्गों के अनुमान के लिए एक दृष्टिकोण है जो ओएलएस की तुलना में अधिक ज्यामितीय रूप से सममित तरीके से कोवरिएट्स और प्रतिक्रिया चर का इलाज करता है। यह चर समस्या में त्रुटियों को संभालने का एक तरीका है, और कभी-कभी इसका उपयोग तब भी किया जाता है जब सहसंयोजकों को त्रुटि-मुक्त माना जाता है।
  • प्रतिशत न्यूनतम वर्ग प्रतिशत त्रुटियों को कम करने पर केंद्रित है, जो पूर्वानुमान या समय श्रृंखला विश्लेषण के क्षेत्र में उपयोगी है। यह उन स्थितियों में भी उपयोगी है जहां आश्रित चर की निरंतर विचरण के बिना एक विस्तृत श्रृंखला होती है, क्योंकि यदि ओएलएस का उपयोग किया जाता है तो सीमा के ऊपरी छोर पर बड़े अवशेष हावी होंगे। जब प्रतिशत या सापेक्ष त्रुटि सामान्य रूप से वितरित की जाती है, तो कम से कम वर्ग प्रतिशत प्रतिगमन अधिकतम संभावना अनुमान प्रदान करता है। प्रतिशत प्रतिगमन एक गुणक त्रुटि मॉडल से जुड़ा हुआ है, जबकि OLS एक योगात्मक त्रुटि शब्द वाले मॉडल से जुड़ा हुआ है।[6]
  • विवश न्यूनतम वर्ग, समाधान पर अतिरिक्त बाधाओं के साथ एक रैखिक न्यूनतम वर्ग समस्या को इंगित करता है।

उद्देश्य समारोह

ओएलएस में (अर्थात्, भारित टिप्पणियों को मानते हुए), गुणांक वेक्टर के लिए इष्टतम अभिव्यक्ति को प्रतिस्थापित करके उद्देश्य फ़ंक्शन का गणितीय अनुकूलन पाया जाता है:

कहाँ , बाद की समानता के बाद से सममित और idempotent है। इससे दिखाया जा सकता है[7] वजन के एक उपयुक्त असाइनमेंट के अनुसार S का अपेक्षित मान m − n है। यदि इसके अतिरिक्त इकाई भार ग्रहण किया जाता है, तो S का अपेक्षित मान है , कहाँ प्रत्येक अवलोकन का विचरण है।

यदि यह माना जाता है कि अवशिष्ट एक सामान्य वितरण से संबंधित हैं, तो वस्तुनिष्ठ फलन, भारित वर्गित अवशिष्टों का योग होने के कारण, ची-वर्ग वितरण|ची-वर्ग से संबंधित होगा () m − n स्वतंत्रता की डिग्री (सांख्यिकी) के साथ वितरण। के कुछ निदर्शी प्रतिशतक मान निम्न तालिका में दिए गए हैं।[8]

10 9.34 18.3 23.2
25 24.3 37.7 44.3
100 99.3 124 136

फिट होने की अच्छाई के लिए इन मूल्यों का उपयोग सांख्यिकीय मानदंड के लिए किया जा सकता है। जब इकाई भार का उपयोग किया जाता है, तो संख्याओं को प्रेक्षण के प्रसरण से विभाजित किया जाना चाहिए।

WLS के लिए, उपरोक्त सामान्य उद्देश्य फ़ंक्शन को अवशिष्टों के भारित औसत के लिए प्रतिस्थापित किया जाता है।

चर्चा

आंकड़ों और गणित में, रैखिक कम से कम वर्ग उन स्थितियों में डेटा के लिए गणितीय मॉडल या सांख्यिकीय मॉडल को फिट करने के लिए एक दृष्टिकोण है, जहां किसी डेटा बिंदु के लिए मॉडल द्वारा प्रदान किए गए आदर्श मूल्य को मॉडल के अज्ञात मापदंडों के संदर्भ में रैखिक रूप से व्यक्त किया [[आंकड़े]] है। परिणामी फिट किए गए मॉडल का उपयोग डेटा को वर्णनात्मक आंकड़ों के लिए किया जा सकता है, एक ही सिस्टम से अप्राप्य मूल्यों की भविष्यवाणी करने के लिए, और सिस्टम को समझने वाले तंत्र को समझने के लिए।

गणितीय रूप से, रैखिक न्यूनतम वर्ग रैखिक समीकरणों A x = b की एक अतिनिर्धारित प्रणाली को लगभग हल करने की समस्या है, जहाँ b मैट्रिक्स A के स्तंभ स्थान का एक तत्व नहीं है। अनुमानित समाधान को A x = के सटीक समाधान के रूप में महसूस किया जाता है। बी', जहां बी' ए के कॉलम स्पेस पर बी का प्रक्षेपण है। सबसे अच्छा सन्निकटन वह है जो डेटा मानों और उनके संबंधित मॉडल मूल्यों के बीच चुकता अंतरों के योग को कम करता है। दृष्टिकोण को 'रैखिक' 'कम से कम वर्ग कहा जाता है क्योंकि अनुमानित कार्य अनुमानित पैरामीटर में रैखिक है। रैखिक कम से कम वर्ग की समस्याएं उत्तल कार्य हैं और एक बंद-रूप अभिव्यक्ति है। बंद-रूप समाधान जो अद्वितीय है, बशर्ते कि फिटिंग के लिए उपयोग किए जाने वाले डेटा बिंदुओं की संख्या अज्ञात मापदंडों की संख्या के बराबर या उससे अधिक हो, विशेष पतित स्थितियों को छोड़कर। इसके विपरीत, गैर-रैखिक कम से कम वर्गों की समस्याओं को सामान्यतः पुनरावृत्त विधि द्वारा हल किया जाना चाहिए, और उद्देश्य फ़ंक्शन के लिए कई ऑप्टिमा के साथ समस्याएं गैर-उत्तल हो सकती हैं। यदि पूर्व वितरण उपलब्ध हैं, तो न्यूनतम औसत वर्ग त्रुटि का उपयोग करके एक कम निर्धारित प्रणाली को भी हल किया जा सकता है।

आँकड़ों में, रैखिक कम से कम वर्ग समस्याएँ विशेष रूप से महत्वपूर्ण प्रकार के सांख्यिकीय मॉडल के अनुरूप होती हैं जिन्हें रैखिक प्रतिगमन कहा जाता है जो प्रतिगमन विश्लेषण के एक विशेष रूप के रूप में उत्पन्न होता है। इस तरह के मॉडल का एक मूल रूप एक साधारण न्यूनतम वर्ग मॉडल है। वर्तमान लेख रैखिक कम से कम वर्गों की समस्याओं के गणितीय पहलुओं पर ध्यान केंद्रित करता है, सांख्यिकीय प्रतिगमन मॉडल के निर्माण और व्याख्या की चर्चा के साथ और इनसे संबंधित सांख्यिकीय अनुमानों को अभी उल्लिखित लेखों में निपटाया जा रहा है। विषय की रूपरेखा के लिए प्रतिगमन विश्लेषण की रूपरेखा देखें।

गुण

यदि प्रायोगिक त्रुटियां, , असंबंधित हैं, शून्य का मतलब है और निरंतर भिन्नता है, , गॉस-मार्कोव प्रमेय कहता है कि कम से कम वर्ग अनुमानक, , सभी अनुमानकों का न्यूनतम विचरण है जो अवलोकनों के रैखिक संयोजन हैं। इस अर्थ में यह पैरामीटरों का सबसे अच्छा, या इष्टतम, अनुमानक है। विशेष रूप से ध्यान दें कि यह संपत्ति त्रुटियों के सांख्यिकीय संचयी वितरण समारोह से स्वतंत्र है। दूसरे शब्दों में, त्रुटियों का वितरण कार्य सामान्य वितरण नहीं होना चाहिए। चूंकि, कुछ प्रायिकता वितरणों के लिए, इस बात की कोई गारंटी नहीं है कि प्रेक्षणों को देखते हुए न्यूनतम वर्ग समाधान भी संभव है; फिर भी, ऐसे स्थितियों में यह सबसे अच्छा अनुमानक है जो रैखिक और निष्पक्ष दोनों है।

उदाहरण के लिए, यह दिखाना आसान है कि किसी मात्रा के माप के सेट का अंकगणितीय माध्य उस मात्रा के मान का न्यूनतम-वर्ग अनुमानक है। यदि गॉस-मार्कोव प्रमेय की शर्तें लागू होती हैं, तो अंकगणितीय माध्य इष्टतम होता है, माप की त्रुटियों का वितरण चाहे जो भी हो।

हालाँकि, इस मामले में कि प्रायोगिक त्रुटियाँ एक सामान्य वितरण से संबंधित हैं, न्यूनतम-वर्ग अनुमानक भी अधिकतम संभावना अनुमानक है।[9] ये गुण सभी प्रकार के डेटा फ़िटिंग के लिए कम से कम वर्गों की विधि के उपयोग को रेखांकित करते हैं, तब भी जब धारणाएँ कड़ाई से मान्य नहीं हैं।

सीमाएं

ऊपर दिए गए उपचार में अंतर्निहित एक धारणा यह है कि स्वतंत्र चर, x, त्रुटि मुक्त है। व्यवहार में, स्वतंत्र चर के मापन में त्रुटियां सामान्यतः निर्भर चर पर त्रुटियों की तुलना में बहुत कम होती हैं और इसलिए इसे अनदेखा किया जा सकता है। जब ऐसा नहीं होता है, कुल कम से कम वर्ग या अधिक सामान्यतः त्रुटियों में चर मॉडल, या कठोर न्यूनतम वर्ग का उपयोग किया जाना चाहिए। यह निर्भर और स्वतंत्र चर दोनों पर त्रुटियों को ध्यान में रखते हुए भार योजना को समायोजित करके और फिर मानक प्रक्रिया का पालन करके किया जा सकता है।[10][11] कुछ स्थितियों में (भारित) सामान्य समीकरण मैट्रिक्स XTX बीमार है। बहुपदों को फ़िट करते समय सामान्य समीकरण मैट्रिक्स एक वैंडरमोंड मैट्रिक्स होता है। जैसे-जैसे मैट्रिक्स का क्रम बढ़ता है वैंडरमोंड मैट्रिसेस तेजी से बीमार होते जाते हैं।[citation needed] इन स्थितियों में, सबसे कम वर्ग का अनुमान माप शोर को बढ़ाता है और यह पूरी तरह से गलत हो सकता है।[citation needed] ऐसे स्थितियों में विभिन्न नियमितीकरण (गणित) तकनीकों को लागू किया जा सकता है, जिनमें से सबसे आम को तिखोनोव नियमितीकरण कहा जाता है। यदि पैरामीटर के बारे में अधिक जानकारी ज्ञात है, उदाहरण के लिए, संभावित मानों की एक श्रेणी , तो समाधान की स्थिरता को बढ़ाने के लिए विभिन्न तकनीकों का उपयोग किया जा सकता है। उदाहरण के लिए, #Constrained_linear_least_squares देखें।

कम से कम वर्गों के अनुमानक का एक और दोष यह तथ्य है कि अवशिष्टों का मानदंड, न्यूनतम किया जाता है, जबकि कुछ स्थितियों में पैरामीटर में छोटी त्रुटि प्राप्त करने में वास्तव में रुचि होती है , उदाहरण के लिए, का एक छोटा मान .[citation needed] चूंकि, सही पैरामीटर के बाद से आवश्यक रूप से अज्ञात है, इस मात्रा को सीधे कम नहीं किया जा सकता। यदि पूर्व संभावना चालू है ज्ञात है, तो औसत वर्ग त्रुटि को कम करने के लिए न्यूनतम औसत वर्ग त्रुटि का उपयोग किया जा सकता है, . कम से कम वर्ग विधि अधिकांशतःलागू होती है जब कोई पूर्व ज्ञात नहीं होता है। आश्चर्यजनक रूप से, जब कई मापदंडों का संयुक्त रूप से अनुमान लगाया जा रहा हो, तो बेहतर आकलनकर्ताओं का निर्माण किया जा सकता है, एक प्रभाव जिसे स्टीन की घटना के रूप में जाना जाता है। उदाहरण के लिए, यदि माप त्रुटि सामान्य वितरण है, तो कई अनुमानक ज्ञात हैं जो निर्णय नियम पर हावी हैं, या सबसे कम वर्ग तकनीक से बेहतर प्रदर्शन करते हैं; इनमें से सबसे प्रसिद्ध जेम्स-स्टीन अनुमानक है। यह अधिक सामान्य सिकुड़न अनुमानक का एक उदाहरण है जिसे प्रतिगमन समस्याओं पर लागू किया गया है।

अनुप्रयोग

डेटा फिटिंग में उपयोग

रैखिक कम से कम वर्गों का प्राथमिक अनुप्रयोग डेटा फ़िटिंग में है। एम डेटा बिंदुओं के एक सेट को देखते हुए एम मूल्यों पर लिए गए प्रयोगात्मक रूप से मापा मूल्यों से मिलकर एक स्वतंत्र चर का ( अदिश या सदिश राशियाँ हो सकती हैं), और एक मॉडल फ़ंक्शन दिया गया है साथ यह मापदंडों को खोजने के लिए वांछित है जैसे कि मॉडल फ़ंक्शन डेटा के लिए सबसे उपयुक्त है। रैखिक कम से कम वर्गों में, रैखिकता का मतलब मापदंडों के संबंध में होता है इसलिए

यहाँ, कार्य चर x के संबंध में अरैखिक हो सकता है।

आदर्श रूप से, मॉडल फ़ंक्शन डेटा को सटीक रूप से फिट करता है, इसलिए

सभी के लिए यह सामान्यतः व्यवहार में संभव नहीं है, क्योंकि निर्धारित किए जाने वाले मापदंडों की तुलना में अधिक डेटा बिंदु हैं। तब चुना गया दृष्टिकोण अवशिष्ट (सांख्यिकी) के वर्गों के योग का न्यूनतम संभव मान ज्ञात करना है
इसलिए समारोह को कम करने के लिए
के लिए प्रतिस्थापित करने के बाद और फिर के लिए , यह न्यूनीकरण समस्या उपरोक्त द्विघात न्यूनीकरण समस्या बन जाती है
और सामान्य समीकरणों को हल करके सबसे उपयुक्त पाया जा सकता है।

उदाहरण

डेटा बिंदुओं का एक प्लॉट (लाल रंग में), सर्वोत्तम फिट की कम से कम वर्ग रेखा (नीले रंग में), और अवशिष्ट (हरे रंग में)

एक प्रयोग के परिणामस्वरूप, चार डेटा बिंदु प्राप्त किए गए थे, और (दाईं ओर आरेख में लाल रंग में दिखाया गया है)। हमें लाइन मिलने की उम्मीद है जो इन चार बिंदुओं के लिए सबसे उपयुक्त है। दूसरे शब्दों में, हम संख्याओं का पता लगाना चाहेंगे और यह लगभग अतिनिर्धारित रैखिक प्रणाली को हल करता है:

कुछ सर्वोत्तम अर्थों में दो अज्ञात में चार समीकरणों का।

वक्र फिट और डेटा के बीच, प्रत्येक बिंदु पर अवशिष्ट का प्रतिनिधित्व करता है:

इस समस्या को हल करने के लिए कम से कम वर्गों का दृष्टिकोण इन अवशेषों के वर्गों के योग को जितना संभव हो उतना छोटा करने का प्रयास करना है; वह है, समारोह की अधिकतमता और न्यूनतमता को खोजने के लिए:
के आंशिक डेरिवेटिव की गणना करके न्यूनतम निर्धारित किया जाता है इसके संबंध में और और उन्हें शून्य पर सेट करना:
इसका परिणाम दो अज्ञात में दो समीकरणों की प्रणाली में होता है, जिसे सामान्य समीकरण कहा जाता है, जो हल करने पर देता है:
और समीकरण सर्वश्रेष्ठ फिट की रेखा है। अवशिष्ट (सांख्यिकी), अर्थात्, के बीच अंतर प्रेक्षणों से मान और सर्वोत्तम फिट की रेखा का उपयोग करके अनुमानित चर, तब पाए जाते हैं और (दाईं ओर आरेख देखें)। अवशिष्टों के वर्गों के योग का न्यूनतम मान है अधिक सामान्यतः, कोई भी हो सकता है प्रतिगामी , और एक रैखिक मॉडल


द्विघात मॉडल का प्रयोग

द्विघात फलन को फ़िट करने का परिणाम (नीले रंग में) डेटा बिंदुओं के एक सेट के माध्यम से (लाल)। रैखिक कम से कम वर्गों में फ़ंक्शन को तर्क में रैखिक होने की आवश्यकता नहीं है लेकिन केवल मापदंडों में जो सर्वश्रेष्ठ फिट देने के लिए दृढ़ संकल्पित हैं।

महत्वपूर्ण रूप से, रैखिक न्यूनतम वर्गों में, हम उपरोक्त उदाहरण के रूप में एक रेखा को मॉडल के रूप में उपयोग करने तक सीमित नहीं हैं। उदाहरण के लिए, हम प्रतिबंधित द्विघात मॉडल को चुन सकते थे . यह मॉडल अभी भी रैखिक है पैरामीटर, इसलिए हम अभी भी समान विश्लेषण कर सकते हैं, डेटा बिंदुओं से समीकरणों की एक प्रणाली का निर्माण कर सकते हैं:

पैरामीटर के संबंध में आंशिक डेरिवेटिव (इस बार केवल एक ही है) की फिर से गणना की जाती है और 0 पर सेट किया जाता है:
और हल किया
परिणामी सर्वोत्तम फिट मॉडल के लिए अग्रणी


यह भी देखें

संदर्भ

  1. Lai, T.L.; Robbins, H.; Wei, C.Z. (1978). "एकाधिक प्रतिगमन में कम से कम वर्गों के अनुमानों की मजबूत स्थिरता". PNAS. 75 (7): 3034–3036. Bibcode:1978PNAS...75.3034L. doi:10.1073/pnas.75.7.3034. JSTOR 68164. PMC 392707. PMID 16592540.
  2. del Pino, Guido (1989). "सांख्यिकीय एल्गोरिथम में पुनरावृत्त सामान्यीकृत न्यूनतम वर्गों की एकीकृत भूमिका". Statistical Science. 4 (4): 394–403. doi:10.1214/ss/1177012408. JSTOR 2245853.
  3. Carroll, Raymond J. (1982). "रेखीय मॉडल में विषमलैंगिकता के लिए अनुकूलन". The Annals of Statistics. 10 (4): 1224–1233. doi:10.1214/aos/1176345987. JSTOR 2240725.
  4. Cohen, Michael; Dalal, Siddhartha R.; Tukey, John W. (1993). "मजबूत, सुचारू रूप से विषम प्रसरण प्रतिगमन". Journal of the Royal Statistical Society, Series C. 42 (2): 339–353. JSTOR 2986237.
  5. Nievergelt, Yves (1994). "Total Least Squares: State-of-the-Art Regression in Numerical Analysis". SIAM Review. 36 (2): 258–264. doi:10.1137/1036055. JSTOR 2132463.
  6. Tofallis, C (2009). "कम से कम वर्ग प्रतिशत प्रतिगमन". Journal of Modern Applied Statistical Methods. 7: 526–534. doi:10.2139/ssrn.1406472. SSRN 1406472.
  7. Hamilton, W. C. (1964). भौतिक विज्ञान में सांख्यिकी. New York: Ronald Press.
  8. Spiegel, Murray R. (1975). शाउम के सिद्धांत की रूपरेखा और संभाव्यता और सांख्यिकी की समस्याएं. New York: McGraw-Hill. ISBN 978-0-585-26739-5.
  9. Margenau, Henry; Murphy, George Moseley (1956). भौतिकी और रसायन विज्ञान का गणित. Princeton: Van Nostrand.
  10. 10.0 10.1 Gans, Peter (1992). रासायनिक विज्ञान में डेटा फिटिंग. New York: Wiley. ISBN 978-0-471-93412-7.
  11. Deming, W. E. (1943). डेटा का सांख्यिकीय समायोजन. New York: Wiley.
  12. Acton, F. S. (1959). स्ट्रेट-लाइन डेटा का विश्लेषण. New York: Wiley.
  13. Guest, P. G. (1961). वक्र फिटिंग के संख्यात्मक तरीके. Cambridge: Cambridge University Press.[page needed]


अग्रिम पठन

  • Bevington, Philip R.; Robinson, Keith D. (2003). Data Reduction and Error Analysis for the Physical Sciences. McGraw-Hill. ISBN 978-0-07-247227-1.


बाहरी संबंध