इलास्टिक नेट नियमितीकरण

From Vigyanwiki
Revision as of 13:01, 6 December 2023 by alpha>Indicwiki (Created page with "{{short description|Statistical regression method}} आँकड़ों में और, विशेष रूप से, रैखिक प्रतिगमन या...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

आँकड़ों में और, विशेष रूप से, रैखिक प्रतिगमन या लॉजिस्टिक प्रतिगमन मॉडल की फिटिंग में, इलास्टिक नेट एक नियमितीकरण (गणित) प्रतिगमन विधि है जो टैक्सीकैब ज्यामिति को रैखिक रूप से जोड़ती है|एल1और नॉर्म (गणित)#यूक्लिडियन नॉर्म|एल2लैस्सो (सांख्यिकी) और तिखोनोव नियमितीकरण विधियों के दंड।

विनिर्देश

इलास्टिक नेट विधि लैस्सो (सांख्यिकी) (कम से कम पूर्ण संकोचन और चयन ऑपरेटर) विधि की सीमाओं को पार कर जाती है जो पेनल्टी फ़ंक्शन का उपयोग करती है

इस दंड फ़ंक्शन के उपयोग की कई सीमाएँ हैं।[1] उदाहरण के लिए, बड़े पी, छोटे एन मामले (कुछ उदाहरणों के साथ उच्च-आयामी डेटा) में, LASSO संतृप्त होने से पहले अधिकतम n चर का चयन करता है। इसके अलावा यदि अत्यधिक सहसंबद्ध चरों का एक समूह है, तो LASSO एक समूह से एक चर का चयन करता है और अन्य को अनदेखा कर देता है। इन सीमाओं को पार करने के लिए, इलास्टिक नेट एक द्विघात भाग जोड़ता है () दंड के लिए, जिसे अकेले इस्तेमाल करने पर रिज प्रतिगमन होता है (जिसे तिखोनोव नियमितीकरण के रूप में भी जाना जाता है)। इलास्टिक नेट विधि से अनुमानों को परिभाषित किया गया है

द्विघात दंड शब्द हानि फ़ंक्शन को दृढ़ता से उत्तल बनाता है, और इसलिए इसमें एक अद्वितीय न्यूनतम होता है। इलास्टिक नेट विधि में LASSO और रिज रिग्रेशन शामिल है: दूसरे शब्दों में, उनमें से प्रत्येक एक विशेष मामला है जहां या . इस बीच, इलास्टिक नेट विधि का सरल संस्करण दो-चरण की प्रक्रिया में एक अनुमानक ढूंढता है: प्रत्येक निश्चित के लिए पहला यह रिज प्रतिगमन गुणांक पाता है, और फिर LASSO प्रकार का संकोचन करता है। इस प्रकार के अनुमान में दोगुनी मात्रा में संकुचन होता है, जिससे पूर्वाग्रह बढ़ जाता है और खराब भविष्यवाणियां होती हैं। भविष्यवाणी प्रदर्शन में सुधार करने के लिए, कभी-कभी अनुमानित गुणांक को गुणा करके लोचदार नेट के अनुभवहीन संस्करण के गुणांक को पुन: स्केल किया जाता है .[1]

इलास्टिक नेट विधि कहां लागू की गई है इसके उदाहरण हैं:

  • समर्थन वेक्टर यंत्र[2]
  • मैट्रिक लर्निंग[3]
  • पोर्टफोलियो अनुकूलन[4]
  • कैंसर का पूर्वानुमान[5]


वेक्टर मशीन का समर्थन करने में कमी

2014 के अंत में, यह साबित हुआ कि इलास्टिक नेट को रैखिक समर्थन वेक्टर यंत्र में कम किया जा सकता है।[6] इसी तरह की कमी पहले 2014 में LASSO के लिए सिद्ध हुई थी।[7] लेखकों ने दिखाया कि इलास्टिक नेट के प्रत्येक उदाहरण के लिए, एक कृत्रिम बाइनरी वर्गीकरण समस्या का निर्माण इस तरह किया जा सकता है कि एक रैखिक समर्थन वेक्टर मशीन (एसवीएम) का हाइपर-प्लेन समाधान समाधान के समान हो (पुनः स्केलिंग के बाद)। कमी तुरंत इलास्टिक नेट समस्याओं के लिए अत्यधिक अनुकूलित एसवीएम सॉल्वर के उपयोग को सक्षम बनाती है। यह GPU त्वरण के उपयोग को भी सक्षम बनाता है, जिसका उपयोग अक्सर बड़े पैमाने पर SVM सॉल्वर के लिए पहले से ही किया जाता है।[8] कमी मूल डेटा और नियमितीकरण स्थिरांक का एक सरल परिवर्तन है

नए कृत्रिम डेटा उदाहरणों और एक नियमितीकरण स्थिरांक में जो एक द्विआधारी वर्गीकरण समस्या और एसवीएम नियमितीकरण स्थिरांक निर्दिष्ट करता है

यहाँ, बाइनरी लेबल से मिलकर बनता है . कब प्राइमल में रैखिक एसवीएम को हल करना आम तौर पर तेज़ होता है, जबकि अन्यथा दोहरा फॉर्मूलेशन तेज़ होता है। कुछ लेखकों ने परिवर्तन को सपोर्ट वेक्टर इलास्टिक नेट (एसवीईएन) के रूप में संदर्भित किया है, और निम्नलिखित MATLAB छद्म कोड प्रदान किया है:

function β=SVEN(X, y, t, λ2);
    [n,p] = size(X); 
    X2 = [bsxfun(@minus, X, y./t); bsxfun(@plus, X, y./t)];
    Y2 = [ones(p,1);-ones(p,1)];
    if 2p > n then 
        w = SVMPrimal(X2, Y2, C = 1/(2*λ2));
        α = C * max(1-Y2.*(X2*w), 0); 
    else
        α = SVMDual(X2, Y2, C = 1/(2*λ2)); 
    end if
    β = t * (α(1:p) - α(p+1:2p)) / sum(α);


सॉफ्टवेयर

  • Glmnet: लासो और इलास्टिक-नेट नियमितीकृत सामान्यीकृत रैखिक मॉडल एक सॉफ्टवेयर है जिसे R (प्रोग्रामिंग भाषा) स्रोत पैकेज और MATLAB टूलबॉक्स के रूप में कार्यान्वित किया जाता है।[9][10] इसमें ℓ के साथ सामान्यीकृत रैखिक मॉडल के आकलन के लिए तेज़ एल्गोरिदम शामिल हैं1 (लासो), ℓ2 (रिज रिग्रेशन) और दो दंडों (इलास्टिक नेट) का मिश्रण, चक्रीय समन्वय वंश का उपयोग करके, एक नियमितीकरण पथ के साथ गणना की जाती है।
  • जेएमपी (सांख्यिकीय सॉफ्टवेयर) में फिट मॉडल के साथ सामान्यीकृत प्रतिगमन व्यक्तित्व का उपयोग करके इलास्टिक नेट नियमितीकरण शामिल है।
  • पेन्सिम: उच्च-आयामी डेटा का सिमुलेशन और समानांतर बार-बार दंडित प्रतिगमन ℓ मापदंडों की एक वैकल्पिक, समानांतर 2 डी ट्यूनिंग विधि लागू करता है, एक विधि जिसके परिणामस्वरूप भविष्यवाणी सटीकता में सुधार का दावा किया जाता है।[11][12]
  • स्किकिट-लर्न में इलास्टिक नेट रेगुलराइजेशन के साथ लीनियर रिग्रेशन, लॉजिस्टिक रिग्रेशन और लीनियर सपोर्ट वेक्टर मशीनें शामिल हैं।
  • एसवीईएन, सपोर्ट वेक्टर इलास्टिक नेट का एक मैटलैब कार्यान्वयन। यह सॉल्वर इलास्टिक नेट समस्या को एसवीएम बाइनरी वर्गीकरण के एक उदाहरण में कम कर देता है और समाधान खोजने के लिए मैटलैब एसवीएम सॉल्वर का उपयोग करता है। क्योंकि एसवीएम आसानी से समानांतर करने योग्य है, कोड आधुनिक हार्डवेयर पर Glmnet से तेज़ हो सकता है।[13]
  • SpaSM, इलास्टिक नेट नियमितीकृत प्रतिगमन सहित विरल प्रतिगमन, वर्गीकरण और प्रमुख घटक विश्लेषण का एक MATLAB कार्यान्वयन।[14]
  • अपाचे स्पार्क अपनी MLlib मशीन लर्निंग लाइब्रेरी में इलास्टिक नेट रिग्रेशन के लिए समर्थन प्रदान करता है। यह विधि अधिक सामान्य LinearRegression वर्ग के पैरामीटर के रूप में उपलब्ध है।[15]
  • एसएएस (सॉफ्टवेयर) एसएएस प्रक्रिया Glmselect[16] और एसएएस वाया प्रक्रिया रेगसेलेक्ट [17] मॉडल चयन के लिए इलास्टिक नेट नियमितीकरण के उपयोग का समर्थन करें।

संदर्भ

  1. 1.0 1.1 Zou, Hui; Hastie, Trevor (2005). "इलास्टिक नेट के माध्यम से नियमितीकरण और परिवर्तनीय चयन". Journal of the Royal Statistical Society, Series B. 67 (2): 301–320. CiteSeerX 10.1.1.124.4696. doi:10.1111/j.1467-9868.2005.00503.x. S2CID 122419596.
  2. Wang, Li; Zhu, Ji; Zou, Hui (2006). "दोगुनी नियमितीकृत समर्थन वेक्टर मशीन" (PDF). Statistica Sinica. 16: 589–615.
  3. Liu, Meizhu; Vemuri, Baba (2012). "एक मजबूत और कुशल दोगुना नियमितीकृत मीट्रिक सीखने का दृष्टिकोण". Proceedings of the 12th European Conference on Computer Vision. Lecture Notes in Computer Science. Part IV: 646–659. doi:10.1007/978-3-642-33765-9_46. ISBN 978-3-642-33764-2. PMC 3761969. PMID 24013160.
  4. Shen, Weiwei; Wang, Jun; Ma, Shiqian (2014). "जोखिम न्यूनीकरण के साथ पोर्टफोलियो को दोगुना नियमित किया गया". Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence. 28: 1286–1292. doi:10.1609/aaai.v28i1.8906. S2CID 11017740.
  5. Milanez-Almeida, Pedro; Martins, Andrew J.; Germain, Ronald N.; Tsang, John S. (2020-02-10). "उथले ट्यूमर आरएनए अनुक्रमण के साथ कैंसर का पूर्वानुमान". Nature Medicine (in English). 26 (2): 188–192. doi:10.1038/s41591-019-0729-3. ISSN 1546-170X. PMID 32042193. S2CID 211074147.
  6. Zhou, Quan; Chen, Wenlin; Song, Shiji; Gardner, Jacob; Weinberger, Kilian; Chen, Yixin. A Reduction of the Elastic Net to Support Vector Machines with an Application to GPU Computing. Association for the Advancement of Artificial Intelligence.
  7. Jaggi, Martin (2014). Suykens, Johan; Signoretto, Marco; Argyriou, Andreas (eds.). An Equivalence between the Lasso and Support Vector Machines. Chapman and Hall/CRC. arXiv:1303.1152.
  8. "जीसीवीएम". uchicago.edu.
  9. Friedman, Jerome; Trevor Hastie; Rob Tibshirani (2010). "कोऑर्डिनेट डिसेंट के माध्यम से सामान्यीकृत रैखिक मॉडल के लिए नियमितीकरण पथ". Journal of Statistical Software. 33 (1): 1–22. doi:10.18637/jss.v033.i01. PMC 2929880. PMID 20808728.
  10. "CRAN - पैकेज glmnet". r-project.org.
  11. Waldron, L.; Pintilie, M.; Tsao, M. -S.; Shepherd, F. A.; Huttenhower, C.; Jurisica, I. (2011). "Optimized application of penalized regression methods to diverse genomic data". Bioinformatics. 27 (24): 3399–3406. doi:10.1093/bioinformatics/btr591. PMC 3232376. PMID 22156367.
  12. "क्रैन - पैकेज पेन्सिम". r-project.org.
  13. "mlcircus / SVEN — Bitbucket". bitbucket.org.
  14. Sjöstrand, Karl; Clemmensen, Line; Einarsson, Gudmundur; Larsen, Rasmus; Ersbøll, Bjarne (2 February 2016). "SpaSM: A Matlab Toolbox for Sparse Statistical Modeling" (PDF). Journal of Statistical Software.
  15. "pyspark.ml package — PySpark 1.6.1 documentation". spark.apache.org. Retrieved 2019-04-17.
  16. "प्रोक Glmselect". Retrieved 2019-05-09.
  17. "A Survey of Methods in Variable Selection and Penalized Regression" (PDF).


अग्रिम पठन


बाहरी संबंध