लाइट जीबीएम

From Vigyanwiki
Revision as of 12:51, 21 March 2023 by alpha>Indicwiki (Created page with "{{Short description|Microsoft open source gradient boosting framework for machine learning}} {{Infobox software | name = LightGBM | logo =...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
LightGBM
Original author(s)Guolin Ke[1] / Microsoft Research
Developer(s)Microsoft and LightGBM contributors[2]
Initial release2016; 10 years ago (2016)
Stable release
v3.3.4[3] / December 29, 2022; 3 years ago (2022-12-29)
Repositorygithub.com/microsoft/LightGBM
Written inC++, Python, R, C
Operating systemWindows, macOS, Linux
TypeMachine learning, gradient boosting framework
LicenseMIT License
Websitelightgbm.readthedocs.io

LightGBM, लाइट ग्रैडिएंट-बूस्टिंग मशीन के लिए छोटा, एक मुफ़्त और खुला स्रोत है| मुफ़्त और ओपन-सोर्स वितरित ग्रेडिएंट बूस्टिंग| यंत्र अधिगम के लिए ग्रेडिएंट-बूस्टिंग फ्रेमवर्क, मूल रूप से Microsoft द्वारा विकसित किया गया है।[4][5] यह निर्णय वृक्ष एल्गोरिदम पर आधारित है और इसका उपयोग रैंक करना सीखना, सांख्यिकीय वर्गीकरण और अन्य मशीन लर्निंग कार्यों के लिए किया जाता है। विकास का ध्यान प्रदर्शन और मापनीयता पर है।

सिंहावलोकन

LightGBM फ्रेमवर्क GBT, GBDT, ग्रेडिएंट-बूस्टेड रिग्रेशन ट्री, ग्रेडिएंट बूस्टिंग मशीन, एकाधिक योजक प्रतिगमन पेड़ सहित विभिन्न एल्गोरिदम का समर्थन करता है।[6][7] और रैंडम वन।[8] लाइट जीबीएम में एक्सजीबीओस्ट के कई फायदे हैं, जिनमें विरल अनुकूलन, समानांतर प्रशिक्षण, कई नुकसान कार्य, नियमितीकरण, बैगिंग और जल्दी रोकना शामिल है। पेड़ों के निर्माण में दोनों के बीच एक बड़ा अंतर है। लाइट जीबीएम एक पेड़ स्तर-वार - पंक्ति दर पंक्ति नहीं बढ़ता है - जैसा कि अधिकांश अन्य कार्यान्वयन करते हैं।[9] इसके बजाय यह पत्तों की तरह पेड़ों को उगाता है। यह उस पत्ते को चुनता है जिसके बारे में उसका मानना ​​है कि नुकसान में सबसे बड़ी कमी आएगी।[10] इसके अलावा, लाइट जीबीएम व्यापक रूप से उपयोग किए जाने वाले सॉर्टेड-आधारित निर्णय ट्री लर्निंग एल्गोरिदम का उपयोग नहीं करता है, जो सॉर्ट किए गए फीचर वैल्यू पर सबसे अच्छा विभाजन बिंदु खोजता है,[11] जैसा कि XGBoost या अन्य कार्यान्वयन करते हैं। इसके बजाय, लाइट जीबीएम अत्यधिक अनुकूलित हिस्टोग्राम-आधारित निर्णय ट्री लर्निंग एल्गोरिदम को लागू करता है, जो दक्षता और मेमोरी खपत दोनों पर बहुत लाभ देता है।[12] LightGBM एल्गोरिथ्म ग्रेडिएंट-बेस्ड वन-साइड सैंपलिंग (GOSS) और एक्सक्लूसिव फ़ीचर बंडलिंग (EFB) नामक दो नई तकनीकों का उपयोग करता है जो उच्च स्तर की सटीकता बनाए रखते हुए एल्गोरिथ्म को तेज़ी से चलाने की अनुमति देता है।[13] LightGBM Linux, Windows और macOS पर काम करता है और C++, Python (प्रोग्रामिंग लैंग्वेज) को सपोर्ट करता है।[14]आर (प्रोग्रामिंग भाषा) , और सी शार्प (प्रोग्रामिंग लैंग्वेज) | सी #।[15] स्रोत कोड मेरा लाइसेंस के तहत लाइसेंस प्राप्त है और गिटहब पर उपलब्ध है।[16]


ढाल-आधारित एक तरफा नमूनाकरण

ग्रेडिएंट-आधारित वन-साइड सैंपलिंग (GOSS) एक ऐसी विधि है जो इस तथ्य का लाभ उठाती है कि GBDT में डेटा उदाहरण के लिए कोई मूल भार नहीं है। चूँकि अलग-अलग ग्रेडिएंट्स वाले डेटा इंस्टेंसेस सूचना लाभ की गणना में अलग-अलग भूमिकाएँ निभाते हैं, बड़े ग्रेडिएंट्स वाले इंस्टेंसेस सूचना लाभ में अधिक योगदान देंगे। इसलिए जानकारी की सटीकता बनाए रखने के लिए, GOSS बड़े ग्रेडिएंट्स के साथ इंस्टेंसेस रखता है और छोटे ग्रेडिएंट्स के साथ रैंडम रूप से इंस्टेंसेस को ड्रॉप करता है।[13]


एक्सक्लूसिव फीचर बंडलिंग

एक्सक्लूसिव फीचर बंडलिंग (ईएफबी) प्रभावी सुविधाओं की संख्या को कम करने के लिए लगभग दोषरहित तरीका है। विरल फीचर स्पेस में कई फीचर्स लगभग एक्सक्लूसिव होते हैं, जिसका अर्थ है कि वे शायद ही कभी नॉनजरो वैल्यू एक साथ लेते हैं। वन-हॉट एन्कोडेड फीचर एक्सक्लूसिव फीचर्स का एक आदर्श उदाहरण है। ईएफबी इन सुविधाओं को बंडल करता है, सटीकता के उच्च स्तर को बनाए रखते हुए दक्षता में सुधार के लिए आयाम को कम करता है। अनन्य सुविधाओं के बंडल को एकल सुविधा में एक अनन्य सुविधा बंडल कहा जाता है। [13]


यह भी देखें

संदर्भ

  1. "Guolin Ke". GitHub.
  2. "microsoft/LightGBM". GitHub. 7 July 2022.
  3. "Releases · microsoft/LightGBM". GitHub.
  4. Brownlee, Jason (March 31, 2020). "स्किकिट-लर्न, एक्सजीबीओस्ट, लाइटजीबीएम और कैटबूस्ट के साथ ग्रेडिएंट बूस्टिंग".
  5. Kopitar, Leon; Kocbek, Primoz; Cilar, Leona; Sheikh, Aziz; Stiglic, Gregor (July 20, 2020). "Early detection of type 2 diabetes mellitus using machine learning-based prediction models". Scientific Reports. 10 (1): 11981. Bibcode:2020NatSR..1011981K. doi:10.1038/s41598-020-68771-z. PMC 7371679. PMID 32686721 – via www.nature.com.
  6. "LightGBM पैरामीटर्स को समझना (और उन्हें कैसे ट्यून करें)". neptune.ai. May 6, 2020.
  7. "लाइट जीबीएम का अवलोकन". avanwyk. May 16, 2018.
  8. "Parameters — LightGBM 3.0.0.99 documentation". lightgbm.readthedocs.io.
  9. The Gradient Boosters IV: LightGBM – Deep & Shallow
  10. XGBoost, LightGBM, and Other Kaggle Competition Favorites | by Andre Ye | Sep, 2020 | Towards Data Science
  11. Manish, Mehta; Rakesh, Agrawal; Jorma, Rissanen (Nov 24, 2020). "SLIQ: A fast scalable classifier for data mining". International Conference on Extending Database Technology: 18–32. CiteSeerX 10.1.1.89.7734.
  12. "Features — LightGBM 3.1.0.99 documentation". lightgbm.readthedocs.io.
  13. 13.0 13.1 13.2 Ke, Guolin; Meng, Qi; Finley, Thomas; Wang, Taifeng; Chen, Wei; Ma, Weidong; Ye, Qiwei; Liu, Tie-Yan (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree". Advances in Neural Information Processing Systems (in English). 30.
  14. "lightgbm: LightGBM Python Package". 7 July 2022 – via PyPI.
  15. "Microsoft.ML.Trainers.LightGbm नाम स्थान". docs.microsoft.com.
  16. "microsoft/LightGBM". October 6, 2020 – via GitHub.


अग्रिम पठन


बाहरी संबंध