लाइट जीबीएम
| Original author(s) | Guolin Ke[1] / Microsoft Research |
|---|---|
| Developer(s) | Microsoft and LightGBM contributors[2] |
| Initial release | 2016 |
| Stable release | v3.3.4[3]
/ December 29, 2022 |
| Repository | github |
| Written in | C++, Python, R, C |
| Operating system | Windows, macOS, Linux |
| Type | Machine learning, gradient boosting framework |
| License | MIT License |
| Website | lightgbm |
LightGBM, लाइट ग्रैडिएंट-बूस्टिंग मशीन के लिए छोटा, एक मुफ़्त और खुला स्रोत है| मुफ़्त और ओपन-सोर्स वितरित ग्रेडिएंट बूस्टिंग| यंत्र अधिगम के लिए ग्रेडिएंट-बूस्टिंग फ्रेमवर्क, मूल रूप से Microsoft द्वारा विकसित किया गया है।[4][5] यह निर्णय वृक्ष एल्गोरिदम पर आधारित है और इसका उपयोग रैंक करना सीखना, सांख्यिकीय वर्गीकरण और अन्य मशीन लर्निंग कार्यों के लिए किया जाता है। विकास का ध्यान प्रदर्शन और मापनीयता पर है।
सिंहावलोकन
LightGBM फ्रेमवर्क GBT, GBDT, ग्रेडिएंट-बूस्टेड रिग्रेशन ट्री, ग्रेडिएंट बूस्टिंग मशीन, एकाधिक योजक प्रतिगमन पेड़ सहित विभिन्न एल्गोरिदम का समर्थन करता है।[6][7] और रैंडम वन।[8] लाइट जीबीएम में एक्सजीबीओस्ट के कई फायदे हैं, जिनमें विरल अनुकूलन, समानांतर प्रशिक्षण, कई नुकसान कार्य, नियमितीकरण, बैगिंग और जल्दी रोकना शामिल है। पेड़ों के निर्माण में दोनों के बीच एक बड़ा अंतर है। लाइट जीबीएम एक पेड़ स्तर-वार - पंक्ति दर पंक्ति नहीं बढ़ता है - जैसा कि अधिकांश अन्य कार्यान्वयन करते हैं।[9] इसके बजाय यह पत्तों की तरह पेड़ों को उगाता है। यह उस पत्ते को चुनता है जिसके बारे में उसका मानना है कि नुकसान में सबसे बड़ी कमी आएगी।[10] इसके अलावा, लाइट जीबीएम व्यापक रूप से उपयोग किए जाने वाले सॉर्टेड-आधारित निर्णय ट्री लर्निंग एल्गोरिदम का उपयोग नहीं करता है, जो सॉर्ट किए गए फीचर वैल्यू पर सबसे अच्छा विभाजन बिंदु खोजता है,[11] जैसा कि XGBoost या अन्य कार्यान्वयन करते हैं। इसके बजाय, लाइट जीबीएम अत्यधिक अनुकूलित हिस्टोग्राम-आधारित निर्णय ट्री लर्निंग एल्गोरिदम को लागू करता है, जो दक्षता और मेमोरी खपत दोनों पर बहुत लाभ देता है।[12] LightGBM एल्गोरिथ्म ग्रेडिएंट-बेस्ड वन-साइड सैंपलिंग (GOSS) और एक्सक्लूसिव फ़ीचर बंडलिंग (EFB) नामक दो नई तकनीकों का उपयोग करता है जो उच्च स्तर की सटीकता बनाए रखते हुए एल्गोरिथ्म को तेज़ी से चलाने की अनुमति देता है।[13] LightGBM Linux, Windows और macOS पर काम करता है और C++, Python (प्रोग्रामिंग लैंग्वेज) को सपोर्ट करता है।[14] आआर (प्रोग्रामिंग भाषा) , और सी शार्प (प्रोग्रामिंग लैंग्वेज) | सी #।[15] स्रोत कोड मेरा लाइसेंस के तहत लाइसेंस प्राप्त है और गिटहब पर उपलब्ध है।[16]
ढाल-आधारित एक तरफा नमूनाकरण
ग्रेडिएंट-आधारित वन-साइड सैंपलिंग (GOSS) एक ऐसी विधि है जो इस तथ्य का लाभ उठाती है कि GBDT में डेटा उदाहरण के लिए कोई मूल भार नहीं है। चूँकि अलग-अलग ग्रेडिएंट्स वाले डेटा इंस्टेंसेस सूचना लाभ की गणना में अलग-अलग भूमिकाएँ निभाते हैं, बड़े ग्रेडिएंट्स वाले इंस्टेंसेस सूचना लाभ में अधिक योगदान देंगे। इसलिए जानकारी की सटीकता बनाए रखने के लिए, GOSS बड़े ग्रेडिएंट्स के साथ इंस्टेंसेस रखता है और छोटे ग्रेडिएंट्स के साथ रैंडम रूप से इंस्टेंसेस को ड्रॉप करता है।[13]
एक्सक्लूसिव फीचर बंडलिंग
एक्सक्लूसिव फीचर बंडलिंग (ईएफबी) प्रभावी सुविधाओं की संख्या को कम करने के लिए लगभग दोषरहित तरीका है। विरल फीचर स्पेस में कई फीचर्स लगभग एक्सक्लूसिव होते हैं, जिसका अर्थ है कि वे शायद ही कभी नॉनजरो वैल्यू एक साथ लेते हैं। वन-हॉट एन्कोडेड फीचर एक्सक्लूसिव फीचर्स का एक आदर्श उदाहरण है। ईएफबी इन सुविधाओं को बंडल करता है, सटीकता के उच्च स्तर को बनाए रखते हुए दक्षता में सुधार के लिए आयाम को कम करता है। अनन्य सुविधाओं के बंडल को एकल सुविधा में एक अनन्य सुविधा बंडल कहा जाता है। [13]
यह भी देखें
- यंत्र अधिगम
- एमएल.नेट
- डेटा बिनिंग
- ग्रेडिएंट बूस्टिंग
- एक्सजीबूस्ट
- बिल्ली बढ़ावा
- स्किकिट-सीखें
संदर्भ
- ↑ "Guolin Ke". GitHub.
- ↑ "microsoft/LightGBM". GitHub. 7 July 2022.
- ↑ "Releases · microsoft/LightGBM". GitHub.
- ↑ Brownlee, Jason (March 31, 2020). "स्किकिट-लर्न, एक्सजीबीओस्ट, लाइटजीबीएम और कैटबूस्ट के साथ ग्रेडिएंट बूस्टिंग".
- ↑ Kopitar, Leon; Kocbek, Primoz; Cilar, Leona; Sheikh, Aziz; Stiglic, Gregor (July 20, 2020). "Early detection of type 2 diabetes mellitus using machine learning-based prediction models". Scientific Reports. 10 (1): 11981. Bibcode:2020NatSR..1011981K. doi:10.1038/s41598-020-68771-z. PMC 7371679. PMID 32686721 – via www.nature.com.
- ↑ "LightGBM पैरामीटर्स को समझना (और उन्हें कैसे ट्यून करें)". neptune.ai. May 6, 2020.
- ↑ "लाइट जीबीएम का अवलोकन". avanwyk. May 16, 2018.
- ↑ "Parameters — LightGBM 3.0.0.99 documentation". lightgbm.readthedocs.io.
- ↑ The Gradient Boosters IV: LightGBM – Deep & Shallow
- ↑ XGBoost, LightGBM, and Other Kaggle Competition Favorites | by Andre Ye | Sep, 2020 | Towards Data Science
- ↑ Manish, Mehta; Rakesh, Agrawal; Jorma, Rissanen (Nov 24, 2020). "SLIQ: A fast scalable classifier for data mining". International Conference on Extending Database Technology: 18–32. CiteSeerX 10.1.1.89.7734.
- ↑ "Features — LightGBM 3.1.0.99 documentation". lightgbm.readthedocs.io.
- ↑ 13.0 13.1 13.2 Ke, Guolin; Meng, Qi; Finley, Thomas; Wang, Taifeng; Chen, Wei; Ma, Weidong; Ye, Qiwei; Liu, Tie-Yan (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree". Advances in Neural Information Processing Systems (in English). 30.
- ↑ "lightgbm: LightGBM Python Package". 7 July 2022 – via PyPI.
- ↑ "Microsoft.ML.Trainers.LightGbm नाम स्थान". docs.microsoft.com.
- ↑ "microsoft/LightGBM". October 6, 2020 – via GitHub.
अग्रिम पठन
- Guolin Ke; Qi Meng; Thomas Finely; Taifeng Wang; Wei Chen; Weidong Ma; Qiwei Ye; Tie-Yan Liu (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree" (PDF).
{{cite journal}}: Cite journal requires|journal=(help) - Quinto, Butch (2020). Next-Generation Machine Learning with Spark – Covers XGBoost, LightGBM, Spark NLP, Distributed Deep Learning with Keras, and More. Apress. ISBN 978-1-4842-5668-8.
- Bhave, Roshan (2021). Practical Machine Learning with LightGBM and Python: Explore Microsoft's gradient boosting framework to optimize machine learning. Packt Publishing. ISBN 978-1800564749.