लाइट जीबीएम: Difference between revisions
No edit summary |
No edit summary |
||
| Line 22: | Line 22: | ||
}} | }} | ||
लाइटजीबीएम, लाइट ग्रैडिएंट-बूस्टिंग मशीन के लिए छोटा, एक मुफ़्त और ओपन-स्रोत हैl मुफ़्त और ओपन-सोर्स वितरित [[ग्रेडिएंट बूस्टिंग]] | लाइटजीबीएम, लाइट ग्रैडिएंट-बूस्टिंग मशीन के लिए छोटा, एक मुफ़्त और ओपन-स्रोत हैl मुफ़्त और ओपन-सोर्स वितरित [[ग्रेडिएंट बूस्टिंग]][[ यंत्र अधिगम ]] के लिए ग्रेडिएंट-बूस्टिंग फ्रेमवर्क, मूल रूप से [[Microsoft|मिक्रोसॉफ़]] द्वारा विकसित किया गया है।<ref>{{Cite web|url=https://machinelearningmastery.com/gradient-boosting-with-scikit-learn-xgboost-lightgbm-and-catboost/|title=स्किकिट-लर्न, एक्सजीबीओस्ट, लाइटजीबीएम और कैटबूस्ट के साथ ग्रेडिएंट बूस्टिंग|first=Jason|last=Brownlee|date=March 31, 2020}}</ref><ref>{{Cite journal|url= |title=Early detection of type 2 diabetes mellitus using machine learning-based prediction models|first1=Leon|last1=Kopitar|first2=Primoz|last2=Kocbek|first3=Leona|last3=Cilar|first4=Aziz|last4=Sheikh|first5=Gregor|last5=Stiglic|date=July 20, 2020|journal=Scientific Reports|volume=10|issue=1|pages=11981|via=www.nature.com|doi=10.1038/s41598-020-68771-z|pmid=32686721|pmc=7371679|bibcode=2020NatSR..1011981K}}</ref> यह [[निर्णय वृक्ष|निर्णय ट्री]] एल्गोरिदम पर आधारित है और इसका उपयोग [[रैंक करना सीखना|रैंकिंग]], [[ सांख्यिकीय वर्गीकरण |सांख्यिकीय वर्गीकरण]] और अन्य मशीन लर्निंग कार्यों के लिए किया जाता है। इसके उन्नति के लिए इसके प्रदर्शन और मापनीयता पर विशेष ध्यान देना चाहिए। | ||
== सिंहावलोकन == | == सिंहावलोकन == | ||
Revision as of 17:22, 4 June 2023
| Original author(s) | Guolin Ke[1] / Microsoft Research |
|---|---|
| Developer(s) | Microsoft and LightGBM contributors[2] |
| Initial release | 2016 |
| Stable release | v3.3.4[3]
/ December 29, 2022 |
| Repository | github |
| Written in | C++, Python, R, C |
| Operating system | Windows, macOS, Linux |
| Type | Machine learning, gradient boosting framework |
| License | MIT License |
| Website | lightgbm |
लाइटजीबीएम, लाइट ग्रैडिएंट-बूस्टिंग मशीन के लिए छोटा, एक मुफ़्त और ओपन-स्रोत हैl मुफ़्त और ओपन-सोर्स वितरित ग्रेडिएंट बूस्टिंगयंत्र अधिगम के लिए ग्रेडिएंट-बूस्टिंग फ्रेमवर्क, मूल रूप से मिक्रोसॉफ़ द्वारा विकसित किया गया है।[4][5] यह निर्णय ट्री एल्गोरिदम पर आधारित है और इसका उपयोग रैंकिंग, सांख्यिकीय वर्गीकरण और अन्य मशीन लर्निंग कार्यों के लिए किया जाता है। इसके उन्नति के लिए इसके प्रदर्शन और मापनीयता पर विशेष ध्यान देना चाहिए।
सिंहावलोकन
लाइटजीबीएम फ्रेमवर्क जीबीटी, जीबीडीटी, ग्रेडिएंट-बूस्टेड रिग्रेशन ट्री, ग्रेडिएंट बूस्टिंग मशीन, एकाधिक योजक प्रतिगमन ट्री, सहित विभिन्न एल्गोरिदम का समर्थन करता है [6][7] और रैंडम वन [8] लाइट जीबीएम में एक्सजीबीओस्ट के कई फायदे हैं, जिनमें विरल अनुकूलन, समानांतर प्रशिक्षण, कई नुकसान कार्य, नियमितीकरण, बैगिंग और शीघ्र अवरोधन सम्मिलित है। ट्री के निर्माण में दोनों के बीच एक बड़ा अंतर है। लाइट जीबीएम एक ट्री स्तर-वार - पंक्ति दर पंक्ति नहीं बढ़ता है - जैसा कि अधिकांश अन्य कार्यान्वयन करते हैं।[9] इसके बजाय यह पत्तों की तरह ट्री को उगाता है। यह उस पत्ते को चुनता है जिसके बारे में उसका मानना है कि नुकसान में सबसे बड़ी कमी आएगी।[10] इसके अलावा, लाइट जीबीएम व्यापक रूप से उपयोग किए जाने वाले सॉर्टेड-आधारित निर्णय ट्री लर्निंग एल्गोरिदम का उपयोग नहीं करता है, जो सॉर्ट किए गए फीचर वैल्यू पर सबसे अच्छा विभाजन बिंदु खोजता है,[11] जैसा कि XGBoost (एक्सजीबूस्ट) या अन्य कार्यान्वयन करते हैं। इसके बजाय, लाइट जीबीएम अत्यधिक अनुकूलित हिस्टोग्राम-आधारित निर्णय ट्री लर्निंग एल्गोरिदम को लागू करता है, जो दक्षता और मेमोरी खपत दोनों पर बहुत लाभ देता है।[12] लाइटजीबीएम एल्गोरिथ्म ग्रेडिएंट-बेस्ड वन-साइड सैंपलिंग (जीओएसएस) और एक्सक्लूसिव फ़ीचर बंडलिंग (ईएफबी) नामक दो नई तकनीकों का उपयोग करता है जो उच्च स्तर की सटीकता बनाए रखते हुए एल्गोरिथ्म को तेज़ी से चलाने की अनुमति देता है।[13]
लाइटजीबीएम लिनक्स, विंडोज और मैकओएस पर काम करता है और C++, पायथन (प्रोग्रामिंग लैंग्वेज) को सपोर्ट करता है।[14] आ आर (प्रोग्रामिंग भाषा) , और सी शार्प (प्रोग्रामिंग लैंग्वेज) | C#।[15] स्रोत कोड एमआईटी लाइसेंस के तहत लाइसेंस प्राप्त है और गिटहब पर उपलब्ध है।[16]
ग्रेडिएन्ट-आधारित एक तरफा नमूनाकरण
ग्रेडिएंट-आधारित वन-साइड सैंपलिंग (जीओएसएस) एक ऐसी विधि है जो इस तथ्य का लाभ उठाती है कि जीबीडीटी में डेटा उदाहरण के लिए कोई मूल भार नहीं है। चूँकि अलग-अलग ग्रेडिएंट्स वाले डेटा इंस्टेंसेस सूचना लाभ की गणना में अलग-अलग भूमिकाएँ निभाते हैं, बड़े ग्रेडिएंट्स वाले इंस्टेंसेस सूचना लाभ में अधिक योगदान देते है। इसलिए जानकारी की सटीकता बनाए रखने के लिए, जीओएसएस बड़े ग्रेडिएंट्स के साथ इंस्टेंसेस रखता है और छोटे ग्रेडिएंट्स के साथ रैंडम रूप से इंस्टेंसेस को ड्रॉप करता है।[13]
एक्सक्लूसिव फीचर बंडलिंग
एक्सक्लूसिव फीचर बंडलिंग (ईएफबी) प्रभावी सुविधाओं की संख्या को कम करने के लिए लगभग दोषरहित तरीका है। विरल फीचर स्पेस में कई फीचर्स लगभग एक्सक्लूसिव होते हैं, जिसका अर्थ है कि वे शायद ही कभी नॉनजरो वैल्यू एक साथ लेते हैं। वन-हॉट एन्कोडेड फीचर एक्सक्लूसिव फीचर्स का एक आदर्श उदाहरण है। ईएफबी इन सुविधाओं को बंडल करता है, सटीकता के उच्च स्तर को बनाए रखते हुए दक्षता में सुधार के लिए आयाम को कम करता है। अनन्य सुविधाओं के बंडल को एकल सुविधा में एक अनन्य सुविधा बंडल कहा जाता है। [13]
यह भी देखें
- यंत्र अधिगम
- एमएल.नेट
- डेटा बिनिंग
- ग्रेडिएंट बूस्टिंग
- एक्सजीबूस्ट
- कैटबूस्ट
- स्किकिट-सीखें
संदर्भ
- ↑ "Guolin Ke". GitHub.
- ↑ "microsoft/LightGBM". GitHub. 7 July 2022.
- ↑ "Releases · microsoft/LightGBM". GitHub.
- ↑ Brownlee, Jason (March 31, 2020). "स्किकिट-लर्न, एक्सजीबीओस्ट, लाइटजीबीएम और कैटबूस्ट के साथ ग्रेडिएंट बूस्टिंग".
- ↑ Kopitar, Leon; Kocbek, Primoz; Cilar, Leona; Sheikh, Aziz; Stiglic, Gregor (July 20, 2020). "Early detection of type 2 diabetes mellitus using machine learning-based prediction models". Scientific Reports. 10 (1): 11981. Bibcode:2020NatSR..1011981K. doi:10.1038/s41598-020-68771-z. PMC 7371679. PMID 32686721 – via www.nature.com.
- ↑ "LightGBM पैरामीटर्स को समझना (और उन्हें कैसे ट्यून करें)". neptune.ai. May 6, 2020.
- ↑ "लाइट जीबीएम का अवलोकन". avanwyk. May 16, 2018.
- ↑ "Parameters — LightGBM 3.0.0.99 documentation". lightgbm.readthedocs.io.
- ↑ The Gradient Boosters IV: LightGBM – Deep & Shallow
- ↑ XGBoost, LightGBM, and Other Kaggle Competition Favorites | by Andre Ye | Sep, 2020 | Towards Data Science
- ↑ Manish, Mehta; Rakesh, Agrawal; Jorma, Rissanen (Nov 24, 2020). "SLIQ: A fast scalable classifier for data mining". International Conference on Extending Database Technology: 18–32. CiteSeerX 10.1.1.89.7734.
- ↑ "Features — LightGBM 3.1.0.99 documentation". lightgbm.readthedocs.io.
- ↑ 13.0 13.1 13.2 Ke, Guolin; Meng, Qi; Finley, Thomas; Wang, Taifeng; Chen, Wei; Ma, Weidong; Ye, Qiwei; Liu, Tie-Yan (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree". Advances in Neural Information Processing Systems (in English). 30.
- ↑ "lightgbm: LightGBM Python Package". 7 July 2022 – via PyPI.
- ↑ "Microsoft.ML.Trainers.LightGbm नाम स्थान". docs.microsoft.com.
- ↑ "microsoft/LightGBM". October 6, 2020 – via GitHub.
अग्रिम पठन
- Guolin Ke; Qi Meng; Thomas Finely; Taifeng Wang; Wei Chen; Weidong Ma; Qiwei Ye; Tie-Yan Liu (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree" (PDF).
{{cite journal}}: Cite journal requires|journal=(help) - Quinto, Butch (2020). Next-Generation Machine Learning with Spark – Covers XGBoost, LightGBM, Spark NLP, Distributed Deep Learning with Keras, and More. Apress. ISBN 978-1-4842-5668-8.
- Bhave, Roshan (2021). Practical Machine Learning with LightGBM and Python: Explore Microsoft's gradient boosting framework to optimize machine learning. Packt Publishing. ISBN 978-1800564749.