हिंज लॉस: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 15: Line 15:
इसे एक रैखिक क्लासिफायर के रूप में परिभाषित किया गया है<ref>{{cite conference |first1=Robert C. |last1=Moore |first2=John |last2=DeNero |title=L<sub>1</sub> and L<sub>2</sub> regularization for multiclass hinge loss models |url=http://www.ttic.edu/sigml/symposium2011/papers/Moore+DeNero_Regularization.pdf|book-title=Proc. Symp. on Machine Learning in Speech and Language Processing |year=2011}}</ref>
इसे एक रैखिक क्लासिफायर के रूप में परिभाषित किया गया है<ref>{{cite conference |first1=Robert C. |last1=Moore |first2=John |last2=DeNero |title=L<sub>1</sub> and L<sub>2</sub> regularization for multiclass hinge loss models |url=http://www.ttic.edu/sigml/symposium2011/papers/Moore+DeNero_Regularization.pdf|book-title=Proc. Symp. on Machine Learning in Speech and Language Processing |year=2011}}</ref>
:<math>\ell(y) = \max(0, 1 + \max_{y \ne t} \mathbf{w}_y \mathbf{x} - \mathbf{w}_t \mathbf{x})</math>
:<math>\ell(y) = \max(0, 1 + \max_{y \ne t} \mathbf{w}_y \mathbf{x} - \mathbf{w}_t \mathbf{x})</math>
कहाँ <math>t</math> लक्ष्य लेबल है, <math>\mathbf{w}_t</math> और <math>\mathbf{w}_y</math> मॉडल पैरामीटर हैं.
जहाँ <math>t</math> लक्ष्य लेबल है, <math>\mathbf{w}_t</math> और <math>\mathbf{w}_y</math> मॉडल पैरामीटर के रूप हैं.


वेस्टन और वॉटकिंस ने एक समान परिभाषा प्रदान की, लेकिन अधिकतम के अतिरिक्त योग के साथ:<ref>{{cite conference |first1=Jason |last1=Weston |first2=Chris |last2=Watkins |title=मल्टी-क्लास पैटर्न पहचान के लिए वेक्टर मशीनों का समर्थन करें|url=https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es1999-461.pdf |book-title=European Symposium on Artificial Neural Networks |year=1999}}</ref><ref name="unifiedview" />
वेस्टन और वॉटकिंस ने एक समान परिभाषा प्रदान की लेकिन अधिकतम अतिरिक्त योग के साथ किया जाता है:<ref>{{cite conference |first1=Jason |last1=Weston |first2=Chris |last2=Watkins |title=मल्टी-क्लास पैटर्न पहचान के लिए वेक्टर मशीनों का समर्थन करें|url=https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es1999-461.pdf |book-title=European Symposium on Artificial Neural Networks |year=1999}}</ref><ref name="unifiedview" />


:<math>\ell(y) = \sum_{y \ne t} \max(0, 1 + \mathbf{w}_y \mathbf{x} - \mathbf{w}_t \mathbf{x})</math>
:<math>\ell(y) = \sum_{y \ne t} \max(0, 1 + \mathbf{w}_y \mathbf{x} - \mathbf{w}_t \mathbf{x})</math>
[[संरचित भविष्यवाणी]] में, काज हानि को आगे संरचित आउटपुट समष्टि तक बढ़ाया जा सकता है। मार्जिन रीस्केलिंग के साथ [[संरचित समर्थन वेक्टर मशीन|संरचित समर्थन सदिश मशीन]] निम्नलिखित संस्करण का उपयोग करती है, जहां {{math|'''w'''}} एसवीएम के मापदंडों को दर्शाता है, {{math|'''y'''}} एसवीएम की भविष्यवाणियां, {{mvar|φ}} संयुक्त सुविधा फलन, और {{math|Δ}} [[हैमिंग हानि]]:
[[संरचित भविष्यवाणी]] में, काज हानि को आगे संरचित आउटपुट समष्टि के रूप में बढ़ाया जा सकता है। मार्जिन रीस्केलिंग के साथ [[संरचित समर्थन वेक्टर मशीन|संरचित सपोर्ट वेक्टर मशीन]] निम्नलिखित वेरिएंट का उपयोग करते है, जहां {{math|'''w'''}} एसवीएम के मापदंडों को दर्शाता है, {{math|'''y'''}} एसवीएम की भविष्यवाणियां, {{mvar|φ}} संयुक्त सुविधा फलन और {{math|Δ}} [[हैमिंग हानि]]:के रूप में होते है.


:<math>\begin{align}
:<math>\begin{align}

Revision as of 15:08, 6 August 2023

ऊर्ध्वाधर अक्ष निश्चित के लिए हिंज हानि (नीले रंग में) और शून्य-एक हानि (हरे रंग में) के मूल्य का प्रतिनिधित्व करता है t = 1, जबकि क्षैतिज अक्ष भविष्यवाणी के मूल्य का प्रतिनिधित्व करता है y. कथानक से पता चलता है कि हिंज हानि भविष्यवाणियों को दंडित करती है y < 1, एक सपोर्ट सदिश मशीन में मार्जिन की धारणा के अनुरूप।

मशीन लर्निंग में, हिंज लॉस एक हानि फलन के रूप में है। जिसका उपयोग सांख्यिकीय क्लासिफायर के प्रशिक्षण के लिए किया जाता है। हिंज लॉस का उपयोग अधिकतम-मार्जिन वर्गीकरण के लिए किया जाता है, विशेष रूप से सपोर्ट वेक्टर मशीन (एसवीएम) के ।[1] रूप में किया जाता है

किसी इच्छित आउटपुट के लिए t = ±1 और एक क्लासिफायर स्कोर y के लिए, भविष्यवाणी y के हिंज लॉस को इस प्रकार परिभाषित किया गया है.

ध्यान दें कि क्लासिफायर के निर्णय फलन का कच्चा आउटपुट होना चाहिए, न कि अनुमानित क्लास लेबल। उदाहरण के लिए, रैखिक एसवीएम में, , जहाँ हाइपरप्लेन के पैरामीटर के रूप में हैं और इनपुट वेरिएबल है।

जब t और y के चिन्ह का (अर्थ) एक ही है, y सही वर्ग की भविष्यवाणी करता है और , काज हानि . जब उनके विपरीत लक्षण हों, के साथ रैखिक रूप से बढ़ता है y, और इसी प्रकार यदि , यदि उसका चिह्न समान हो (भविष्यवाणी सही है, लेकिन पर्याप्त अंतर से नहीं होता है)।

एक्सटेंशन

जबकि बाइनरी एसवीएम को सामान्यतः एक बनाम सभी या एक बनाम एक फैशन में मल्टीक्लास वर्गीकरण के रूप में विस्तारित किया जाता है,[2]

इस तरह के अंत के लिए हिंज लॉस का विस्तार करना भी संभव है। मल्टीक्लास हिंज लॉस के कई भिन्न-भिन्न रूप प्रस्तावित किए गए हैं।[3] उदाहरण के लिए, क्रैमर और सिंगर[4]

इसे एक रैखिक क्लासिफायर के रूप में परिभाषित किया गया है[5]

जहाँ लक्ष्य लेबल है, और मॉडल पैरामीटर के रूप हैं.

वेस्टन और वॉटकिंस ने एक समान परिभाषा प्रदान की लेकिन अधिकतम अतिरिक्त योग के साथ किया जाता है:[6][3]

संरचित भविष्यवाणी में, काज हानि को आगे संरचित आउटपुट समष्टि के रूप में बढ़ाया जा सकता है। मार्जिन रीस्केलिंग के साथ संरचित सपोर्ट वेक्टर मशीन निम्नलिखित वेरिएंट का उपयोग करते है, जहां w एसवीएम के मापदंडों को दर्शाता है, y एसवीएम की भविष्यवाणियां, φ संयुक्त सुविधा फलन और Δ हैमिंग हानि:के रूप में होते है.


अनुकूलन

हिंज हानि एक उत्तल कार्य है, इसलिए मशीन लर्निंग में उपयोग किए जाने वाले कई सामान्य उत्तल ऑप्टिमाइज़र इसके साथ काम कर सकते हैं। यह अवकल कार्य नहीं है, लेकिन इसमें मॉडल पैरामीटर के संबंध में एक सबडेरिवेटिव # सबग्रेडिएंट है wस्कोर फलन के साथ एक रैखिक एसवीएम का जो कि दिया गया है