लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Algorithm used to solve non-linear least squares problems}} गणित और कंप्यूटिंग में, लेवेनबर्ग-म...")
 
No edit summary
Line 1: Line 1:
{{short description|Algorithm used to solve non-linear least squares problems}}
{{short description|Algorithm used to solve non-linear least squares problems}}
गणित और कंप्यूटिंग में, लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम (एलएमए या सिर्फ एलएम), जिसे डैम्प्ड न्यूनतम-वर्ग (डीएलएस) विधि के रूप में भी जाना जाता है, का उपयोग गैर-रेखीय न्यूनतम वर्ग समस्याओं को हल करने के लिए किया जाता है। ये न्यूनतमकरण समस्याएँ विशेष रूप से न्यूनतम वर्ग [[वक्र फिटिंग]] में उत्पन्न होती हैं। एलएमए गॉस-न्यूटन एल्गोरिदम (जीएनए) और [[ ढतला हुआ वंश ]] की विधि के बीच अंतरण करता है। एलएमए जीएनए की तुलना में अधिक [[मजबूती (कंप्यूटर विज्ञान)]] है, जिसका अर्थ है कि कई मामलों में यह एक समाधान ढूंढ लेता है, भले ही यह अंतिम न्यूनतम से बहुत दूर शुरू हो। अच्छे व्यवहार वाले कार्यों और उचित शुरुआती मापदंडों के लिए, एलएमए जीएनए की तुलना में धीमा होता है। ट्रस्ट क्षेत्र दृष्टिकोण का उपयोग करके एलएमए को गॉस-न्यूटन के रूप में भी देखा जा सकता है।
गणित और कंप्यूटिंग में, लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम (एलएमए या सिर्फ एलएम), जिसे डैम्प्ड न्यूनतम-वर्ग (डीएलएस) विधि के रूप में भी जाना जाता है, का उपयोग गैर-रेखीय न्यूनतम वर्ग समस्याओं को हल करने के लिए किया जाता है। ये न्यूनतमकरण समस्याएँ विशेष रूप से न्यूनतम वर्ग [[वक्र फिटिंग]] में उत्पन्न होती हैं। एलएमए गॉस-न्यूटन एल्गोरिदम (जीएनए) और [[ ढतला हुआ वंश ]] की विधि के बीच अंतरण करता है। एलएमए जीएनए की तुलना में अधिक [[मजबूती (कंप्यूटर विज्ञान)]] है, जिसका अर्थ है कि कई मामलों में यह समाधान ढूंढ लेता है, भले ही यह अंतिम न्यूनतम से बहुत दूर शुरू हो। अच्छे व्यवहार वाले कार्यों और उचित शुरुआती मापदंडों के लिए, एलएमए जीएनए की तुलना में धीमा होता है। ट्रस्ट क्षेत्र दृष्टिकोण का उपयोग करके एलएमए को गॉस-न्यूटन के रूप में भी देखा जा सकता है।


एल्गोरिथम पहली बार 1944 में [[केनेथ लेवेनबर्ग]] द्वारा प्रकाशित किया गया था,<ref name="Levenberg"/>[[फ्रैंकफोर्ड शस्त्रागार]] में काम करते समय। इसे 1963 में [[डोनाल्ड मार्क्वार्ट]] द्वारा पुनः खोजा गया था,<ref name="Marquardt"/>जिन्होंने ड्यूपॉन्ट में एक [[सांख्यिकीविद]]् के रूप में और गिरार्ड द्वारा स्वतंत्र रूप से काम किया,<ref name="Girard"/>वेन<ref name="Wynne"/>और मॉरिसन.<ref name="Morrison"/>
एल्गोरिथम पहली बार 1944 में [[केनेथ लेवेनबर्ग]] द्वारा प्रकाशित किया गया था,<ref name="Levenberg"/>[[फ्रैंकफोर्ड शस्त्रागार]] में काम करते समय। इसे 1963 में [[डोनाल्ड मार्क्वार्ट]] द्वारा पुनः खोजा गया था,<ref name="Marquardt"/>जिन्होंने ड्यूपॉन्ट में [[सांख्यिकीविद]]् के रूप में और गिरार्ड द्वारा स्वतंत्र रूप से काम किया,<ref name="Girard"/>वेन<ref name="Wynne"/>और मॉरिसन.<ref name="Morrison"/>


सामान्य कर्व-फिटिंग समस्याओं को हल करने के लिए कई सॉफ्टवेयर अनुप्रयोगों में एलएमए का उपयोग किया जाता है। गॉस-न्यूटन एल्गोरिदम का उपयोग करके यह अक्सर प्रथम-क्रम विधियों की तुलना में तेज़ी से परिवर्तित होता है।<ref>{{cite journal|title=Improved Computation for Levenberg–Marquardt Training|last1=Wiliamowski|first1=Bogdan|last2=Yu|first2=Hao|journal=IEEE Transactions on Neural Networks and Learning Systems|volume=21|issue=6|date=June 2010|url=https://www.eng.auburn.edu/~wilambm/pap/2010/Improved%20Computation%20for%20LM%20Training.pdf}}</ref> हालाँकि, अन्य पुनरावृत्त अनुकूलन एल्गोरिदम की तरह, एलएमए केवल एक [[स्थानीय न्यूनतम]] पाता है, जो जरूरी नहीं कि [[वैश्विक न्यूनतम]] हो।
सामान्य कर्व-फिटिंग समस्याओं को हल करने के लिए कई सॉफ्टवेयर अनुप्रयोगों में एलएमए का उपयोग किया जाता है। गॉस-न्यूटन एल्गोरिदम का उपयोग करके यह अक्सर प्रथम-क्रम विधियों की तुलना में तेज़ी से परिवर्तित होता है।<ref>{{cite journal|title=Improved Computation for Levenberg–Marquardt Training|last1=Wiliamowski|first1=Bogdan|last2=Yu|first2=Hao|journal=IEEE Transactions on Neural Networks and Learning Systems|volume=21|issue=6|date=June 2010|url=https://www.eng.auburn.edu/~wilambm/pap/2010/Improved%20Computation%20for%20LM%20Training.pdf}}</ref> हालाँकि, अन्य पुनरावृत्त अनुकूलन एल्गोरिदम की तरह, एलएमए केवल [[स्थानीय न्यूनतम]] पाता है, जो जरूरी नहीं कि [[वैश्विक न्यूनतम]] हो।


== समस्या ==
== समस्या ==
लेवेनबर्ग-मार्क्वार्ड एल्गोरिथ्म का प्राथमिक अनुप्रयोग न्यूनतम-वर्ग वक्र फिटिंग समस्या में है: का एक सेट दिया गया है <math>m</math> अनुभवजन्य जोड़े <math>\left (x_i, y_i\right )</math> स्वतंत्र और आश्रित चर के पैरामीटर खोजें {{tmath|\boldsymbol\beta}} मॉडल वक्र का <math>f\left (x, \boldsymbol\beta\right )</math> ताकि विचलनों के वर्गों का योग हो <math>S\left (\boldsymbol\beta\right )</math> न्यूनतम किया गया है:
लेवेनबर्ग-मार्क्वार्ड एल्गोरिथ्म का प्राथमिक अनुप्रयोग न्यूनतम-वर्ग वक्र फिटिंग समस्या में है: का सेट दिया गया है <math>m</math> अनुभवजन्य जोड़े <math>\left (x_i, y_i\right )</math> स्वतंत्र और आश्रित चर के पैरामीटर खोजें {{tmath|\boldsymbol\beta}} मॉडल वक्र का <math>f\left (x, \boldsymbol\beta\right )</math> ताकि विचलनों के वर्गों का योग हो <math>S\left (\boldsymbol\beta\right )</math> न्यूनतम किया गया है:


:<math>\hat{\boldsymbol\beta} \in \operatorname{argmin}\limits_{\boldsymbol\beta} S\left (\boldsymbol\beta\right ) \equiv \operatorname{argmin}\limits_{\boldsymbol\beta} \sum_{i=1}^m \left [y_i - f\left (x_i, \boldsymbol\beta\right )\right ]^2,</math> जिसे गैर-रिक्त माना जाता है।
:<math>\hat{\boldsymbol\beta} \in \operatorname{argmin}\limits_{\boldsymbol\beta} S\left (\boldsymbol\beta\right ) \equiv \operatorname{argmin}\limits_{\boldsymbol\beta} \sum_{i=1}^m \left [y_i - f\left (x_i, \boldsymbol\beta\right )\right ]^2,</math> जिसे गैर-रिक्त माना जाता है।


== समाधान ==
== समाधान ==
अन्य संख्यात्मक न्यूनीकरण एल्गोरिदम की तरह, लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम एक पुनरावृत्ति प्रक्रिया है। न्यूनतमकरण शुरू करने के लिए, उपयोगकर्ता को पैरामीटर वेक्टर के लिए प्रारंभिक अनुमान प्रदान करना होगा {{tmath|\boldsymbol\beta}}. केवल एक न्यूनतम वाले मामलों में, एक बेख़बर मानक अनुमान जैसा होता है <math>\boldsymbol\beta^\text{T} = \begin{pmatrix}1,\ 1,\ \dots,\ 1\end{pmatrix}</math> ठीक काम करेगा; स्थानीय न्यूनतम वाले मामलों में, एल्गोरिदम वैश्विक न्यूनतम में तभी परिवर्तित होता है जब प्रारंभिक अनुमान पहले से ही अंतिम समाधान के कुछ करीब हो।
अन्य संख्यात्मक न्यूनीकरण एल्गोरिदम की तरह, लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम पुनरावृत्ति प्रक्रिया है। न्यूनतमकरण शुरू करने के लिए, उपयोगकर्ता को पैरामीटर वेक्टर के लिए प्रारंभिक अनुमान प्रदान करना होगा {{tmath|\boldsymbol\beta}}. केवल न्यूनतम वाले मामलों में, बेख़बर मानक अनुमान जैसा होता है <math>\boldsymbol\beta^\text{T} = \begin{pmatrix}1,\ 1,\ \dots,\ 1\end{pmatrix}</math> ठीक काम करेगा; स्थानीय न्यूनतम वाले मामलों में, एल्गोरिदम वैश्विक न्यूनतम में तभी परिवर्तित होता है जब प्रारंभिक अनुमान पहले से ही अंतिम समाधान के कुछ करीब हो।


प्रत्येक पुनरावृत्ति चरण में, पैरामीटर वेक्टर {{tmath|\boldsymbol\beta}} को एक नए अनुमान से बदल दिया गया है {{tmath|\boldsymbol\beta + \boldsymbol\delta}}. इरादा करना {{tmath|\boldsymbol\delta}}, कार्यक्रम <math>f\left (x_i, \boldsymbol\beta + \boldsymbol\delta\right )</math> इसके Gradient#Linear_approximation_to_a_function द्वारा अनुमानित है:
प्रत्येक पुनरावृत्ति चरण में, पैरामीटर वेक्टर {{tmath|\boldsymbol\beta}} को नए अनुमान से बदल दिया गया है {{tmath|\boldsymbol\beta + \boldsymbol\delta}}. इरादा करना {{tmath|\boldsymbol\delta}}, कार्यक्रम <math>f\left (x_i, \boldsymbol\beta + \boldsymbol\delta\right )</math> इसके Gradient#Linear_approximation_to_a_function द्वारा अनुमानित है:


: <math>f\left (x_i, \boldsymbol\beta + \boldsymbol\delta\right ) \approx f\left (x _i, \boldsymbol\beta\right ) + \mathbf J_i \boldsymbol\delta,</math>
: <math>f\left (x_i, \boldsymbol\beta + \boldsymbol\delta\right ) \approx f\left (x _i, \boldsymbol\beta\right ) + \mathbf J_i \boldsymbol\delta,</math>
Line 33: Line 33:
:<math>\left (\mathbf J^{\mathrm T} \mathbf J\right )\boldsymbol\delta = \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ],</math>
:<math>\left (\mathbf J^{\mathrm T} \mathbf J\right )\boldsymbol\delta = \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ],</math>
कहाँ <math>\mathbf J</math> [[जैकोबियन मैट्रिक्स और निर्धारक]] है, जिसका {{tmath|i}}-वीं पंक्ति बराबर होती है <math>\mathbf J_i</math>, और कहाँ <math>\mathbf f\left (\boldsymbol\beta\right )</math> और <math>\mathbf y</math> वेक्टर के साथ हैं {{tmath|i}}-वाँ घटक
कहाँ <math>\mathbf J</math> [[जैकोबियन मैट्रिक्स और निर्धारक]] है, जिसका {{tmath|i}}-वीं पंक्ति बराबर होती है <math>\mathbf J_i</math>, और कहाँ <math>\mathbf f\left (\boldsymbol\beta\right )</math> और <math>\mathbf y</math> वेक्टर के साथ हैं {{tmath|i}}-वाँ घटक
  <math>f\left (x_i, \boldsymbol\beta\right )</math> और <math>y_i</math> क्रमश। उपरोक्त अभिव्यक्ति के लिए प्राप्त की गई {{tmath|\boldsymbol\beta}} गॉस-न्यूटन विधि के अंतर्गत आता है। ऊपर परिभाषित जैकोबियन मैट्रिक्स (सामान्य तौर पर) एक वर्ग मैट्रिक्स नहीं है, बल्कि आकार का एक आयताकार मैट्रिक्स है <math>m \times n</math>, कहाँ <math>n</math> पैरामीटरों की संख्या (वेक्टर का आकार) है <math>\boldsymbol\beta</math>). मैट्रिक्स गुणन <math>\left (\mathbf J^{\mathrm T} \mathbf J\right)</math> आवश्यक उपज देता है <math>n \times n</math> वर्ग मैट्रिक्स और दाहिनी ओर मैट्रिक्स-वेक्टर उत्पाद आकार का एक वेक्टर उत्पन्न करता है <math>n</math>. परिणाम का एक सेट है <math>n</math> रैखिक समीकरण, जिन्हें हल किया जा सकता है {{tmath|\boldsymbol\delta}}.
  <math>f\left (x_i, \boldsymbol\beta\right )</math> और <math>y_i</math> क्रमश। उपरोक्त अभिव्यक्ति के लिए प्राप्त की गई {{tmath|\boldsymbol\beta}} गॉस-न्यूटन विधि के अंतर्गत आता है। ऊपर परिभाषित जैकोबियन मैट्रिक्स (सामान्य तौर पर) वर्ग मैट्रिक्स नहीं है, बल्कि आकार का आयताकार मैट्रिक्स है <math>m \times n</math>, कहाँ <math>n</math> पैरामीटरों की संख्या (वेक्टर का आकार) है <math>\boldsymbol\beta</math>). मैट्रिक्स गुणन <math>\left (\mathbf J^{\mathrm T} \mathbf J\right)</math> आवश्यक उपज देता है <math>n \times n</math> वर्ग मैट्रिक्स और दाहिनी ओर मैट्रिक्स-वेक्टर उत्पाद आकार का वेक्टर उत्पन्न करता है <math>n</math>. परिणाम का सेट है <math>n</math> रैखिक समीकरण, जिन्हें हल किया जा सकता है {{tmath|\boldsymbol\delta}}.


लेवेनबर्ग का योगदान इस समीकरण को एक नम संस्करण द्वारा प्रतिस्थापित करना है:
लेवेनबर्ग का योगदान इस समीकरण को नम संस्करण द्वारा प्रतिस्थापित करना है:


:<math>\left (\mathbf J^{\mathrm T} \mathbf J + \lambda\mathbf I\right ) \boldsymbol\delta = \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right],</math>
:<math>\left (\mathbf J^{\mathrm T} \mathbf J + \lambda\mathbf I\right ) \boldsymbol\delta = \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right],</math>
कहाँ {{tmath|\mathbf I}} पहचान मैट्रिक्स है, जो वेतन वृद्धि के रूप में देता है {{tmath|\boldsymbol\delta}} अनुमानित पैरामीटर वेक्टर के लिए {{tmath|\boldsymbol\beta}}.
कहाँ {{tmath|\mathbf I}} पहचान मैट्रिक्स है, जो वेतन वृद्धि के रूप में देता है {{tmath|\boldsymbol\delta}} अनुमानित पैरामीटर वेक्टर के लिए {{tmath|\boldsymbol\beta}}.


(गैर-नकारात्मक) अवमंदन कारक {{tmath|\lambda}} को प्रत्येक पुनरावृत्ति पर समायोजित किया जाता है। यदि की कमी हो {{tmath|S}} तीव्र है, एक छोटे मूल्य का उपयोग किया जा सकता है, जो एल्गोरिदम को गॉस-न्यूटन एल्गोरिदम के करीब लाता है, जबकि यदि कोई पुनरावृत्ति अवशिष्ट में अपर्याप्त कमी देता है, {{tmath|\lambda}} को ग्रेडिएंट-डिसेंट दिशा के करीब एक कदम बढ़ाते हुए बढ़ाया जा सकता है। ध्यान दें कि का ग्रेडिएंट {{tmath|S}} इसके संबंध में {{tmath|\boldsymbol\beta}} बराबर है <math>-2\left (\mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ]\right )^{\mathrm T}</math>. इसलिए, के बड़े मूल्यों के लिए {{tmath|\lambda}}, कदम लगभग ढाल के विपरीत दिशा में उठाया जाएगा। यदि या तो परिकलित चरण की लंबाई {{tmath|\boldsymbol\delta}} या नवीनतम पैरामीटर वेक्टर से वर्गों के योग में कमी {{tmath|\boldsymbol\beta + \boldsymbol\delta}} पूर्वनिर्धारित सीमा से नीचे गिरना, पुनरावृत्ति रुकना, और अंतिम पैरामीटर वेक्टर {{tmath|\boldsymbol\beta}} को समाधान माना जाता है।
(गैर-नकारात्मक) अवमंदन कारक {{tmath|\lambda}} को प्रत्येक पुनरावृत्ति पर समायोजित किया जाता है। यदि की कमी हो {{tmath|S}} तीव्र है, छोटे मूल्य का उपयोग किया जा सकता है, जो एल्गोरिदम को गॉस-न्यूटन एल्गोरिदम के करीब लाता है, जबकि यदि कोई पुनरावृत्ति अवशिष्ट में अपर्याप्त कमी देता है, {{tmath|\lambda}} को ग्रेडिएंट-डिसेंट दिशा के करीब कदम बढ़ाते हुए बढ़ाया जा सकता है। ध्यान दें कि का ग्रेडिएंट {{tmath|S}} इसके संबंध में {{tmath|\boldsymbol\beta}} बराबर है <math>-2\left (\mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ]\right )^{\mathrm T}</math>. इसलिए, के बड़े मूल्यों के लिए {{tmath|\lambda}}, कदम लगभग ढाल के विपरीत दिशा में उठाया जाएगा। यदि या तो परिकलित चरण की लंबाई {{tmath|\boldsymbol\delta}} या नवीनतम पैरामीटर वेक्टर से वर्गों के योग में कमी {{tmath|\boldsymbol\beta + \boldsymbol\delta}} पूर्वनिर्धारित सीमा से नीचे गिरना, पुनरावृत्ति रुकना, और अंतिम पैरामीटर वेक्टर {{tmath|\boldsymbol\beta}} को समाधान माना जाता है।


जब अवमंदन कारक {{tmath|\lambda}} के सापेक्ष बड़ा है <math> \| \mathbf J^{\mathrm T} \mathbf J \| </math>, उलटना <math> \mathbf J^{\mathrm T} \mathbf J + \lambda \mathbf I </math> यह आवश्यक नहीं है, क्योंकि अपडेट छोटे ग्रेडिएंट चरण द्वारा अच्छी तरह से अनुमानित है <math> \lambda^{-1} \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ]</math>.
जब अवमंदन कारक {{tmath|\lambda}} के सापेक्ष बड़ा है <math> \| \mathbf J^{\mathrm T} \mathbf J \| </math>, उलटना <math> \mathbf J^{\mathrm T} \mathbf J + \lambda \mathbf I </math> यह आवश्यक नहीं है, क्योंकि अपडेट छोटे ग्रेडिएंट चरण द्वारा अच्छी तरह से अनुमानित है <math> \lambda^{-1} \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ]</math>.


समाधान पैमाने को अपरिवर्तनीय बनाने के लिए मार्क्वार्ड के एल्गोरिदम ने वक्रता के अनुसार ढाल के प्रत्येक घटक को स्केल करके एक संशोधित समस्या हल की। यह उन दिशाओं में बड़ी गति प्रदान करता है जहां ढाल छोटी है, जो छोटी ढाल की दिशा में धीमी गति से अभिसरण से बचाती है। फ्लेचर ने अपने 1971 के पेपर में गैर-रेखीय न्यूनतम वर्गों के लिए एक संशोधित मार्क्वार्ड सबरूटीन ने पहचान मैट्रिक्स को प्रतिस्थापित करते हुए फॉर्म को सरल बनाया। {{tmath|\mathbf I}} विकर्ण तत्वों से युक्त विकर्ण मैट्रिक्स के साथ {{tmath|\mathbf J^\text{T}\mathbf J}}:
समाधान पैमाने को अपरिवर्तनीय बनाने के लिए मार्क्वार्ड के एल्गोरिदम ने वक्रता के अनुसार ढाल के प्रत्येक घटक को स्केल करके संशोधित समस्या हल की। यह उन दिशाओं में बड़ी गति प्रदान करता है जहां ढाल छोटी है, जो छोटी ढाल की दिशा में धीमी गति से अभिसरण से बचाती है। फ्लेचर ने अपने 1971 के पेपर में गैर-रेखीय न्यूनतम वर्गों के लिए संशोधित मार्क्वार्ड सबरूटीन ने पहचान मैट्रिक्स को प्रतिस्थापित करते हुए फॉर्म को सरल बनाया। {{tmath|\mathbf I}} विकर्ण तत्वों से युक्त विकर्ण मैट्रिक्स के साथ {{tmath|\mathbf J^\text{T}\mathbf J}}:


:<math>\left [\mathbf J^{\mathrm T} \mathbf J + \lambda \operatorname{diag}\left (\mathbf J^{\mathrm T} \mathbf J\right )\right ] \boldsymbol\delta = \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ].</math>
:<math>\left [\mathbf J^{\mathrm T} \mathbf J + \lambda \operatorname{diag}\left (\mathbf J^{\mathrm T} \mathbf J\right )\right ] \boldsymbol\delta = \mathbf J^{\mathrm T}\left [\mathbf y - \mathbf f\left (\boldsymbol\beta\right )\right ].</math>
एक समान अवमंदन कारक [[तिखोनोव नियमितीकरण]] में दिखाई देता है, जिसका उपयोग रैखिक खराब समस्याओं को हल करने के लिए किया जाता है, साथ ही [[ रिज प्रतिगमन ]], सांख्यिकी में एक [[अनुमान सिद्धांत]] तकनीक में भी किया जाता है।
समान अवमंदन कारक [[तिखोनोव नियमितीकरण]] में दिखाई देता है, जिसका उपयोग रैखिक खराब समस्याओं को हल करने के लिए किया जाता है, साथ ही [[ रिज प्रतिगमन ]], सांख्यिकी में [[अनुमान सिद्धांत]] तकनीक में भी किया जाता है।


=== भिगोना पैरामीटर का विकल्प ===
=== भिगोना पैरामीटर का विकल्प ===
डंपिंग पैरामीटर के सर्वोत्तम विकल्प के लिए विभिन्न कमोबेश अनुमानी तर्क सामने रखे गए हैं {{tmath|\lambda}}. सैद्धांतिक तर्क मौजूद हैं जो दिखाते हैं कि इनमें से कुछ विकल्प एल्गोरिदम के स्थानीय अभिसरण की गारंटी क्यों देते हैं; हालाँकि, ये विकल्प एल्गोरिदम के वैश्विक अभिसरण को ग्रेडिएंट डिसेंट के अवांछनीय गुणों से ग्रस्त कर सकते हैं, विशेष रूप से, इष्टतम के करीब बहुत धीमी गति से अभिसरण।
डंपिंग पैरामीटर के सर्वोत्तम विकल्प के लिए विभिन्न कमोबेश अनुमानी तर्क सामने रखे गए हैं {{tmath|\lambda}}. सैद्धांतिक तर्क मौजूद हैं जो दिखाते हैं कि इनमें से कुछ विकल्प एल्गोरिदम के स्थानीय अभिसरण की गारंटी क्यों देते हैं; हालाँकि, ये विकल्प एल्गोरिदम के वैश्विक अभिसरण को ग्रेडिएंट डिसेंट के अवांछनीय गुणों से ग्रस्त कर सकते हैं, विशेष रूप से, इष्टतम के करीब बहुत धीमी गति से अभिसरण।


किसी भी विकल्प का पूर्ण मूल्य इस बात पर निर्भर करता है कि प्रारंभिक समस्या कितनी अच्छी तरह से मापी गई है। मार्क्वार्ड ने एक मूल्य से शुरुआत करने की सिफारिश की {{tmath|\lambda_0}} और एक कारक {{tmath|\nu > 1}}. प्रारंभ में सेटिंग <math>\lambda = \lambda_0</math> और वर्गों के शेष योग की गणना करना <math>S\left (\boldsymbol\beta\right )</math> प्रारंभिक बिंदु से एक कदम के बाद अवमंदन कारक के साथ <math>\lambda = \lambda_0</math> और दूसरे के साथ {{tmath|\lambda_0 / \nu}}. यदि ये दोनों प्रारंभिक बिंदु से भी बदतर हैं, तो अवमंदन को क्रमिक गुणन द्वारा बढ़ाया जाता है {{tmath|\nu}} जब तक एक नए अवमंदन कारक के साथ एक बेहतर बिंदु नहीं मिल जाता {{tmath|\lambda_0\nu^k}} कुछ के लिए {{tmath|k}}.
किसी भी विकल्प का पूर्ण मूल्य इस बात पर निर्भर करता है कि प्रारंभिक समस्या कितनी अच्छी तरह से मापी गई है। मार्क्वार्ड ने मूल्य से शुरुआत करने की सिफारिश की {{tmath|\lambda_0}} और कारक {{tmath|\nu > 1}}. प्रारंभ में सेटिंग <math>\lambda = \lambda_0</math> और वर्गों के शेष योग की गणना करना <math>S\left (\boldsymbol\beta\right )</math> प्रारंभिक बिंदु से कदम के बाद अवमंदन कारक के साथ <math>\lambda = \lambda_0</math> और दूसरे के साथ {{tmath|\lambda_0 / \nu}}. यदि ये दोनों प्रारंभिक बिंदु से भी बदतर हैं, तो अवमंदन को क्रमिक गुणन द्वारा बढ़ाया जाता है {{tmath|\nu}} जब तक नए अवमंदन कारक के साथ बेहतर बिंदु नहीं मिल जाता {{tmath|\lambda_0\nu^k}} कुछ के लिए {{tmath|k}}.


यदि अवमंदन कारक का उपयोग करें {{tmath|\lambda / \nu}} के परिणामस्वरूप वर्ग अवशिष्ट में कमी आती है, तो इसे नए मान के रूप में लिया जाता है {{tmath|\lambda}} (और नया इष्टतम स्थान इस अवमंदन कारक से प्राप्त स्थान के रूप में लिया जाता है) और प्रक्रिया जारी रहती है; यदि उपयोग कर रहे हैं {{tmath|\lambda / \nu}} के परिणामस्वरूप एक बदतर अवशेष मिला, लेकिन उपयोग किया गया {{tmath|\lambda}} परिणामस्वरूप बेहतर अवशेष प्राप्त हुआ {{tmath|\lambda}} को अपरिवर्तित छोड़ दिया जाता है और नए इष्टतम को प्राप्त मूल्य के रूप में लिया जाता है {{tmath|\lambda}} अवमंदन कारक के रूप में।
यदि अवमंदन कारक का उपयोग करें {{tmath|\lambda / \nu}} के परिणामस्वरूप वर्ग अवशिष्ट में कमी आती है, तो इसे नए मान के रूप में लिया जाता है {{tmath|\lambda}} (और नया इष्टतम स्थान इस अवमंदन कारक से प्राप्त स्थान के रूप में लिया जाता है) और प्रक्रिया जारी रहती है; यदि उपयोग कर रहे हैं {{tmath|\lambda / \nu}} के परिणामस्वरूप बदतर अवशेष मिला, लेकिन उपयोग किया गया {{tmath|\lambda}} परिणामस्वरूप बेहतर अवशेष प्राप्त हुआ {{tmath|\lambda}} को अपरिवर्तित छोड़ दिया जाता है और नए इष्टतम को प्राप्त मूल्य के रूप में लिया जाता है {{tmath|\lambda}} अवमंदन कारक के रूप में।


डंपिंग पैरामीटर के नियंत्रण के लिए एक प्रभावी रणनीति, जिसे विलंबित संतुष्टि कहा जाता है, में प्रत्येक चढ़ाई वाले चरण के लिए पैरामीटर को थोड़ी मात्रा में बढ़ाना और प्रत्येक डाउनहिल चरण के लिए बड़ी मात्रा में कमी करना शामिल है। इस रणनीति के पीछे का विचार अनुकूलन की शुरुआत में बहुत तेजी से नीचे की ओर बढ़ने से बचना है, इसलिए भविष्य के पुनरावृत्तियों में उपलब्ध चरणों को प्रतिबंधित करना और इसलिए अभिसरण को धीमा करना है।<ref name="Transtrum2011"/>अधिकांश मामलों में 2 के कारक की वृद्धि और 3 के कारक की कमी को प्रभावी दिखाया गया है, जबकि बड़ी समस्याओं के लिए 1.5 के कारक की वृद्धि और 5 के कारक की कमी के साथ अधिक चरम मूल्य बेहतर काम कर सकते हैं।<ref name="Transtrum2012"/>
डंपिंग पैरामीटर के नियंत्रण के लिए प्रभावी रणनीति, जिसे विलंबित संतुष्टि कहा जाता है, में प्रत्येक चढ़ाई वाले चरण के लिए पैरामीटर को थोड़ी मात्रा में बढ़ाना और प्रत्येक डाउनहिल चरण के लिए बड़ी मात्रा में कमी करना शामिल है। इस रणनीति के पीछे का विचार अनुकूलन की शुरुआत में बहुत तेजी से नीचे की ओर बढ़ने से बचना है, इसलिए भविष्य के पुनरावृत्तियों में उपलब्ध चरणों को प्रतिबंधित करना और इसलिए अभिसरण को धीमा करना है।<ref name="Transtrum2011"/>अधिकांश मामलों में 2 के कारक की वृद्धि और 3 के कारक की कमी को प्रभावी दिखाया गया है, जबकि बड़ी समस्याओं के लिए 1.5 के कारक की वृद्धि और 5 के कारक की कमी के साथ अधिक चरम मूल्य बेहतर काम कर सकते हैं।<ref name="Transtrum2012"/>




=== जियोडेसिक त्वरण ===
=== जियोडेसिक त्वरण ===


लेवेनबर्ग-मार्क्वार्ट चरण की वेग के रूप में व्याख्या करते समय <math>\boldsymbol{v}_k</math> पैरामीटर स्पेस में एक [[जियोडेसिक]] पथ के साथ, त्वरण के लिए जिम्मेदार दूसरे ऑर्डर शब्द को जोड़कर विधि में सुधार करना संभव है <math>\boldsymbol{a}_k</math> जियोडेसिक के साथ
लेवेनबर्ग-मार्क्वार्ट चरण की वेग के रूप में व्याख्या करते समय <math>\boldsymbol{v}_k</math> पैरामीटर स्पेस में [[जियोडेसिक]] पथ के साथ, त्वरण के लिए जिम्मेदार दूसरे ऑर्डर शब्द को जोड़कर विधि में सुधार करना संभव है <math>\boldsymbol{a}_k</math> जियोडेसिक के साथ


:<math>
:<math>
Line 71: Line 71:
\boldsymbol{J}_k \boldsymbol{a}_k = -f_{vv} .
\boldsymbol{J}_k \boldsymbol{a}_k = -f_{vv} .
</math>
</math>
चूँकि यह जियोडेसिक त्वरण शब्द केवल [[दिशात्मक व्युत्पन्न]] पर निर्भर करता है <math>f_{vv} = \sum_{\mu\nu} v_{\mu} v_{\nu} \partial_{\mu} \partial_{\nu} f (\boldsymbol{x})</math> वेग की दिशा में <math>\boldsymbol{v}</math>, इसमें पूर्ण दूसरे क्रम के व्युत्पन्न मैट्रिक्स की गणना करने की आवश्यकता नहीं है, कंप्यूटिंग लागत के संदर्भ में केवल एक छोटे ओवरहेड की आवश्यकता होती है।<ref>{{cite web|url=https://www.gnu.org/software/gsl/doc/html/nls.html|title=अरेखीय न्यूनतम-वर्ग फिटिंग|publisher=GNU Scientific Library|archive-url=https://web.archive.org/web/20200414204913/https://www.gnu.org/software/gsl/doc/html/nls.html|archive-date=2020-04-14}}</ref> चूंकि दूसरे क्रम का व्युत्पन्न काफी जटिल अभिव्यक्ति हो सकता है, इसलिए इसे एक सीमित अंतर सन्निकटन के साथ बदलना सुविधाजनक हो सकता है
चूँकि यह जियोडेसिक त्वरण शब्द केवल [[दिशात्मक व्युत्पन्न]] पर निर्भर करता है <math>f_{vv} = \sum_{\mu\nu} v_{\mu} v_{\nu} \partial_{\mu} \partial_{\nu} f (\boldsymbol{x})</math> वेग की दिशा में <math>\boldsymbol{v}</math>, इसमें पूर्ण दूसरे क्रम के व्युत्पन्न मैट्रिक्स की गणना करने की आवश्यकता नहीं है, कंप्यूटिंग लागत के संदर्भ में केवल छोटे ओवरहेड की आवश्यकता होती है।<ref>{{cite web|url=https://www.gnu.org/software/gsl/doc/html/nls.html|title=अरेखीय न्यूनतम-वर्ग फिटिंग|publisher=GNU Scientific Library|archive-url=https://web.archive.org/web/20200414204913/https://www.gnu.org/software/gsl/doc/html/nls.html|archive-date=2020-04-14}}</ref> चूंकि दूसरे क्रम का व्युत्पन्न काफी जटिल अभिव्यक्ति हो सकता है, इसलिए इसे सीमित अंतर सन्निकटन के साथ बदलना सुविधाजनक हो सकता है


:<math>
:<math>
Line 79: Line 79:
\end{align}
\end{align}
</math>
</math>
कहाँ <math>f(\boldsymbol{x})</math> और <math>\boldsymbol{J}</math> एल्गोरिदम द्वारा पहले ही गणना की जा चुकी है, इसलिए गणना करने के लिए केवल एक अतिरिक्त फ़ंक्शन मूल्यांकन की आवश्यकता है <math>f(\boldsymbol{x} + h \boldsymbol{\delta})</math>. परिमित अंतर चरण का चुनाव <math>h</math> एल्गोरिदम की स्थिरता को प्रभावित कर सकता है, और लगभग 0.1 का मान आमतौर पर सामान्य रूप से उचित होता है।<ref name="Transtrum2012"/>
कहाँ <math>f(\boldsymbol{x})</math> और <math>\boldsymbol{J}</math> एल्गोरिदम द्वारा पहले ही गणना की जा चुकी है, इसलिए गणना करने के लिए केवल अतिरिक्त फ़ंक्शन मूल्यांकन की आवश्यकता है <math>f(\boldsymbol{x} + h \boldsymbol{\delta})</math>. परिमित अंतर चरण का चुनाव <math>h</math> एल्गोरिदम की स्थिरता को प्रभावित कर सकता है, और लगभग 0.1 का मान आमतौर पर सामान्य रूप से उचित होता है।<ref name="Transtrum2012"/>


चूँकि त्वरण वेग के विपरीत दिशा की ओर इंगित कर सकता है, इसलिए यदि अवमंदन बहुत छोटा है तो विधि को रोकने से रोकने के लिए, एक चरण को स्वीकार करने के लिए त्वरण पर एक अतिरिक्त मानदंड जोड़ा जाता है, जिसके लिए आवश्यक है
चूँकि त्वरण वेग के विपरीत दिशा की ओर इंगित कर सकता है, इसलिए यदि अवमंदन बहुत छोटा है तो विधि को रोकने से रोकने के लिए, चरण को स्वीकार करने के लिए त्वरण पर अतिरिक्त मानदंड जोड़ा जाता है, जिसके लिए आवश्यक है


:<math>
:<math>
Line 97: Line 97:
[[Image:Lev-Mar-best-fit.png|thumb|सबसे अच्छा फिट]]इस उदाहरण में हम फ़ंक्शन को फिट करने का प्रयास करते हैं <math>y = a \cos\left (bX\right ) + b \sin\left (aX\right )</math> लीस्कर फ़ंक्शन के रूप में [[जीएनयू ऑक्टेव]] में कार्यान्वित लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम का उपयोग करना। ग्राफ़ मापदंडों के लिए उत्तरोत्तर बेहतर फिटिंग दिखाते हैं <math>a = 100</math>, <math>b = 102</math> इस्तेमाल किया गया
[[Image:Lev-Mar-best-fit.png|thumb|सबसे अच्छा फिट]]इस उदाहरण में हम फ़ंक्शन को फिट करने का प्रयास करते हैं <math>y = a \cos\left (bX\right ) + b \sin\left (aX\right )</math> लीस्कर फ़ंक्शन के रूप में [[जीएनयू ऑक्टेव]] में कार्यान्वित लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम का उपयोग करना। ग्राफ़ मापदंडों के लिए उत्तरोत्तर बेहतर फिटिंग दिखाते हैं <math>a = 100</math>, <math>b = 102</math> इस्तेमाल किया गया
प्रारंभिक वक्र में. केवल जब अंतिम ग्राफ़ में पैरामीटर मूल के सबसे करीब चुने जाते हैं, तो वक्र बिल्कुल फिट होते हैं। यह समीकरण
प्रारंभिक वक्र में. केवल जब अंतिम ग्राफ़ में पैरामीटर मूल के सबसे करीब चुने जाते हैं, तो वक्र बिल्कुल फिट होते हैं। यह समीकरण
लेवेनबर्ग-मार्क्वार्ड एल्गोरिथम के लिए बहुत संवेदनशील प्रारंभिक स्थितियों का एक उदाहरण है। इस संवेदनशीलता का एक कारण मल्टीपल मिनिमा - फ़ंक्शन का अस्तित्व है <math>\cos\left (\beta x\right )</math> पैरामीटर मान पर न्यूनतम है <math>\hat\beta</math> और <math>\hat\beta + 2n\pi</math>.
लेवेनबर्ग-मार्क्वार्ड एल्गोरिथम के लिए बहुत संवेदनशील प्रारंभिक स्थितियों का उदाहरण है। इस संवेदनशीलता का कारण मल्टीपल मिनिमा - फ़ंक्शन का अस्तित्व है <math>\cos\left (\beta x\right )</math> पैरामीटर मान पर न्यूनतम है <math>\hat\beta</math> और <math>\hat\beta + 2n\pi</math>.


== यह भी देखें ==
== यह भी देखें ==

Revision as of 11:41, 6 August 2023

गणित और कंप्यूटिंग में, लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम (एलएमए या सिर्फ एलएम), जिसे डैम्प्ड न्यूनतम-वर्ग (डीएलएस) विधि के रूप में भी जाना जाता है, का उपयोग गैर-रेखीय न्यूनतम वर्ग समस्याओं को हल करने के लिए किया जाता है। ये न्यूनतमकरण समस्याएँ विशेष रूप से न्यूनतम वर्ग वक्र फिटिंग में उत्पन्न होती हैं। एलएमए गॉस-न्यूटन एल्गोरिदम (जीएनए) और ढतला हुआ वंश की विधि के बीच अंतरण करता है। एलएमए जीएनए की तुलना में अधिक मजबूती (कंप्यूटर विज्ञान) है, जिसका अर्थ है कि कई मामलों में यह समाधान ढूंढ लेता है, भले ही यह अंतिम न्यूनतम से बहुत दूर शुरू हो। अच्छे व्यवहार वाले कार्यों और उचित शुरुआती मापदंडों के लिए, एलएमए जीएनए की तुलना में धीमा होता है। ट्रस्ट क्षेत्र दृष्टिकोण का उपयोग करके एलएमए को गॉस-न्यूटन के रूप में भी देखा जा सकता है।

एल्गोरिथम पहली बार 1944 में केनेथ लेवेनबर्ग द्वारा प्रकाशित किया गया था,[1]फ्रैंकफोर्ड शस्त्रागार में काम करते समय। इसे 1963 में डोनाल्ड मार्क्वार्ट द्वारा पुनः खोजा गया था,[2]जिन्होंने ड्यूपॉन्ट में सांख्यिकीविद् के रूप में और गिरार्ड द्वारा स्वतंत्र रूप से काम किया,[3]वेन[4]और मॉरिसन.[5]

सामान्य कर्व-फिटिंग समस्याओं को हल करने के लिए कई सॉफ्टवेयर अनुप्रयोगों में एलएमए का उपयोग किया जाता है। गॉस-न्यूटन एल्गोरिदम का उपयोग करके यह अक्सर प्रथम-क्रम विधियों की तुलना में तेज़ी से परिवर्तित होता है।[6] हालाँकि, अन्य पुनरावृत्त अनुकूलन एल्गोरिदम की तरह, एलएमए केवल स्थानीय न्यूनतम पाता है, जो जरूरी नहीं कि वैश्विक न्यूनतम हो।

समस्या

लेवेनबर्ग-मार्क्वार्ड एल्गोरिथ्म का प्राथमिक अनुप्रयोग न्यूनतम-वर्ग वक्र फिटिंग समस्या में है: का सेट दिया गया है अनुभवजन्य जोड़े स्वतंत्र और आश्रित चर के पैरामीटर खोजें मॉडल वक्र का ताकि विचलनों के वर्गों का योग हो न्यूनतम किया गया है:

जिसे गैर-रिक्त माना जाता है।

समाधान

अन्य संख्यात्मक न्यूनीकरण एल्गोरिदम की तरह, लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम पुनरावृत्ति प्रक्रिया है। न्यूनतमकरण शुरू करने के लिए, उपयोगकर्ता को पैरामीटर वेक्टर के लिए प्रारंभिक अनुमान प्रदान करना होगा . केवल न्यूनतम वाले मामलों में, बेख़बर मानक अनुमान जैसा होता है ठीक काम करेगा; स्थानीय न्यूनतम वाले मामलों में, एल्गोरिदम वैश्विक न्यूनतम में तभी परिवर्तित होता है जब प्रारंभिक अनुमान पहले से ही अंतिम समाधान के कुछ करीब हो।

प्रत्येक पुनरावृत्ति चरण में, पैरामीटर वेक्टर को नए अनुमान से बदल दिया गया है . इरादा करना , कार्यक्रम इसके Gradient#Linear_approximation_to_a_function द्वारा अनुमानित है:

कहाँ

का ग्रेडियेंट (इस मामले में पंक्ति-वेक्टर) है इसके संबंध में .

योग वर्ग विचलन के संबंध में शून्य ढाल पर इसका न्यूनतम स्तर होता है . उपरोक्त प्रथम-क्रम सन्निकटन देता है

या वेक्टर संकेतन में,

का व्युत्पन्न लेना इसके संबंध में और परिणाम को शून्य पर सेट करने से परिणाम मिलता है

कहाँ जैकोबियन मैट्रिक्स और निर्धारक है, जिसका -वीं पंक्ति बराबर होती है , और कहाँ और वेक्टर के साथ हैं -वाँ घटक

 और  क्रमश। उपरोक्त अभिव्यक्ति के लिए प्राप्त की गई  गॉस-न्यूटन विधि के अंतर्गत आता है। ऊपर परिभाषित जैकोबियन मैट्रिक्स (सामान्य तौर पर) वर्ग मैट्रिक्स नहीं है, बल्कि आकार का आयताकार मैट्रिक्स है , कहाँ  पैरामीटरों की संख्या (वेक्टर का आकार) है ). मैट्रिक्स गुणन  आवश्यक उपज देता है  वर्ग मैट्रिक्स और दाहिनी ओर मैट्रिक्स-वेक्टर उत्पाद आकार का वेक्टर उत्पन्न करता है . परिणाम का सेट है  रैखिक समीकरण, जिन्हें हल किया जा सकता है .

लेवेनबर्ग का योगदान इस समीकरण को नम संस्करण द्वारा प्रतिस्थापित करना है:

कहाँ पहचान मैट्रिक्स है, जो वेतन वृद्धि के रूप में देता है अनुमानित पैरामीटर वेक्टर के लिए .

(गैर-नकारात्मक) अवमंदन कारक को प्रत्येक पुनरावृत्ति पर समायोजित किया जाता है। यदि की कमी हो तीव्र है, छोटे मूल्य का उपयोग किया जा सकता है, जो एल्गोरिदम को गॉस-न्यूटन एल्गोरिदम के करीब लाता है, जबकि यदि कोई पुनरावृत्ति अवशिष्ट में अपर्याप्त कमी देता है, को ग्रेडिएंट-डिसेंट दिशा के करीब कदम बढ़ाते हुए बढ़ाया जा सकता है। ध्यान दें कि का ग्रेडिएंट इसके संबंध में बराबर है . इसलिए, के बड़े मूल्यों के लिए , कदम लगभग ढाल के विपरीत दिशा में उठाया जाएगा। यदि या तो परिकलित चरण की लंबाई या नवीनतम पैरामीटर वेक्टर से वर्गों के योग में कमी पूर्वनिर्धारित सीमा से नीचे गिरना, पुनरावृत्ति रुकना, और अंतिम पैरामीटर वेक्टर को समाधान माना जाता है।

जब अवमंदन कारक के सापेक्ष बड़ा है , उलटना यह आवश्यक नहीं है, क्योंकि अपडेट छोटे ग्रेडिएंट चरण द्वारा अच्छी तरह से अनुमानित है .

समाधान पैमाने को अपरिवर्तनीय बनाने के लिए मार्क्वार्ड के एल्गोरिदम ने वक्रता के अनुसार ढाल के प्रत्येक घटक को स्केल करके संशोधित समस्या हल की। यह उन दिशाओं में बड़ी गति प्रदान करता है जहां ढाल छोटी है, जो छोटी ढाल की दिशा में धीमी गति से अभिसरण से बचाती है। फ्लेचर ने अपने 1971 के पेपर में गैर-रेखीय न्यूनतम वर्गों के लिए संशोधित मार्क्वार्ड सबरूटीन ने पहचान मैट्रिक्स को प्रतिस्थापित करते हुए फॉर्म को सरल बनाया। विकर्ण तत्वों से युक्त विकर्ण मैट्रिक्स के साथ :

समान अवमंदन कारक तिखोनोव नियमितीकरण में दिखाई देता है, जिसका उपयोग रैखिक खराब समस्याओं को हल करने के लिए किया जाता है, साथ ही रिज प्रतिगमन , सांख्यिकी में अनुमान सिद्धांत तकनीक में भी किया जाता है।

भिगोना पैरामीटर का विकल्प

डंपिंग पैरामीटर के सर्वोत्तम विकल्प के लिए विभिन्न कमोबेश अनुमानी तर्क सामने रखे गए हैं . सैद्धांतिक तर्क मौजूद हैं जो दिखाते हैं कि इनमें से कुछ विकल्प एल्गोरिदम के स्थानीय अभिसरण की गारंटी क्यों देते हैं; हालाँकि, ये विकल्प एल्गोरिदम के वैश्विक अभिसरण को ग्रेडिएंट डिसेंट के अवांछनीय गुणों से ग्रस्त कर सकते हैं, विशेष रूप से, इष्टतम के करीब बहुत धीमी गति से अभिसरण।

किसी भी विकल्प का पूर्ण मूल्य इस बात पर निर्भर करता है कि प्रारंभिक समस्या कितनी अच्छी तरह से मापी गई है। मार्क्वार्ड ने मूल्य से शुरुआत करने की सिफारिश की और कारक . प्रारंभ में सेटिंग और वर्गों के शेष योग की गणना करना प्रारंभिक बिंदु से कदम के बाद अवमंदन कारक के साथ और दूसरे के साथ . यदि ये दोनों प्रारंभिक बिंदु से भी बदतर हैं, तो अवमंदन को क्रमिक गुणन द्वारा बढ़ाया जाता है जब तक नए अवमंदन कारक के साथ बेहतर बिंदु नहीं मिल जाता कुछ के लिए .

यदि अवमंदन कारक का उपयोग करें के परिणामस्वरूप वर्ग अवशिष्ट में कमी आती है, तो इसे नए मान के रूप में लिया जाता है (और नया इष्टतम स्थान इस अवमंदन कारक से प्राप्त स्थान के रूप में लिया जाता है) और प्रक्रिया जारी रहती है; यदि उपयोग कर रहे हैं के परिणामस्वरूप बदतर अवशेष मिला, लेकिन उपयोग किया गया परिणामस्वरूप बेहतर अवशेष प्राप्त हुआ को अपरिवर्तित छोड़ दिया जाता है और नए इष्टतम को प्राप्त मूल्य के रूप में लिया जाता है अवमंदन कारक के रूप में।

डंपिंग पैरामीटर के नियंत्रण के लिए प्रभावी रणनीति, जिसे विलंबित संतुष्टि कहा जाता है, में प्रत्येक चढ़ाई वाले चरण के लिए पैरामीटर को थोड़ी मात्रा में बढ़ाना और प्रत्येक डाउनहिल चरण के लिए बड़ी मात्रा में कमी करना शामिल है। इस रणनीति के पीछे का विचार अनुकूलन की शुरुआत में बहुत तेजी से नीचे की ओर बढ़ने से बचना है, इसलिए भविष्य के पुनरावृत्तियों में उपलब्ध चरणों को प्रतिबंधित करना और इसलिए अभिसरण को धीमा करना है।[7]अधिकांश मामलों में 2 के कारक की वृद्धि और 3 के कारक की कमी को प्रभावी दिखाया गया है, जबकि बड़ी समस्याओं के लिए 1.5 के कारक की वृद्धि और 5 के कारक की कमी के साथ अधिक चरम मूल्य बेहतर काम कर सकते हैं।[8]


जियोडेसिक त्वरण

लेवेनबर्ग-मार्क्वार्ट चरण की वेग के रूप में व्याख्या करते समय पैरामीटर स्पेस में जियोडेसिक पथ के साथ, त्वरण के लिए जिम्मेदार दूसरे ऑर्डर शब्द को जोड़कर विधि में सुधार करना संभव है जियोडेसिक के साथ

कहाँ का समाधान है

चूँकि यह जियोडेसिक त्वरण शब्द केवल दिशात्मक व्युत्पन्न पर निर्भर करता है वेग की दिशा में , इसमें पूर्ण दूसरे क्रम के व्युत्पन्न मैट्रिक्स की गणना करने की आवश्यकता नहीं है, कंप्यूटिंग लागत के संदर्भ में केवल छोटे ओवरहेड की आवश्यकता होती है।[9] चूंकि दूसरे क्रम का व्युत्पन्न काफी जटिल अभिव्यक्ति हो सकता है, इसलिए इसे सीमित अंतर सन्निकटन के साथ बदलना सुविधाजनक हो सकता है

कहाँ और एल्गोरिदम द्वारा पहले ही गणना की जा चुकी है, इसलिए गणना करने के लिए केवल अतिरिक्त फ़ंक्शन मूल्यांकन की आवश्यकता है . परिमित अंतर चरण का चुनाव एल्गोरिदम की स्थिरता को प्रभावित कर सकता है, और लगभग 0.1 का मान आमतौर पर सामान्य रूप से उचित होता है।[8]

चूँकि त्वरण वेग के विपरीत दिशा की ओर इंगित कर सकता है, इसलिए यदि अवमंदन बहुत छोटा है तो विधि को रोकने से रोकने के लिए, चरण को स्वीकार करने के लिए त्वरण पर अतिरिक्त मानदंड जोड़ा जाता है, जिसके लिए आवश्यक है

कहाँ आमतौर पर कठिन समस्याओं के लिए छोटे मान के साथ, 1 से कम मान पर तय किया जाता है।[8]

जियोडेसिक त्वरण शब्द को जोड़ने से अभिसरण गति में महत्वपूर्ण वृद्धि हो सकती है और यह विशेष रूप से तब उपयोगी होता है जब एल्गोरिदम उद्देश्य फ़ंक्शन के परिदृश्य में संकीर्ण घाटियों के माध्यम से आगे बढ़ रहा है, जहां अनुमत चरण छोटे होते हैं और दूसरे क्रम के शब्द के कारण उच्च सटीकता महत्वपूर्ण सुधार देती है।[8]


उदाहरण

खराब फिटिंग
बेहतर फिट
सबसे अच्छा फिट

इस उदाहरण में हम फ़ंक्शन को फिट करने का प्रयास करते हैं लीस्कर फ़ंक्शन के रूप में जीएनयू ऑक्टेव में कार्यान्वित लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम का उपयोग करना। ग्राफ़ मापदंडों के लिए उत्तरोत्तर बेहतर फिटिंग दिखाते हैं , इस्तेमाल किया गया

प्रारंभिक वक्र में. केवल जब अंतिम ग्राफ़ में पैरामीटर मूल के सबसे करीब चुने जाते हैं, तो वक्र बिल्कुल फिट होते हैं। यह समीकरण लेवेनबर्ग-मार्क्वार्ड एल्गोरिथम के लिए बहुत संवेदनशील प्रारंभिक स्थितियों का उदाहरण है। इस संवेदनशीलता का कारण मल्टीपल मिनिमा - फ़ंक्शन का अस्तित्व है पैरामीटर मान पर न्यूनतम है और .

यह भी देखें

  • ट्रस्ट क्षेत्र
  • नेल्डर-मीड विधि
  • लेवेनबर्ग-मार्क्वार्ड एल्गोरिदम के वेरिएंट का उपयोग समीकरणों की गैर-रेखीय प्रणालियों को हल करने के लिए भी किया गया है।[10]


संदर्भ

  1. Levenberg, Kenneth (1944). "A Method for the Solution of Certain Non-Linear Problems in Least Squares". Quarterly of Applied Mathematics. 2 (2): 164–168. doi:10.1090/qam/10666.
  2. Marquardt, Donald (1963). "An Algorithm for Least-Squares Estimation of Nonlinear Parameters". SIAM Journal on Applied Mathematics. 11 (2): 431–441. doi:10.1137/0111030. hdl:10338.dmlcz/104299.
  3. Girard, André (1958). "Excerpt from Revue d'optique théorique et instrumentale". Rev. Opt. 37: 225–241, 397–424.
  4. Wynne, C. G. (1959). "Lens Designing by Electronic Digital Computer: I". Proc. Phys. Soc. Lond. 73 (5): 777–787. Bibcode:1959PPS....73..777W. doi:10.1088/0370-1328/73/5/310.
  5. Morrison, David D. (1960). "Methods for nonlinear least squares problems and convergence proofs". Proceedings of the Jet Propulsion Laboratory Seminar on Tracking Programs and Orbit Determination: 1–9.
  6. Wiliamowski, Bogdan; Yu, Hao (June 2010). "Improved Computation for Levenberg–Marquardt Training" (PDF). IEEE Transactions on Neural Networks and Learning Systems. 21 (6).
  7. Transtrum, Mark K; Machta, Benjamin B; Sethna, James P (2011). "Geometry of nonlinear least squares with applications to sloppy models and optimization". Physical Review E. APS. 83 (3): 036701. arXiv:1010.1449. Bibcode:2011PhRvE..83c6701T. doi:10.1103/PhysRevE.83.036701. PMID 21517619. S2CID 15361707.
  8. 8.0 8.1 8.2 8.3 Transtrum, Mark K; Sethna, James P (2012). "Improvements to the Levenberg-Marquardt algorithm for nonlinear least-squares minimization". arXiv:1201.5885 [physics.data-an].
  9. "अरेखीय न्यूनतम-वर्ग फिटिंग". GNU Scientific Library. Archived from the original on 2020-04-14.
  10. Kanzow, Christian; Yamashita, Nobuo; Fukushima, Masao (2004). "Levenberg–Marquardt methods with strong local convergence properties for solving nonlinear equations with convex constraints". Journal of Computational and Applied Mathematics. 172 (2): 375–397. Bibcode:2004JCoAM.172..375K. doi:10.1016/j.cam.2004.02.013.


अग्रिम पठन


बाहरी संबंध

| group5 = Metaheuristics | abbr5 = heuristic | list5 =

| below =

}} | group5 =Metaheuuristic |abbr5 = heuristic | list5 =*विकासवादी एल्गोरिथ्म

| below =* सॉफ्टवेयर

}}