नियमितीकरण (गणित)

नियमितीकरण एक ऐसी प्रक्रिया है जो गणित, सांख्यिकी, गणितीय वित्त, कंप्यूटर विज्ञान, विशेष रूप से यंत्र अधिगम और व्युत्क्रम समस्याओं में प्रतिफल उत्तर को सरल बना देती है। इसका उपयोग अक्सर अव्यवस्थित समस्याओं के परिणाम प्राप्त करने या ओवरफिटिंग को रोकने के लिए किया जाता है। हालाँकि नियमितीकरण प्रक्रियाओं को कई तरीकों से विभाजित किया जा सकता है, निम्नलिखित चित्रण विशेष रूप से सहायक है:
 * स्पष्ट नियमितीकरण जब भी कोई स्पष्ट रूप से इष्टतम समस्या में कोई पद जोड़ता है तो नियमितीकरण होता है। ये पद पूर्ववर्ती, अंकुश या बाधाएं हो सकती हैं। स्पष्ट नियमितीकरण का प्रयोग सामान्यतौर पर अव्यवस्थित विस्तार समस्याओं के साथ किया जाता है। नियमितीकरण पद या प्रतिफल, असाधारण समाधान को अद्वितीय बनाने के लिए विस्तार फलन पर मूल्याङ्कन करता है।
 * अंतर्निहित नियमितीकरण अंतर्गत नियमितीकरण के अन्य सभी रूप आते हैं। उदाहरण के लिए इसमें शीघ्र समापन, एक ठोस हानि फलन का उपयोग और विचलन को पदच्युत करना सम्मिलित है। आधुनिक यंत्र अधिगम दृष्टिकोण में अंतर्निहित नियमितीकरण अनिवार्य रूप से सर्वव्यापी है, जिसमें व्‍यापक तंत्रिका नेटवर्क के प्रशिक्षण के लिए क्रमरहित ग्रेडिएंट डिसेंट और समूह प्रक्रिया सम्मिलित हैं।

स्पष्ट नियमितीकरण में, समस्या या प्रतिरूपण से स्वतंत्र एक डेटा शब्द होता है, जो माप की संभावना के समतुल्य होता है और एक नियमितीकरण शब्द जो पूर्ववर्ती के समतुल्य होता है। बायेसियन आँकड़ों का उपयोग करके, दोनों को मिलाकर कोई पश्च की गणना कर सकता है, जिसमें दोनों सूचना स्रोत सम्मिलित हैं और इसलिए अनुमान प्रक्रिया को स्थिर किया जाता है। दोनों उद्देश्यों का आदान-प्रदान करके, कोई विशिष्ट डेटा पर अधिक निर्भर होना या सामान्यीकरण लागू करने का चयन कर सकता है। सभी संभावित नियमितीकरणों से सँभालने वाली एक पूरी अनुसंधान शाखा है। व्यवहार में, कोई सामान्यतौर पर एक विशिष्ट नियमितीकरण का प्रयास करता है और फिर विकल्प को सही ठहराने के लिए उस नियमितीकरण के समतुल्य संभावित घनत्व का पता लगाता है। यह सामान्य ज्ञान या अंतर्ज्ञान से भौतिक रूप से प्रेरित भी हो सकता है।

यंत्र अधिगम में, डेटा शब्द प्रशिक्षण डेटा के समतुल्य होता है और नियमितीकरण या तो प्रतिरूपण का विकल्प है या कलन विधि में संशोधन है। इसका उद्देश्य हमेशा व्यापकीकरण त्रुटि को कम करना है, यानी मूल्यांकन समूह पर प्रशिक्षण डेटा की अपेक्षा प्रशिक्षित प्रतिरूपण के साथ गणना में त्रुटि को कम करना है ।

नियमितीकरण के शुरुआती उपयोगों में से एक तिखोनोव नियमितीकरण है, जो कम से कम वर्गों की विधि से संबंधित है।

वर्गीकरण
वर्गीकारक का आनुभविक अधिगम हमेशा एक अनिर्धारित समस्या है, क्योंकि यह किसी भी $$x$$ फलन का अनुमान लगाने का प्रयास करता है उदाहरण के लिए

$$x_1, x_2, ... x_n$$.

एक नियमितीकरण शब्द $$R(f)$$ वर्गीकरण के लिए हानि फलन में जोड़ा गया है:
 * $$\min_f \sum_{i=1}^{n} V(f(x_i), y_i) + \lambda R(f)$$

जहाँ $$V$$ एक अंतर्निहित हानि फलन है, जैसे वर्ग हानि या काज हानि जो पूर्वानुमान $$f(x)$$ की लागत का वर्णन करता है जब अंकन $$y$$ होता है और $$\lambda$$ एक मापदंड है जो नियमितीकरण शब्द के महत्व को नियंत्रित करता है। सामान्यतौर पर $$R(f)$$ का चयन $$f$$ की जटिलता पर अंकुश लगाने के लिए किया जाता है। उपयोग की गई जटिलता की ठोस धारणाओं में मानक सदिश समष्टि पर समतलता और प्रतिबंध के लिए सीमाएँ सम्मिलित हैं।

नियमितीकरण के लिए एक सैद्धांतिक औचित्य यह है कि यह समाधान पर ओकाम के रेजर को लागू करने का प्रयास करता है (जैसा कि ऊपर दिए गए चित्र में दर्शाया गया है, जहां हरे रंग के फलन, सरल वाले को प्राथमिकता दी जा सकती है)। बायेसियन अनुमान के दृष्टिकोण से, कई नियमितीकरण तकनीकें प्रतिरूपण मापदंडों पर कुछ पूर्व संभाव्यता वितरण लागू करने के अनुरूप हैं।

नियमितीकरण, अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है।

नियमितीकरण का यही विचार विज्ञान के अनेक क्षेत्रों में उत्पन्न हुआ था। समाकल समीकरणों (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल अनिवार्य रूप से डेटा को अनुकूल करने और समाधान के एक प्रमाण को कम करने के बीच एक समन्वयन है। हाल ही में, कुल भिन्नता नियमितीकरण सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं।

सामान्यीकरण
व्यक्त किए गए प्रतिरूपण की सामान्यीकरण क्षमता में सुधार के लिए नियमितीकरण को एक तकनीक के रूप में प्रेरित किया जा सकता है।

इस अधिगम की समस्या का लक्ष्य एक ऐसा फलन ढूंढना है जो परिणाम को उपयुक्त या पूर्वानुमान करता है साथ ही साथ सभी संभावित निविष्ट और अंकन पर अपेक्षित त्रुटि को कम करता है। किसी फलन की अपेक्षित त्रुटि $$f_n$$ है:


 * $$ I[f_n] = \int_{X \times Y} V(f_n(x),y) \rho(x,y) \, dx \, dy $$

जहाँ $$X$$ और $$Y$$ क्रमश निविष्ट डेटा $$x$$ और उनके अंकन $$y$$ के कार्यक्षेत्र हैं।

सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम उपलब्ध विकल्प प्रतिदर्श $$ N $$ के साथ आनुभविक त्रुटि है :


 * $$ I_S[f_n] = \frac{1}{n} \sum_{i=1}^N V(f_n(\hat x_i), \hat y_i) $$

उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि का पुनरुत्पादन) की जटिलता पर प्रतिबन्ध के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प आनुभविक त्रुटि पर शून्य नुकसान उठाता है। उदाहरण के लिए यदि माप $$x_i$$शोर के साथ बनाए गए थे तो यह प्रतिरूपण ओवरफिटिंग से ग्रस्त हो सकता है और खराब अपेक्षित त्रुटि प्रदर्शित कर सकता है। नियमितीकरण प्रतिरूपण के निर्माण के लिए उपयोग किए जाने वाले फलन समष्टि के कुछ क्षेत्रों की खोज के लिए अंकुश उत्पन्न करता है, जो सामान्यीकरण में सुधार कर सकता है।

तिखोनोव नियमितीकरण
इन तकनीकों का नाम एंड्री निकोलाइविच तिखोनोव के नाम पर रखा गया था, जिन्होंने समाकलन समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया था।

उल्लेखित अज्ञात सदिश $$w$$ द्वारा एक रैखिक कार्य $$f$$ सीखते समय $$f(x) = w \cdot x$$, ऐसा है जहाँ $$L_2$$ के मानदंड को सदिश $$w$$ वाले हानि व्यंजक में समाधानों को प्राथमिकता देने के लिए कोई भी जोड़ सकता है। तिखोनोव नियमितीकरण सबसे सामान्य रूपों में से एक है। इसे रिज गुणांक के नाम से भी जाना जाता है। इसे इस प्रकार व्यक्त किया जाता है:


 * $$\min_w \sum_{i=1}^{n} V(\hat x_i \cdot w, \hat y_i) + \lambda \|w\|_{2}^{2}$$,

जहाँ $$(\hat x_i, \hat y_i), \, 1 \leq i \leq n,$$ प्रशिक्षण के लिए उपयोग किए गए प्रतिदर्शों का प्रतिनिधित्व करता है।

एक सामान्य फलन के स्थिति में, इसके पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि में फलन का मानदंड है:


 * $$\min_f \sum_{i=1}^{n} V(f(\hat x_i), \hat y_i) + \lambda \|f\|_{\mathcal{H}}^{2}$$

$$L_2$$ मानक के रूप में विभेदक है इसलिए अधिगम को ग्रेडिएंट डिसेंट द्वारा विकसित किया जा सकता है।

तिखोनोव-नियमित न्यूनतम वर्ग
न्यूनतम वर्ग हानि फलन और तिखोनोव नियमितीकरण के साथ अधिगम की समस्या को विश्लेषणात्मक रूप से हल किया जा सकता है। आव्यूह में लिखा गया है कि इष्टतम $$w$$ वह है जिसके ग्रेडिएंट हानि फलन के सन्दर्भ में $$w$$ के साथ 0 कार्य करते है।


 * $$\min_w \frac{1}{n} (\hat X w - Y)^T(\hat X w - Y)+ \lambda \|w\|_{2}^{2}$$
 * $$\nabla_w = \frac{2}{n} \hat X^T (\hat X w - Y) + 2 \lambda w$$
 * $$0 = \hat X^T (\hat X w - Y) + n \lambda w$$ (प्रथम क्रम की स्थिति)


 * $$w = (\hat X^T \hat X + \lambda n I)^{-1} (\hat X^T Y)$$

इष्टतम समस्या के निर्माण से, $$w$$ के अन्य मान हानि फलन के लिए बड़े मान देता है। दूसरे व्युत्पन्न $$\nabla_{ww}$$ की जांच करके इसे सत्यापित किया जा सकता है।

प्रशिक्षण के समय, यह एल्गोरिथम $$O(d^3 + nd^2)$$ समय लेता है। ये पद क्रमश आव्यूह व्युत्क्रम और गणना$$X^T X$$ के अनुरूप हैं। परीक्षण $$O(nd)$$ समय लेता है ।

तत्काल अवरोधक
तत्काल अवरोधक को समय पर नियमितीकरण के रूप में देखा जा सकता है। वास्तव में, ग्रेडिएंट डिसेंट जैसी प्रशिक्षण प्रक्रिया में बढ़ती पुनरावृत्तियों के साथ अधिक से अधिक जटिल कार्यों को परीक्षित करने की क्षमता होती है। समय के लिए नियमितीकरण करके, सामान्यीकरण में सुधार करके प्रतिरूपण जटिलता को नियंत्रित किया जा सकता है।

तत्काल अवरोधक को एक डेटा समूह प्रशिक्षण के लिए, एक सांख्यिकीय रूप से स्वतंत्र डेटा समूह सत्यापन के लिए और एक डेटा समूह परीक्षण के लिए उपयोग करके कार्यान्वित किया जाता है। प्रतिरूपण को सत्यापन समूह पर तब तक प्रशिक्षित किया जाता है जब तक प्रदर्शन में सुधार नहीं होता है और फिर परीक्षण समूह पर लागू किया जाता है।

न्यूनतम वर्गों में सैद्धांतिक व्‍याख्‍या
एक व्युत्क्रमणीय आव्यूह $A$ के लिए न्यूमैन श्रृंखला के परिमित सन्निकटन पर विचार करें जहाँ $$\| I-A \| < 1$$:


 * $$\sum_{i=0}^{T-1}(I-A)^i \approx A^{-1}$$

इसका उपयोग अनियमित न्यूनतम वर्गों के विश्लेषणात्मक समाधान का अनुमान लगाने के लिए किया जा सकता है, यदि $&gamma;$ यह सुनिश्चित करने के लिए प्रस्तुत किया गया है कि मानदंड एक से कम है तो


 * $$w_T = \frac{\gamma}{n} \sum_{i=0}^{T-1} ( I - \frac{\gamma}{n} \hat X^T \hat X )^i \hat X^T \hat Y$$

अनियमित न्यूनतम वर्ग अधिगम की समस्या का सटीक समाधान आनुभविक त्रुटि को कम करता है, लेकिन विफल हो सकता है। उपरोक्त एल्गोरिदम में एकमात्र स्वतन्त्र मापदंड $T$ को सीमित करके, समस्या को समय के लिए नियमित किया जाता है, जिससे इसके सामान्यीकरण में सुधार हो सकता है।

उपरोक्त एल्गोरिदम आनुभविक जोखिम के लिए ग्रेडिएंट डिसेंट पुनरावृत्तियों की संख्या को सीमित करने के समतुल्य है


 * $$I_s[w] = \frac{1}{2n} \| \hat X w - \hat Y \|^{2}_{\mathbb{R}^n}$$

ग्रेडिएंट डिसेंट नवीनतम के साथ:


 * $$\begin{align}

w_0 &= 0 \\ w_{t+1} &= (I - \frac{\gamma}{n} \hat X^T \hat X)w_t + \frac{\gamma}{n}\hat X^T \hat Y \end{align}$$ आधार स्थिति नगण्य है। आगमनिक स्थिति इस प्रकार सिद्ध किया जा सकता है:


 * $$\begin{align}

w_{T} &= (I - \frac{\gamma}{n} \hat X^T \hat X)\frac{\gamma}{n} \sum_{i=0}^{T-2}(I - \frac{\gamma}{n} \hat X^T \hat X )^i \hat X^T \hat Y + \frac{\gamma}{n}\hat X^T \hat Y \\ &= \frac{\gamma}{n} \sum_{i=1}^{T-1}(I - \frac{\gamma}{n} \hat X^T \hat X )^i \hat X^T \hat Y + \frac{\gamma}{n}\hat X^T \hat Y \\ &= \frac{\gamma}{n} \sum_{i=0}^{T-1}(I - \frac{\gamma}{n} \hat X^T \hat X )^i \hat X^T \hat Y \end{align}$$

विरलता के लिए नियमितकर्ता
मान लीजिए कि एक शब्दकोश $$\phi_j$$ को आकार $$p$$ के साथ दिया गया है जिससे फलन समष्टि में एक फलन को इस प्रकार व्यक्त किया जा सकता है:


 * $$f(x) = \sum_{j=1}^{p} \phi_j(x) w_j$$

$$w$$ पर विरलता प्रतिबंध लागू करने से सरल और अधिक व्याख्या योग्य प्रतिरूपण बन सकते हैं। यह अभिकलन जीवविज्ञान जैसे कई वास्तविक जीवन अनुप्रयोगों में उपयोगी है। एक उदाहरण, पूर्वानुमान क्षमता को अधिकतम करते हुए चिकित्सा परीक्षण की लागत को कम करने के लिए किसी स्वास्थ्य सम्बन्धी समस्या के लिए एक सरल पूर्वानुमान परीक्षण विकसित करना है।

$$L_0$$ एक व्‍यावहारिक विरलता प्रतिबंध है और नॉर्म $$\|w\|_0$$, $$w$$ में गैर-शून्य तत्वों की संख्या के रूप में परिभाषित किया गया है। हालाँकि, NP-कठोरता के रूप में नियमित अधिगम की समस्या के समाधान $$L_0$$ को प्रदर्शित किया गया है।

$$L_1$$ नॉर्म का उपयोग सरल अवमुख के माध्यम से इष्टतम नॉर्म $$L_0$$ का अनुमान लगाने के लिए किया जा सकता है। यह दर्शाया जा सकता है कि नॉर्म $$L_1$$मानदंड विरलता को अनुमानित करता है। न्यूनतम वर्गों के स्थिति में, इस समस्या को सांख्यिकी में लासो और सांकेतिक प्रसंस्करण में आधार  संकेत के रूप में जाना जाता है।


 * $$\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda \|w\|_{1}$$

$$L_1$$नियमितीकरण कभी-कभी गैर-अद्वितीय समाधान उत्पन्न कर सकता है। चित्र में एक सरल उदाहरण दिया गया है, जब संभावित समाधानों की समष्टि 45 डिग्री रेखा पर होती है तब यह कुछ अनुप्रयोगों के लिए समस्याग्रस्त हो सकता है, और इसे नॉर्म $$L_1$$और $$L_2$$ नियमितीकरण में प्रत्यास्थता नेट नियमितीकरण के संयोजन से इसे दूर किया जा सकता है| जो निम्नलिखित रूप लेता है:
 * $$\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda (\alpha \|w\|_{1} + (1 - \alpha)\|w\|_{2}^{2}), \alpha \in [0, 1]$$

प्रत्यास्थता नेट नियमितीकरण में समूहीकरण प्रभाव होता है, जहां सहसंबद्ध निविष्ट सुविधाओं को समतुल्य महत्व दिया जाता है।

प्रत्यास्थता नेट नियमितीकरण सामान्य व्यवहार में उपयोग किया जाता है और कई यंत्र अधिगम सूचीपत्र में लागू किया जाता है।

समीपस्थ विधियाँ
नॉर्म $$L_1$$ अवमुख है, लेकिन x = 0 पर वक्र के कारण दृढ़ता से अवकलनीय नहीं है जबकि नॉर्म $$L_1$$के परिणामस्वरूप NP-कठोरता समस्या नहीं होती है। उपप्रवण विधियां जो उप-व्युत्पन्न पर निर्भर करती हैं, उनका उपयोग $$L_1$$नॉर्म की नियमितीकरण अधिगम समस्याओं को हल करने के लिए किया जा सकता है। हालाँकि, समीपस्थ तरीकों के माध्यम से तेजी से अभिसरण प्राप्त किया जा सकता है।

समस्या $$\min_{w \in H} F(w) + R(w)$$ के लिए लिप्सचिट्ज़ निरंतर प्रवणता के साथ $$F$$ अवमुख, निरंतर और अवकलनीय है और $$R$$ अवमुख, निरंतर और समुचित है तो समस्या को हल करने की समीपस्थ विधि इस प्रकार है। सबसे पहले समीपस्थ संचालक को परिभाषित करें;


 * $$\operatorname{prox}_R(v) = \operatorname{argmin}\limits_{w \in \mathbb{R}^D} \{ R(w) + \frac{1}{2}\|w-v\|^2\}, $$

और फिर पुनरावृत्त करें


 * $$w_{k+1} = \operatorname{prox}\limits_{\gamma, R}(w_k - \gamma \nabla F(w_k))$$

समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत समष्टि $$R$$ पर वापस पूर्वानुमान करती है.

जब $$R$$ नॉर्म $$L_1$$नियमितीकरण होता है तब समीपस्थ संचालक सामान्य-शीर्ष संचालक के समतुल्य है,


 * $$S_\lambda(v)f(n) = \begin{cases} v_i - \lambda, & \text{if }v_i > \lambda \\ 0, & \text{if } v_i \in [-\lambda, \lambda] \\ v_i + \lambda, & \text{if }v_i < - \lambda \end{cases}$$

यह कुशल गणना की अनुमति देता है।

अतिव्यापन के बिना समूह विरलता
विशेषताओं के समूहों को विरल बाधा द्वारा नियमित किया जा सकता है, जो इष्टतम समस्या में कुछ पूर्व ज्ञान को व्यक्त करने के लिए उपयोगी हो सकता है।

गैर-अतिव्यापी ज्ञात समूहों वाले रैखिक प्रतिरूपण के स्थिति में, एक नियमितकर्ता को परिभाषित किया जा सकता है:


 * $$R(w) = \sum_{g=1}^G \|w_g\|_2,$$ जहाँ $$\|w_g\|_2 = \sqrt{\sum_{j=1}^{|G_g|}(w_g^j)^2}$$

इसे $$L_1$$नॉर्म के समूहों पर $$L_2$$ नॉर्म के प्रत्येक समूह के सदस्यों का अनुसरण करने के लिए नियमितीकरणकर्ता को प्रेरित करने के रूप में देखा जा सकता है।

इसे समीपस्थ विधि द्वारा हल किया जा सकता है, जहां समीपस्थ संचालक एक ब्लॉक-वार सामान्य-शीर्ष फलन है:


 * $$\operatorname{prox}\limits_{\lambda, R, g}(w_g) = \begin{cases} (1 - \frac{\lambda}{\|w_g\|_2})w_g, & \text{if } \|w_g\|_2 > \lambda \\ 0, & \text{if } \|w_g\|_2 \leq \lambda \end{cases}$$

अतिव्यापन के साथ समूह विरलता

अतिव्यापन के बिना समूह विरलता के लिए वर्णित एल्गोरिदम को उस स्थिति में लागू किया जा सकता है जहां समूह कुछ स्थितियों में अतिव्यापन करते हैं। इसके परिणामस्वरूप संभवतः कुछ समूहों में सभी शून्य तत्व होते है और अन्य समूहों में कुछ गैर-शून्य और कुछ शून्य तत्व होते है।

यदि समूह संरचना को संरक्षित करना वांछित है, तो एक नया नियमितकर्ता परिभाषित किया जा सकता है:


 * $$R(w) = \inf \left\{ \sum_{g=1}^G \|w_g\|_2 : w = \sum_{g=1}^G \bar w_g \right\}$$

अगर प्रत्येक $$w_g$$, $$\bar w_g$$ को सदिश के रूप में इस प्रकार परिभाषित किया गया है कि प्रतिबंध $$\bar w_g$$ समूह $$g$$ के $$w_g$$ के समतुल्य होती है और $$\bar w_g$$ की अन्य सभी प्रविष्टियाँ शून्य होती है। नियमितकर्ता इष्टतम विघटन $$w$$ को खंडो में प्राप्त करता है। इसे विभिन्न समूहों में उपलब्ध सभी तत्वों के प्रतिरूप के रूप में देखा जा सकता है। इस नियमितीकरण के साथ अधिगम की समस्याओं को समीपस्थ विधि से जटिलता के साथ भी हल किया जा सकता है। समीपस्थ संचालक की गणना संवृत रूप में नहीं की जा सकती है, लेकिन इसे प्रभावी ढंग से पुनरावृत्त रूप से हल किया जा सकता है, जो समीपस्थ विधि पुनरावृत्ति के भीतर एक आंतरिक पुनरावृत्ति को प्रेरित करता है।

अर्ध-पर्यवेक्षित शिक्षण के लिए नियमितकर्ता
जब निविष्ट उदाहरणों की तुलना में अंकन प्राप्त करना अधिक बहुमूल्‍य होता है, तो अर्ध-पर्यवेक्षित अधिगम उपयोगी हो सकता है। नियमितीकरण को उन प्रतिरूपणों को सीखने के लिए शिक्षण एल्गोरिदम का मार्गदर्शन करने के लिए डिज़ाइन किया गया है जो बिना पर्यवेक्षित प्रशिक्षण प्रतिदर्शों की संरचना का सम्मान करते हैं। यदि एक सममित वजन आव्यूह $$W$$ दिया गया है, तो एक नियमितकर्ता को परिभाषित किया जा सकता है:


 * $$R(f) = \sum_{i,j} w_{ij}(f(x_i) - f(x_j))^2$$

अगर $$W_{ij}$$ बिंदुओं $$x_i$$ और $$x_j$$ के लिए कुछ दूरी मीट्रिक के परिणाम को एन्कोड करता है। नियमितीकरण $$f(x_i) \approx f(x_j)$$ वांछनीय है इस अंतर्ज्ञान को पकड़ता है, और इसके समतुल्य है:


 * $$R(f) = \bar f^T L \bar f$$ जहाँ $$L = D- W$$, $$W$$ द्वारा प्रेरित ग्राफ का लाप्लासियन आव्यूह है.

इष्टतम समस्या $$\min_{f \in \mathbb{R}^m} R(f), m = u + l$$ को विश्लेषणात्मक रूप से हल किया जा सकता है यदि बाधा  $$f(x_i) = y_i$$ को सभी पर्यवेक्षित प्रतिदर्शों के लिए लागू किया गया हो। सदिश $$f$$ का अंकन वाला भाग इसलिए स्पष्ट है और सदिश $$f$$ का अंकन रहित भाग इस प्रकार हल किया गया है:


 * $$\min_{f_u \in \mathbb{R}^u} f^T L f = \min_{f_u \in \mathbb{R}^u} \{ f^T_u L_{uu} f_u + f^T_l L_{lu} f_u + f^T_u L_{ul} f_l \}$$
 * $$\nabla_{f_u} = 2L_{uu}f_u + 2L_{ul}Y$$
 * $$f_u = L_{uu}^\dagger (L_{ul} Y)$$

छद्म-विपरीत इसलिए लिया जा सकता है क्योंकि $$L_{ul}$$ के समतुल्य ही श्रेणी $$L_{uu}$$ होती है.

संयुक्त कार्य अधिगम के लिए नियमितकर्ता
संयुक्त कार्य अधिगम की स्थिति में, $$T$$ समस्याओं पर एक साथ विचार किया जाता है क्योंकि प्रत्येक समस्या किसी न किसी तरह से संबंधित होती है। संयुक्त कार्य का लक्ष्य प्रतिरूप के रूप में कार्यों की संबंधितता से पूर्वानुमान की क्षमता को ग्रहण करके $$T$$ फलन सीखना है। यह आव्यूह अधिगम के समतुल्य है

$$W: T \times D$$.

स्तंभों पर विरल नियमितकर्ता

 * $$R(w) = \sum_{i=1}^D \|W\|_{2,1}$$

यह नियमितीकरण प्रत्येक स्तंभ पर एक L2 मानदंड और सभी स्तंभों पर एक L1 मानदंड को परिभाषित करता है। इसे समीपस्थ तरीकों से हल किया जा सकता है।

परमाणु मानक नियमितीकरण

 * $$R(w) = \|\sigma(W)\|_1$$ जहाँ $$\sigma(W)$$, $$W$$ के विलक्षण मान अपघटन में अभिलाक्षणिक मान ​​​​है.

माध्य-विवश नियमितीकरण

 * $$R(f_1 \cdots f_T) = \sum_{t=1}^T \|f_t - \frac{1}{T} \sum_{s=1}^T f_s \|_{H_k}^2$$

यह नियमितकर्ता प्रत्येक कार्य के लिए सीखे गए कार्यों को सभी कार्यों में कार्यों के समग्र औसत के समतुल्य होने के लिए बाध्य करता है। यह पूर्व सूचना व्यक्त करने के लिए उपयोगी है जिसे प्रत्येक कार्य द्वारा एक-दूसरे कार्य के साथ साझा करने की अपेक्षा की जाती है। उदाहरण के लिए, दिन के अलग-अलग समय पर मापे गए रक्त आयरन के स्तर को पूर्वानुमान करना है, जहां प्रत्येक कार्य एक विशिष्ट कार्य का प्रतिनिधित्व करता है।

संकुल माध्य-विवश नियमितीकरण

 * $$R(f_1 \cdots f_T) = \sum_{r=1}^C \sum_{t \in I(r)} \|f_t - \frac{1}{I(r)} \sum_{s \in I(r)} f_s\|_{H_k}^2$$ जहाँ $$I(r)$$ कार्यों का एक समूह है.

यह नियमितीकरण माध्य-विवश नियमितीकरण के समतुल्य है, लेकिन इसके अपेक्षा एक ही संकुल के भीतर कार्यों के बीच समतुल्यता को लागू करता है। यह अधिक जटिल पूर्व जानकारी प्राप्त कर सकता है। इस तकनीक का उपयोग नेटफ्लिक्स अनुशंसाओं को पूर्वानुमान करने के लिए किया गया है। एक संकुल उन लोगों के समूह के अनुरूप होगा जो समतुल्य प्राथमिकताएँ साझा करते हैं।

ग्राफ-आधारित समतुल्यता
उपरोक्त से अधिक सामान्यतः, कार्यों के बीच समतुल्यता को एक फलन द्वारा परिभाषित किया जा सकता है। नियमितीकरण प्रतिरूपण को समतुल्य फलन के लिए समतुल्य कार्य सीखने के लिए प्रोत्साहित करता है।


 * $$R(f_1 \cdots f_T) = \sum_{t,s=1, t \neq s}^T \| f_t - f_s \|^2 M_{ts} $$ किसी दिए गए सममित समतुल्यता आव्यूह $$M$$ के लिए.

सांख्यिकी और यंत्र अधिगम में नियमितीकरण के अन्य उपयोग
बायेसियन प्रतिरूपण तुलना विधियां पूर्व संभाव्यता का उपयोग करती हैं जो सामान्यतौर पर अधिक जटिल प्रतिरूपणों को कम पूर्वानुमान देती है। प्रसिद्ध प्रतिरूपण चयन तकनीकों में अकाइक सूचना मानदंड (एआईसी), न्यूनतम विवरण लंबाई (एमडीएल), और बायेसियन सूचना मानदंड (बीआईसी) सम्मिलित हैं। ओवरफिटिंग को नियंत्रित करने के वैकल्पिक तरीकों में नियमितीकरण सम्मिलित नहीं है जिसमें क्रॉस-सत्यापन सम्मिलित है।

रैखिक प्रतिरूपण में नियमितीकरण के विभिन्न तरीकों के अनुप्रयोगों के उदाहरण हैं:

यह भी देखें

 * नियमितीकरण की बायेसियन व्याख्या
 * पूर्वाग्रह-विचरण ट्रेडऑफ़
 * आव्यूह नियमितीकरण
 * वर्णक्रमीय फ़िल्टरिंग द्वारा नियमितीकरण
 * न्यूनतम वर्गों को नियमित किया गया
 * लैग्रेंज गुणक