स्मूथिंग स्प्लिन

स्मूथिंग स्प्लिन फ़ंक्शन अनुमान हैं, $$\hat f(x)$$, शोर अवलोकनों के एक सेट से प्राप्त किया गया $$y_i$$ लक्ष्य का $$f(x_i)$$, फिट की अच्छाई के एक माप को संतुलित करने के लिए $$\hat f(x_i)$$ को $$y_i$$ की चिकनाई के व्युत्पन्न आधारित माप के साथ $$\hat f(x)$$. वे शोर को कम करने का एक साधन प्रदान करते हैं $$x_i, y_i$$ आंकड़े। सबसे परिचित उदाहरण क्यूबिक स्मूथिंग स्प्लाइन है, लेकिन इस मामले सहित कई अन्य संभावनाएं भी हैं $$x$$ एक सदिश राशि है.

घन तख़्ता परिभाषा
होने देना $$\{x_i,Y_i: i = 1,\dots,n\}$$ संबंध द्वारा प्रतिरूपित अवलोकनों का एक समूह बनें $$Y_i = f(x_i) + \epsilon_i$$ जहां $$\epsilon_i $$ स्वतंत्र, शून्य माध्य यादृच्छिक चर हैं (आमतौर पर स्थिर विचरण माना जाता है)। घन चौरसाई तख़्ता अनुमान $$\hat f$$ समारोह का $$f$$ को न्यूनतम (दो बार भिन्न कार्यों के वर्ग पर) के रूप में परिभाषित किया गया है

\sum_{i=1}^n \{Y_i - \hat f(x_i)\}^2 + \lambda \int \hat f''(x)^2 \,dx. $$ टिप्पणियां:
 * $$\lambda \ge 0$$ एक स्मूथिंग पैरामीटर है, जो डेटा के प्रति निष्ठा और फ़ंक्शन अनुमान के खुरदरेपन के बीच व्यापार-बंद को नियंत्रित करता है। इसका अनुमान अक्सर सामान्यीकृत क्रॉस-सत्यापन द्वारा लगाया जाता है, या प्रतिबंधित सीमांत संभावना (आरईएमएल) द्वारा जो स्प्लाइन स्मूथिंग और बायेसियन अनुमान के बीच लिंक का फायदा उठाता है (स्मूथिंग पेनल्टी को पूर्व में प्रेरित होने के रूप में देखा जा सकता है $$f$$).
 * इंटीग्रल का मूल्यांकन अक्सर संपूर्ण वास्तविक रेखा पर किया जाता है, हालांकि सीमा को उसी तक सीमित करना भी संभव है $$x_i$$.
 * जैसा $$\lambda\to 0$$ (कोई स्मूथिंग नहीं), स्मूथिंग स्प्लाइन अंतर्वेशित तख़्ता में परिवर्तित हो जाती है।
 * जैसा $$\lambda\to\infty$$ (अनंत स्मूथिंग), खुरदरापन जुर्माना सर्वोपरि हो जाता है और अनुमान सामान्य न्यूनतम वर्ग अनुमान में परिवर्तित हो जाता है।
 * दूसरे व्युत्पन्न पर आधारित खुरदरापन दंड आधुनिक सांख्यिकी साहित्य में सबसे आम है, हालांकि इस पद्धति को अन्य व्युत्पन्न पर आधारित दंड के लिए आसानी से अपनाया जा सकता है।
 * प्रारंभिक साहित्य में, समान-स्थान वाले क्रम के साथ $$x_i$$, डेरिवेटिव के बजाय दूसरे या तीसरे क्रम के अंतर का उपयोग दंड में किया गया था।
 * वर्गों के दण्डित योग को सुचारू करने वाले उद्देश्य को एक दण्डित संभाव्यता उद्देश्य द्वारा प्रतिस्थापित किया जा सकता है जिसमें वर्गों के पदों के योग को डेटा के प्रति निष्ठा के एक अन्य लॉग-संभावना आधारित माप द्वारा प्रतिस्थापित किया जाता है। वर्ग पद का योग गाऊसी धारणा के साथ दंडित संभावना से मेल खाता है $$\epsilon_i$$.

घन चौरसाई तख़्ता की व्युत्पत्ति
स्मूथिंग स्पलाइन को दो चरणों में फिट करने के बारे में सोचना उपयोगी है:
 * 1) सबसे पहले, मान प्राप्त करें $$\hat f(x_i);i=1,\ldots,n$$.
 * 2) इन मूल्यों से निष्कर्ष निकालें $$\hat f(x)$$ सभी एक्स के लिए

अब, पहले दूसरे चरण का इलाज करें।

वेक्टर को देखते हुए $$\hat{m} = (\hat f(x_1),\ldots,\hat f(x_n))^T$$ फिट किए गए मानों में, तख़्ता मानदंड का योग-वर्ग भाग निश्चित होता है। यह केवल न्यूनतम करने के लिए ही रह गया है $$\int \hat f''(x)^2 \, dx$$, और मिनिमाइज़र एक प्राकृतिक क्यूबिक स्प्लाइन (गणित) है जो बिंदुओं को प्रक्षेपित करता है $$(x_i,\hat f(x_i))$$. यह इंटरपोलेटिंग स्पलाइन एक रैखिक ऑपरेटर है, और इसे फॉर्म में लिखा जा सकता है

\hat f(x) = \sum_{i=1}^n \hat f(x_i) f_i(x) $$ कहाँ $$f_i(x)$$ तख़्ता आधार कार्यों का एक सेट हैं। परिणामस्वरूप खुरदरापन दंड का रूप धारण कर लेता है

\int \hat f''(x)^2 dx = \hat{m}^T A \hat{m}. $$ जहां A के तत्व हैं $$\int f_i(x) f_j(x)dx$$. आधार कार्य, और इसलिए मैट्रिक्स ए, भविष्यवक्ता चर के विन्यास पर निर्भर करता है $$x_i$$, लेकिन प्रतिक्रियाओं पर नहीं $$Y_i$$ या $$\hat m$$.

A, द्वारा दिया गया एक n×n मैट्रिक्स है $$A = \Delta^T W^{-1} \Delta$$.

Δ तत्वों के साथ दूसरे अंतर का एक (n-2)×n मैट्रिक्स है:

$$\Delta_{ii} = 1/h_i$$, $$\Delta_{i,i+1} = -1/h_i - 1/h_{i+1}$$, $$\Delta_{i,i+2} = 1/h_{i+1}$$ W तत्वों के साथ एक (n-2)×(n-2) सममित त्रि-विकर्ण मैट्रिक्स है:

$$W_{i-1,i}=W_{i,i-1}=h_i/6$$, $$W_{ii}=(h_i+h_{i+1})/3$$ और $$h_i=\xi_{i+1} - \xi_i$$, क्रमिक गांठों (या x मान) के बीच की दूरी।

अब पहले चरण पर वापस जाएँ। दण्डित योग-वर्गों को इस प्रकार लिखा जा सकता है

\{Y - \hat m\}^T \{Y - \hat m\} + \lambda \hat{m}^T A \hat m, $$ कहाँ $$Y=(Y_1,\ldots,Y_n)^T$$.

ख़त्म करना $$\hat m$$ विरुद्ध भेद करके $$\hat m$$. इस में यह परिणाम: $$ -2 \{ Y - \hat m \} + 2 \lambda A \hat m = 0$$ और $$ \hat m = (I + \lambda A)^{-1} Y. $$

डी बूर का दृष्टिकोण
डी बूर का दृष्टिकोण एक ही विचार का उपयोग करता है, एक चिकनी वक्र होने और दिए गए डेटा के करीब होने के बीच संतुलन खोजने का।

$$p\sum_{i=1}^n \left ( \frac{Y_i - \hat f \left (x_i \right )}{\delta_i} \right )^2+\left ( 1-p \right )\int \left ( \hat f^{\left (m \right )}\left ( x \right ) \right )^2 \, dx$$ कहाँ $$p$$ एक पैरामीटर है जिसे स्मूथ फ़ैक्टर कहा जाता है और यह अंतराल से संबंधित है $$[0,1]$$, और $$\delta_i;i=1,\dots,n$$ वे मात्राएँ हैं जो स्मूथिंग की सीमा को नियंत्रित करती हैं (वे वजन का प्रतिनिधित्व करती हैं $$\delta_i^{-2}$$ प्रत्येक बिंदु का $$Y_i$$). व्यवहार में, चूंकि घन विभाजन का अधिकतर उपयोग किया जाता है, $$m$$ आमतौर पर है $$2$$. के लिए समाधान $$m=2$$ 1967 में रिंस्च द्वारा प्रस्तावित किया गया था। के लिए $$m=2$$, कब $$p$$ दृष्टिकोण $$1$$, $$\hat f$$ दिए गए डेटा के प्राकृतिक स्पलाइन इंटरपोलेंट में परिवर्तित हो जाता है। जैसा $$p$$ दृष्टिकोण $$0$$, $$\hat f$$ एक सीधी रेखा (सबसे चिकनी वक्र) में परिवर्तित हो जाती है। का उपयुक्त मान ज्ञात करने के बाद से $$p$$ परीक्षण और त्रुटि का कार्य है, एक निरर्थक स्थिरांक $$S$$ सुविधा के लिए पेश किया गया था। $$S$$ का मान संख्यात्मक रूप से निर्धारित करने के लिए उपयोग किया जाता है $$p$$ ताकि फ़ंक्शन $$\hat f$$ निम्नलिखित शर्त को पूरा करता है:

$$\sum_{i=1}^n \left ( \frac{Y_i - \hat f \left (x_i \right )}{\delta_i} \right )^2 \le S$$ डी बूर द्वारा वर्णित एल्गोरिदम शुरू होता है $$p=0$$ और बढ़ जाता है $$p$$ जब तक शर्त पूरी नहीं हो जाती. अगर $$\delta_i$$ के लिए मानक विचलन का एक अनुमान है $$Y_i$$, अटल $$S$$ अंतराल में चुनने की अनुशंसा की जाती है $$\left [ n-\sqrt{2n},n+\sqrt{2n} \right ]$$. रखना $$S=0$$ इसका मतलब है कि समाधान प्राकृतिक स्पलाइन इंटरपोलेंट है। की बढ़ती $$S$$ इसका मतलब है कि हम दिए गए डेटा से दूर जाकर एक चिकना वक्र प्राप्त करते हैं।

बहुआयामी विभाजन
एक अदिश राशि के संबंध में चौरसाई से सामान्यीकरण करने की विधि के दो मुख्य वर्ग हैं $$x$$ एक वेक्टर के संबंध में चौरसाई करने के लिए $$x$$. पहला दृष्टिकोण बहुआयामी सेटिंग के लिए स्प्लाइन स्मूथिंग पेनल्टी को सामान्यीकृत करता है। उदाहरण के लिए, यदि अनुमान लगाने का प्रयास किया जा रहा है $$f(x,z)$$ हम पतली प्लेट तख़्ता  पेनाल्टी का उपयोग कर सकते हैं और इसका पता लगा सकते हैं $$\hat f(x,z)$$ कम से कम

\sum_{i=1}^n \{y_i - \hat f(x_i,z_i)\}^2 + \lambda \int \left[\left(\frac{\partial^2 \hat f}{\partial x^2}\right)^2 + 2\left(\frac{\partial^2 \hat f}{\partial x \partial z}\right)^2 + \left(\frac{\partial^2 \hat f}{\partial z^2}\right)^2 \right] \textrm{d} x \, \textrm{d}z. $$ पतली प्लेट तख़्ता दृष्टिकोण को दो से अधिक आयामों और दंड में विभेदन के अन्य आदेशों के संबंध में चौरसाई करने के लिए सामान्यीकृत किया जा सकता है। जैसे-जैसे आयाम बढ़ता है, अंतर के सबसे छोटे क्रम पर कुछ प्रतिबंध होते हैं जिनका उपयोग किया जा सकता है, लेकिन वास्तव में डचॉन का मूल पेपर, थोड़ा अधिक जटिल दंड देता है जिससे इस प्रतिबंध से बचा जा सकता है।

पतली प्लेट स्प्लिन आइसोट्रोपिक हैं, जिसका अर्थ है कि यदि हम घूमते हैं $$x,z$$ समन्वय प्रणाली का अनुमान नहीं बदलेगा, लेकिन यह भी हम मान रहे हैं कि सभी दिशाओं में समान स्तर का स्मूथिंग उपयुक्त है। स्थानिक स्थान के संबंध में समायोजन करते समय इसे अक्सर उचित माना जाता है, लेकिन कई अन्य मामलों में आइसोट्रॉपी एक उचित धारणा नहीं है और माप इकाइयों के स्पष्ट रूप से मनमाने विकल्पों के प्रति संवेदनशीलता पैदा कर सकता है। उदाहरण के लिए, यदि दूरी और समय के संबंध में स्मूथिंग की जाती है तो एक आइसोट्रोपिक स्मूथर अलग-अलग परिणाम देगा यदि दूरी मीटर में और समय सेकंड में मापा जाता है, तो क्या होगा यदि हम इकाइयों को सेंटीमीटर और घंटों में बदल दें।

बहु-आयामी स्मूथिंग के सामान्यीकरण का दूसरा वर्ग सीधे तौर पर टेंसर उत्पाद स्पलाइन निर्माणों का उपयोग करके इस पैमाने के अपरिवर्तनीय मुद्दे से संबंधित है।  इस तरह के स्प्लिन में कई स्मूथिंग मापदंडों के साथ स्मूथिंग पेनल्टी होती है, जो वह कीमत है जिसे यह मानने के लिए भुगतान किया जाना चाहिए कि चिकनाई की समान डिग्री सभी दिशाओं में उपयुक्त है।

संबंधित विधियाँ
स्मूथिंग स्प्लिन संबंधित हैं, लेकिन इनसे अलग हैं:
 * प्रतिगमन विभाजन। इस पद्धति में, डेटा को कम गांठों के सेट के साथ, आमतौर पर कम से कम वर्गों के साथ, तख़्ता आधार कार्यों के एक सेट में फिट किया जाता है। किसी खुरदरापन दंड का उपयोग नहीं किया जाता है। (बहुभिन्नरूपी अनुकूली प्रतिगमन स्प्लिन भी देखें।)
 * दंडित विभाजन। यह प्रतिगमन स्प्लिन की कम हुई गांठों को स्मूथिंग स्प्लिन के खुरदरेपन के दंड के साथ जोड़ता है।
 * कई गुना सीखने के लिए पतली प्लेट स्प्लिन और इलास्टिक मानचित्र विधि। यह विधि सन्निकटन त्रुटि के लिए न्यूनतम वर्ग दंड को सन्निकटन मैनिफोल्ड के झुकने और खींचने वाले दंड के साथ जोड़ती है और अनुकूलन समस्या के मोटे विवेक का उपयोग करती है।

स्रोत कोड
स्प्लाइन (गणित) स्मूथिंग के लिए स्रोत कोड कार्ल आर. डी बूर|कार्ल डी बूर की पुस्तक ए प्रैक्टिकल गाइड टू स्प्लिंस के उदाहरणों में पाया जा सकता है। उदाहरण फोरट्रान प्रोग्रामिंग भाषा में हैं। अद्यतन स्रोत कार्ल डी बूर की आधिकारिक साइट पर भी उपलब्ध हैं।

अग्रिम पठन

 * Wahba, G. (1990). Spline Models for Observational Data. SIAM, Philadelphia.
 * Green, P. J. and Silverman, B. W. (1994). Nonparametric Regression and Generalized Linear Models. CRC Press.
 * De Boor, C. (2001). A Practical Guide to Splines (Revised Edition). Springer.