कर्नेल हिल्बर्ट समष्टि पुनरुत्पादन

कार्यात्मक विश्लेषण (गणित की एक शाखा) में, एक पुनरुत्पादन कर्नेल हिल्बर्ट स्थान  (आरकेएचएस) कार्यों का एक हिल्बर्ट स्पेस है जिसमें बिंदु मूल्यांकन एक सतत रैखिक कार्यात्मक (गणित) है। मोटे तौर पर कहें तो इसका मतलब यह है कि यदि दो कार्य करते हैं $$f$$ और $$g$$ आरकेएचएस में मानक के करीब हैं, अर्थात, $$\|f-g\|$$ तो फिर छोटा है $$f$$ और $$g$$ बिंदुवार भी करीब हैं, अर्थात, $$|f(x)-g(x)|$$ सबके लिए छोटा है $$x$$. बातचीत का सत्य होना आवश्यक नहीं है। अनौपचारिक रूप से, इसे यूनिफ़ॉर्म मानदंड: कार्यों के अनुक्रम को देखकर दिखाया जा सकता है $$\sin^n (x)$$ बिंदुवार अभिसरण करता है, किन्तु समान अभिसरण नहीं करता है अर्थात सर्वोच्च मानदंड के संबंध में अभिसरण नहीं करता है (यह एक प्रति उदाहरण नहीं है क्योंकि ध्रुवीकरण पहचान को संतुष्ट नहीं करने के कारण सर्वोच्च मानदंड किसी भी आंतरिक उत्पाद से उत्पन्न नहीं होता है)।

फ़ंक्शंस के हिल्बर्ट स्पेस का निर्माण करना पूरी तरह से सरल नहीं है जो आरकेएचएस नहीं है। चूँकि, कुछ उदाहरण मिले हैं।

वर्ग-अभिन्न फलन|एल2 रिक्त स्थान कार्यों के हिल्बर्ट स्थान नहीं हैं (और इसलिए आरकेएचएस नहीं हैं), बल्कि कार्यों के समतुल्य वर्गों के हिल्बर्ट स्थान हैं (उदाहरण के लिए, फ़ंक्शन $$f$$ और $$g$$ द्वारा परिभाषित $$f(x)=0$$ और $$g(x)=1_{\mathbb{Q}}$$ एल में समतुल्य हैं2). चूँकि, ऐसे आरकेएचएस हैं जिनमें मानक एल है2-मानदंड, जैसे बैंड-सीमित कार्यों का स्थान (नीचे उदाहरण देखें)।

आरकेएचएस एक कर्नेल से जुड़ा है जो अंतरिक्ष में हर फ़ंक्शन को हर एक के अर्थ में पुन: प्रस्तुत करता है $$x$$ उस सेट में जिस पर फ़ंक्शन परिभाषित किए गए हैं, मूल्यांकन पर $$x$$कर्नेल द्वारा निर्धारित फ़ंक्शन के साथ एक आंतरिक उत्पाद लेकर प्रदर्शन किया जा सकता है। ऐसा पुनरुत्पादन कर्नेल तभी उपस्तिथ होता है जब प्रत्येक मूल्यांकन कार्यात्मकता निरंतर होती है।

पुनरुत्पादन कर्नेल को पहली बार 1907 में स्टैनिस्लाव ज़रेम्बा (गणितज्ञ) के काम में प्रस्तुत किया गया था, जो हार्मोनिक फ़ंक्शन और बिहारमोनिक समीकरण के लिए सीमा मूल्य समस्याओं से संबंधित था। जेम्स मर्सर (गणितज्ञ) ने एक साथ सकारात्मक-निश्चित कर्नेल की जांच की जो अभिन्न समीकरणों के सिद्धांत में पुनरुत्पादन संपत्ति को संतुष्ट करता है। पुनरुत्पादन कर्नेल का विचार लगभग बीस वर्षों तक अछूता रहा जब तक कि यह गैबोर सजेगो, स्टीफन बर्गमैन और सॉलोमन बोचनर के शोध प्रबंधों में सामने नहीं आया। इस विषय को अंततः 1950 के दशक की शुरुआत में नचमन एरोनज़जन और स्टीफ़न बर्गमैन द्वारा व्यवस्थित रूप से विकसित किया गया था।

इन स्थानों में व्यापक अनुप्रयोग हैं, जिनमें जटिल विश्लेषण, हार्मोनिक विश्लेषण और क्वांटम यांत्रिकी सम्मिलित हैं। प्रसिद्ध प्रतिनिधि प्रमेय के कारण सांख्यिकीय शिक्षण सिद्धांत के क्षेत्र में कर्नेल हिल्बर्ट रिक्त स्थान का पुनरुत्पादन विशेष रूप से महत्वपूर्ण है, जिसमें कहा गया है कि आरकेएचएस में प्रत्येक फ़ंक्शन जो एक अनुभवजन्य जोखिम कार्यात्मक को कम करता है, उसे प्रशिक्षण बिंदुओं पर मूल्यांकन किए गए कर्नेल फ़ंक्शन के रैखिक संयोजन के रूप में लिखा जा सकता है। यह एक व्यावहारिक रूप से उपयोगी परिणाम है क्योंकि यह अनुभवजन्य जोखिम न्यूनीकरण समस्या को अनंत आयामी से सीमित आयामी अनुकूलन समस्या तक प्रभावी ढंग से सरल बनाता है।

समझने में आसानी के लिए, हम वास्तविक-मूल्यवान हिल्बर्ट स्थानों के लिए रूपरेखा प्रदान करते हैं। सिद्धांत को आसानी से जटिल-मूल्य वाले कार्यों के स्थानों तक बढ़ाया जा सकता है और इसलिए इसमें कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के कई महत्वपूर्ण उदाहरण सम्मिलित हैं जो विश्लेषणात्मक कार्यों के स्थान हैं।

परिभाषा
होने देना $$X$$ एक मनमाना सेट (गणित) बनें और $$H$$ वास्तविक-मूल्यवान कार्यों का एक हिल्बर्ट स्थान $$X$$, बिंदुवार जोड़ और बिंदुवार अदिश गुणन से सुसज्जित। कार्यों के हिल्बर्ट स्थान पर कार्टेशियन बंद श्रेणी#मूल्यांकन कार्यात्मक $$H$$ एक रैखिक कार्यात्मकता है जो प्रत्येक फ़ंक्शन का एक बिंदु पर मूल्यांकन करती है $$x$$,


 * $$ L_{x} : f \mapsto f(x) \text{   } \forall f \in H. $$

हम कहते हैं कि यदि सभी के लिए H एक 'प्रजनन कर्नेल हिल्बर्ट स्पेस' है $$x$$ में $$X$$, $$ L_x $$ प्रत्येक पर सतत कार्य (टोपोलॉजी) है $$f$$ में $$H$$ या, समकक्ष, यदि $$ L_x $$ पर एक परिबद्ध संचालिका है $$H$$, अर्थात कुछ उपस्तिथ है $$M_x>0$$ ऐसा है कि

यद्यपि $$M_x<\infty$$ सभी के लिए मान लिया गया है $$x\in X$$, अभी भी ऐसा ही हो सकता है $\sup_x M_x = \infty$.

जबकि संपत्ति ($$) सबसे कमजोर स्थिति है जो आंतरिक उत्पाद के अस्तित्व और प्रत्येक फ़ंक्शन के मूल्यांकन दोनों को सुनिश्चित करती है $$H$$ डोमेन के प्रत्येक बिंदु पर, यह व्यवहार में आसान अनुप्रयोग के लिए उपयुक्त नहीं है। आरकेएचएस की एक अधिक सहज परिभाषा यह देखकर प्राप्त की जा सकती है कि यह संपत्ति गारंटी देती है कि मूल्यांकन कार्यात्मकता का आंतरिक उत्पाद लेकर प्रतिनिधित्व किया जा सकता है $$ f $$ एक समारोह के साथ $$ K_x $$ में $$H$$. यह फ़ंक्शन तथाकथित पुनरुत्पादन कर्नेल है हिल्बर्ट स्थान के लिए $$H$$ जिससे आरकेएचएस का नाम पड़ा। अधिक औपचारिक रूप से, रिज़्ज़ प्रतिनिधित्व प्रमेय का तात्पर्य सभी के लिए है $$x$$ में $$X$$ वहां एक अनोखा तत्व उपस्तिथ है $$ K_x $$ का $$H$$ पुनरुत्पादन संपत्ति के साथ,

तब से $$ K_x $$ यह अपने आप में परिभाषित एक फ़ंक्शन है $$X$$ क्षेत्र में मूल्यों के साथ $$\mathbb{R}$$ (या $$\mathbb{C}$$ जटिल हिल्बर्ट स्थानों के स्थितियों में) और जैसे $$ K_x $$ में है $$H$$ हमारे पास वह है
 * $$ K_x(y) = L_y(K_x)= \langle K_x,\ K_y \rangle_H, $$

कहाँ $$K_y\in H$$ में तत्व है $$H$$ के लिए जुड़े $$L_y$$.

यह हमें पुनरुत्पादन कर्नेल को परिभाषित करने की अनुमति देता है $$H$$ एक समारोह के रूप में $$ K: X \times X \to \mathbb{R} $$ द्वारा


 * $$ K(x,y) = \langle K_x,\ K_y \rangle_H. $$

इस परिभाषा से यह देखना आसान है $$ K: X \times X \to \mathbb{R} $$ (या $$\mathbb{C}$$ जटिल स्थितियों में) सममित (सम्मान संयुग्म सममित) और सकारात्मक निश्चित दोनों है, अर्थात।


 * $$ \sum_{i,j =1}^n c_i c_j K(x_i, x_j)=

\sum_{i=1}^n c_i \left\langle K_{x_i}, \sum_{j=1}^n c_j K_{x_j} \right\rangle_{H} = \left\langle \sum_{i=1}^n c_i K_{x_i}, \sum_{j=1}^n c_j K_{x_j} \right\rangle_{H} = \left\|\sum_{i=1}^nc_iK_{x_i}\right\|_H^2 \ge 0 $$ हरएक के लिए $$ n \in \mathbb{N}, x_1, \dots, x_n \in X, \text{ and } c_1, \dots, c_n \in \mathbb{R}. $$ मूर-एरोन्सज़जन प्रमेय (नीचे देखें) इसका एक प्रकार से विपरीत है: यदि कोई फ़ंक्शन $$K$$ इन शर्तों को पूरा करता है तो कार्यों का एक हिल्बर्ट स्थान होता है $$X$$ जिसके लिए यह एक पुनरुत्पादक कर्नेल है।

उदाहरण
बैंडलिमिटिंग निरंतर कार्यों का स्थान $$H$$ एक आरकेएचएस है, जैसा कि हम अब दिखाते हैं। औपचारिक रूप से, कुछ कटऑफ आवृत्ति तय करें $$ 0<a < \infty $$ और हिल्बर्ट स्थान को परिभाषित करें


 * $$ H = \{ f \in C(\mathbb{R}) \mid \operatorname{supp}(F) \subset [-a,a] \} $$

कहाँ $$C(\mathbb{R})$$ सतत वर्ग पूर्णांकीय फलनों का समुच्चय है, और $ F(\omega) = \int_{-\infty}^\infty f(t) e^{-i\omega t} \, dt $ का फूरियर रूपांतरण है $$ f$$. इस हिल्बर्ट स्पेस के आंतरिक उत्पाद के रूप में, हम उपयोग करते हैं


 * $$\langle f, g\rangle_{L^2} = \int_{-\infty}^\infty f(x) \cdot \overline{g(x)} \, dx.$$

फूरियर व्युत्क्रम प्रमेय से, हमारे पास है


 * $$ f(x) = \frac{1}{2 \pi} \int_{-a}^a F(\omega) e^{ix \omega} \, d\omega .$$

इसके बाद कॉची-श्वार्ज़ असमानता और प्लांचरेल के प्रमेय का पालन होता है, जो सभी के लिए है $$x$$,


 * $$ |f(x)| \le

\frac{1}{2 \pi} \sqrt{ \int_{-a}^a 2a |F(\omega)|^2 \, d\omega} =\frac{1}{\pi}\sqrt{\frac{a}{2}\int_{-\infty}^\infty |F(\omega)|^2 \, d\omega} = \sqrt{\frac{a}{\pi}} \|f\|_{L^2}. $$ यह असमानता दर्शाती है कि मूल्यांकन कार्यात्मकता सीमित है, जिससे यह सिद्ध करना होता है $$ H $$ वास्तव में एक आरकेएचएस है।

कर्नेल फ़ंक्शन $$K_x$$ इस स्थितियों में द्वारा दिया गया है


 * $$K_x(y) = \frac{a}{\pi} \operatorname{sinc}\left ( \frac{a}{\pi} (y-x) \right )=\frac{\sin(a(y-x))}{\pi(y-x)}.$$

का फूरियर रूपांतरण $$K_x(y)$$ ऊपर परिभाषित द्वारा दिया गया है


 * $$\int_{-\infty}^\infty K_x(y)e^{-i \omega y} \, dy =

\begin{cases} e^{-i \omega x} &\text{if } \omega \in [-a, a], \\ 0 &\textrm{otherwise}, \end{cases} $$ जो फूरियर ट्रांसफॉर्म#बेसिक प्रॉपर्टीज|फूरियर ट्रांसफॉर्म की टाइम-शिफ्टिंग प्रॉपर्टी का परिणाम है। परिणाम स्वरुप, प्लैंचरेल के प्रमेय का उपयोग करते हुए, हमारे पास है


 * $$ \langle f, K_x\rangle_{L^2} = \int_{-\infty}^\infty f(y) \cdot \overline{K_x(y)} \, dy

= \frac{1}{2\pi} \int_{-a}^a F(\omega) \cdot e^{i\omega x} \, d\omega = f(x) .$$ इस प्रकार हम कर्नेल की पुनरुत्पादन संपत्ति प्राप्त करते हैं।

$$K_x$$ इस स्थितियों में डिराक डेल्टा फ़ंक्शन का बैंडलिमिटेड संस्करण है, और वह $$K_x(y)$$ में एकत्रित हो जाता है $$\delta(y-x)$$ कटऑफ आवृत्ति के रूप में कमजोर अर्थ में $$a$$ अनन्त की ओर प्रवृत्त होता है।

मूर-अरोनज़जन प्रमेय
हमने देखा है कि कैसे एक पुनरुत्पादक कर्नेल हिल्बर्ट स्पेस एक पुनरुत्पादक कर्नेल फ़ंक्शन को परिभाषित करता है जो सममित और सकारात्मक निश्चित कर्नेल दोनों है। मूर-अरोन्सज़जन प्रमेय दूसरी दिशा में जाता है; इसमें कहा गया है कि प्रत्येक सममित, सकारात्मक निश्चित कर्नेल एक अद्वितीय पुनरुत्पादन कर्नेल हिल्बर्ट स्पेस को परिभाषित करता है। प्रमेय पहली बार एरोनज़जन की थ्योरी ऑफ़ रिप्रोड्यूसिंग कर्नेल्स में दिखाई दिया, चूँकि वह इसका श्रेय ई. एच. मूर को देते हैं।


 * 'प्रमेय'. मान लीजिए कि K एक सेट

'सबूत'। एक्स में सभी एक्स के लिए, के को परिभाषित करेंx= के(एक्स, ⋅ ). चलो एच0 {K का रैखिक विस्तार होx: एक्स ∈ एक्स}. H पर एक आंतरिक उत्पाद को परिभाषित करें0 द्वारा


 * $$ \left\langle \sum_{j=1}^n b_j K_{y_j}, \sum_{i=1}^m a_i K_{x_i} \right \rangle_{H_0} = \sum_{i=1}^m \sum_{j=1}^n {a_i} b_j K(y_j, x_i),$$

जो ये दर्शाता हे $$K(x,y)=\left\langle K_{x}, K_{y} \right\rangle_{H_0}$$. इस आंतरिक उत्पाद की समरूपता K की समरूपता से उत्पन्न होती है और गैर-अपघटन इस तथ्य से उत्पन्न होती है कि K सकारात्मक निश्चित है।

मान लीजिए H, H का समापन (मीट्रिक स्थान) है0 इस आंतरिक उत्पाद के संबंध में. फिर H में फॉर्म के फ़ंक्शन सम्मिलित हैं


 * $$ f(x) = \sum_{i=1}^\infty a_i K_{x_i} (x) \quad \text{where} \quad \lim_{n \to \infty}\sup_{p\geq0}\left\|\sum_{i=n}^{n+p} a_i K_{x_i}\right\|_{H_0} = 0.$$

अब हम पुनरुत्पादन गुण की जांच कर सकते हैं ($$):


 * $$\langle f, K_x \rangle_H = \sum_{i=1}^\infty a_i\left \langle K_{x_i}, K_x \right \rangle_{H_0}= \sum_{i=1}^\infty a_i K (x_i, x) = f(x).$$

विशिष्टता सिद्ध करना करने के लिए, मान लीजिए कि G फ़ंक्शन का एक और हिल्बर्ट स्थान है जिसके लिए K एक पुनरुत्पादक कर्नेल है। X में प्रत्येक x और y के लिए, ($$) इसका आशय है


 * $$\langle K_x, K_y \rangle_H = K(x, y) = \langle K_x, K_y \rangle_G.$$

रैखिकता से, $$\langle \cdot, \cdot \rangle_H = \langle \cdot, \cdot \rangle_G$$ के विस्तार पर $$\{K_x : x \in X\}$$. तब $$H \subset G$$ क्योंकि G पूर्ण है और इसमें H सम्मिलित है0 और इसलिए इसमें इसकी पूर्णता सम्मिलित है।

अब हमें यह सिद्ध करना है कि G का प्रत्येक तत्व H में है $$ f $$ G का एक तत्व हो। चूँकि H, G का एक बंद उपस्थान है, इसलिए हम लिख सकते हैं $$ f=f_H + f_{H^\bot} $$ कहाँ $$ f_H \in H $$ और $$ f_{H^\bot} \in H^\bot $$. अब यदि $$ x \in X $$ तब, चूँकि K, G और H का पुनरुत्पादक कर्नेल है:


 * $$f(x) = \langle K_x, f \rangle_G = \langle K_x, f_H \rangle_G + \langle K_x, f_{H^\bot} \rangle_G = \langle K_x , f_H \rangle_G = \langle K_x , f_H \rangle_H = f_H(x),   $$

जहाँ हमने इस तथ्य का प्रयोग किया है $$ K_x $$ H से संबंधित है जिससे कि इसका आंतरिक उत्पाद साथ हो $$ f_{H^\bot} $$ जी में शून्य है. इससे पता चलता है कि $$ f = f_H $$ जी में और प्रमाण समाप्त होता है।

इंटीग्रल ऑपरेटर्स और मर्सर का प्रमेय
हम एक सममित सकारात्मक निश्चित कर्नेल की विशेषता बता सकते हैं $$K$$ मर्सर के प्रमेय का उपयोग करके इंटीग्रल ऑपरेटर के माध्यम से और आरकेएचएस का एक अतिरिक्त दृश्य प्राप्त करें। होने देना $$X$$ सख्ती से सकारात्मक परिमित बोरेल माप से सुसज्जित एक कॉम्पैक्ट स्थान बनें $$\mu$$ और $$K: X \times X \to \R$$ एक सतत, सममित और सकारात्मक निश्चित कार्य। इंटीग्रल ऑपरेटर को परिभाषित करें $$T_K: L_2(X) \to L_2(X)$$ जैसा


 * $$ [T_K f](\cdot) =\int_X K(\cdot,t) f(t)\, d\mu(t) $$

कहाँ $$L_2(X)$$ के संबंध में वर्गाकार समाकलनीय फलनों का स्थान है $$ \mu $$.

मर्सर के प्रमेय में कहा गया है कि अभिन्न ऑपरेटर का वर्णक्रमीय अपघटन $$T_K$$ का $$K$$ का एक श्रृंखला प्रतिनिधित्व प्राप्त होता है $$K$$ के eigenvalues ​​​​और eigenfunctions के संदर्भ में $$ T_K $$. इसका तात्पर्य यह है कि $$K$$ एक पुनरुत्पादन कर्नेल है जिससे कि संबंधित आरकेएचएस को इन eigenvalues ​​​​और eigenfunctions के संदर्भ में परिभाषित किया जा सके। हम नीचे विवरण प्रदान करते हैं।

इन धारणाओं के अनुसार $$T_K$$ एक सघन, सतत, स्व-सहायक और सकारात्मक संचालिका है। स्व-सहायक ऑपरेटरों के लिए वर्णक्रमीय प्रमेय का तात्पर्य है कि अधिकतम गणनीय घटता क्रम है $$(\sigma_i)_i \geq 0 $$ ऐसा है कि $\lim_{i \to \infty}\sigma_i = 0$  और $$T_K\varphi_i(x) = \sigma_i\varphi_i(x)$$, जहां $$\{\varphi_i\}$$ का असामान्य आधार बनाएं $$L_2(X)$$. की सकारात्मकता से $$T_K, \sigma_i > 0$$ सभी के लिए $$i.$$ वो भी कोई दिखा सकता है $$T_K $$ सतत कार्यों के स्थान में निरंतर मानचित्रण करता है $$C(X)$$ और इसलिए हम eigenvectors के रूप में निरंतर कार्यों को चुन सकते हैं, अर्थात, $$\varphi_i \in C(X)$$ सभी के लिए $$i.$$ फिर मर्सर के प्रमेय द्वारा $$ K $$ eigenvalues ​​​​और निरंतर eigenfunctions के संदर्भ में लिखा जा सकता है


 * $$ K(x,y) = \sum_{j=1}^\infty \sigma_j \, \varphi_j(x) \, \varphi_j(y) $$

सभी के लिए $$x, y \in X$$ ऐसा है कि


 * $$ \lim_{n \to \infty}\sup_{u,v} \left |K(u,v) - \sum_{j=1}^n \sigma_j \, \varphi_j(u) \, \varphi_j(v) \right | = 0. $$

इस उपरोक्त श्रृंखला प्रतिनिधित्व को मर्सर कर्नेल या मर्सर प्रतिनिधित्व के रूप में जाना जाता है $$ K $$.

इसके अतिरिक्त, यह दिखाया जा सकता है कि आरकेएचएस $$ H $$ का $$ K $$ द्वारा दिया गया है


 * $$ H = \left \{ f \in L_2(X) \,\Bigg\vert\, \sum_{i=1}^\infty \frac{\left\langle f,\varphi_i \right \rangle^2_{L_2}}{\sigma_i} < \infty \right\} $$

जहां का आंतरिक उत्पाद $$ H $$ द्वारा दिए गए


 * $$ \left\langle f,g \right\rangle_H = \sum_{i=1}^\infty \frac{\left\langle f,\varphi_i \right\rangle_{L_2}\left\langle g,\varphi_i \right\rangle_{L_2}}{\sigma_i}. $$

आरकेएचएस के इस प्रतिनिधित्व का संभाव्यता और सांख्यिकी में अनुप्रयोग है, उदाहरण के लिए स्टोकेस्टिक प्रक्रियाओं और कर्नेल पीसीए के लिए करहुनेन-लोवे प्रमेय | करहुनेन-लोवे प्रतिनिधित्व।

फ़ीचर मानचित्र
फ़ीचर मानचित्र एक मानचित्र है $$ \varphi\colon X \rightarrow F $$, कहाँ $$ F $$ एक हिल्बर्ट स्पेस है जिसे हम फीचर स्पेस कहेंगे। पहले खंड में बंधे/निरंतर मूल्यांकन कार्यों, सकारात्मक निश्चित कार्यों और अभिन्न ऑपरेटरों के बीच संबंध प्रस्तुत किया गया है और इस खंड में हम फीचर मानचित्रों के संदर्भ में आरकेएचएस का एक और प्रतिनिधित्व प्रदान करते हैं।

प्रत्येक फीचर मैप एक कर्नेल को परिभाषित करता है

स्पष्ट रूप से $$ K $$ सममित है और सकारात्मक निश्चितता आंतरिक उत्पाद के गुणों से आती है $$ F $$. इसके विपरीत, प्रत्येक सकारात्मक निश्चित फ़ंक्शन और संबंधित पुनरुत्पादन कर्नेल हिल्बर्ट स्पेस में असीमित रूप से कई संबद्ध फ़ीचर मानचित्र होते हैं जैसे कि ($$) धारण करता है.

उदाहरण के लिए, हम तुच्छ रूप से ले सकते हैं $$ F = H $$ और $$ \varphi(x) = K_x $$ सभी के लिए $$ x \in X $$. तब ($$) पुनरुत्पादक संपत्ति से संतुष्ट है। फ़ीचर मैप का एक और मौलिक उदाहरण इंटीग्रल ऑपरेटरों के संबंध में पिछले अनुभाग से संबंधित है $$ F = \ell^2 $$ और $$ \varphi(x) = (\sqrt{\sigma_i} \varphi_i(x))_i $$.

कर्नेल और फीचर मैप के बीच यह संबंध हमें सकारात्मक निश्चित कार्यों को समझने का एक नया विधि प्रदान करता है और इसलिए कर्नेल को आंतरिक उत्पादों के रूप में पुन: प्रस्तुत करता है। $$ H $$. इसके अतिरिक्त, प्रत्येक फीचर मैप एक सकारात्मक निश्चित फ़ंक्शन की परिभाषा के माध्यम से स्वाभाविक रूप से आरकेएचएस को परिभाषित कर सकता है।

अंत में, फीचर मैप हमें फ़ंक्शन स्पेस बनाने की अनुमति देते हैं जो आरकेएचएस पर एक और परिप्रेक्ष्य प्रकट करते हैं। रैखिक स्थान पर विचार करें


 * $$ H_\varphi = \{ f: X \to \mathbb{R} \mid \exists w \in F, f(x) = \langle w, \varphi(x) \rangle_{F}, \forall \text{ } x \in X \} . $$

हम एक मानदंड को परिभाषित कर सकते हैं $$ H_\varphi $$ द्वारा


 * $$ \|f\|_\varphi = \inf \{\|w\|_F : w \in F, f(x) = \langle w, \varphi(x)\rangle_F, \forall \text{ } x \in X \} .$$

ऐसा दिखाया जा सकता है $$ H_{\varphi} $$ कर्नेल द्वारा परिभाषित आरकेएचएस है $$ K(x,y) = \langle\varphi(x), \varphi(y)\rangle_F $$. इस प्रतिनिधित्व का तात्पर्य है कि आरकेएचएस के तत्व फीचर स्पेस में तत्वों के आंतरिक उत्पाद हैं और तदनुसार हाइपरप्लेन के रूप में देखे जा सकते हैं। आरकेएचएस का यह दृश्य मशीन लर्निंग में कर्नेल चाल से संबंधित है।

गुण
आरकेएचएस के निम्नलिखित गुण पाठकों के लिए उपयोगी हो सकते हैं।


 * होने देना $$(X_i)_{i=1}^p$$ सेटों का एक क्रम बनें और $$(K_i)_{i=1}^p$$ संबंधित सकारात्मक निश्चित कार्यों का एक संग्रह बनें $$ (X_i)_{i=1}^p.$$ इसके बाद यह अनुसरण करता है
 * $$K((x_1,\ldots ,x_p),(y_1,\ldots,y_p)) = K_1(x_1,y_1)\cdots K_p(x_p,y_p)$$
 * एक कर्नेल चालू है $$ X = X_1 \times \dots \times X_p.$$
 * होने देना $$X_0 \subset X,$$ फिर का प्रतिबंध $$ K $$ को $$X_0 \times X_0 $$ एक पुनरुत्पादक कर्नेल भी है।
 * सामान्यीकृत कर्नेल पर विचार करें $$K$$ ऐसा है कि $$ K(x, x) = 1 $$ सभी के लिए $$x \in X $$. X पर छद्म-मीट्रिक को इस प्रकार परिभाषित करें
 * $$ d_K(x,y) = \|K_x - K_y\|_H^2 = 2(1-K(x,y)) \qquad \forall x \in X . $$
 * कॉची-श्वार्ज़ असमानता द्वारा,
 * $$ K(x,y)^2 \le K(x, x)K(y, y)=1 \qquad \forall x,y \in X.$$
 * यह असमानता हमें देखने की अनुमति देती है $$K$$ इनपुट के बीच समानता माप के रूप में। यदि $$x, y \in X$$ फिर समान हैं $$K(x,y)$$ 1 के करीब होगा जबकि यदि $$x,y \in X$$ फिर भिन्न हैं $$K(x,y)$$ 0 के करीब होगा.


 * के स्पैन का बंद होना $$ \{ K_x \mid x \in X \} $$ के साथ मेल खाता है $$ H $$.

बिलिनियर गुठली

 * $$ K(x,y) = \langle x,y\rangle $$

आरकेएचएस $$H$$ इस कर्नेल के अनुरूप दोहरा स्थान है, जिसमें फ़ंक्शंस सम्मिलित हैं $$f(x) = \langle x,\beta\rangle$$ संतुष्टि देने वाला $$\|f\|_H^2=\|\beta\|^2$$.

बहुपद गुठली

 * $$ K(x,y) = (\alpha\langle x,y \rangle + 1)^d, \qquad \alpha \in \R, d \in \N $$

रेडियल आधार फ़ंक्शन कर्नेल
ये गुठली का एक और सामान्य वर्ग है जो संतुष्ट करता है $$ K(x,y) = K(\|x - y\|)$$. कुछ उदाहरणों में सम्मिलित हैं:


 * गाऊशियन या वर्गाकार घातीय कर्नेल:
 * $$ K(x,y) = e^{-\frac{\|x - y\|^2}{2\sigma^2}}, \qquad \sigma > 0 $$
 * लाप्लासियन कर्नेल:
 * $$ K(x,y) = e^{-\frac{\|x - y\|}{\sigma}}, \qquad \sigma > 0 $$
 * किसी फ़ंक्शन का वर्ग मानदंड $$f$$ आरकेएचएस में $$H$$ इस कर्नेल के साथ है:
 * $$\|f\|_H^2=\int_{\mathbb R}\Big( \frac1{\sigma} f(x)^2 + \sigma f'(x)^2\Big) \mathrm d x.$$

बर्गमैन कर्नेल
हम बर्गमैन कर्नेल के उदाहरण भी प्रदान करते हैं। मान लीजिए कि यदि सामान्य आंतरिक उत्पाद का उपयोग किया जाता है, तो केxवह फ़ंक्शन है जिसका मान x पर 1 और अन्य सभी जगह 0 है, और $$K(x,y)$$ तब से इसे एक पहचान मैट्रिक्स के रूप में सोचा जा सकता है


 * $$K(x,y)=\begin{cases} 1 & x=y \\ 0 & x \neq y \end{cases}$$

इस स्थितियों में, H समरूपी है $$\Complex^n$$.

के स्थितियों में $$X= \mathbb{D}$$ (कहाँ $$\mathbb{D}$$ यूनिट डिस्क को दर्शाता है) अधिक परिष्कृत है। यहां बर्गमैन स्पेस एच स्क्वायर|$$H^2(\mathbb{D})$$वर्ग-अभिन्न फलन का स्थान है|वर्ग-अभिन्न होलोमोर्फिक फ़ंक्शन पर $$\mathbb{D}$$. यह दिखाया जा सकता है कि पुनरुत्पादन कर्नेल के लिए $$H^2(\mathbb{D})$$ है


 * $$K(x,y)=\frac{1}{\pi}\frac{1}{(1-x\overline{y})^2}.$$

अंत में, बैंड का स्थान सीमित कार्य करता है $$ L^2(\R) $$ बैंडविड्थ के साथ $$2a$$ पुनरुत्पादन कर्नेल वाला आरकेएचएस है


 * $$K(x,y)=\frac{\sin a (x - y)}{\pi (x-y)}.$$

वेक्टर-मूल्यवान फ़ंक्शंस का विस्तार
इस खंड में हम आरकेएचएस की परिभाषा को वेक्टर-मूल्यवान कार्यों के स्थानों तक विस्तारित करते हैं क्योंकि यह विस्तार बहु-कार्य सीखने और कई गुना नियमितीकरण में विशेष रूप से महत्वपूर्ण है। मुख्य अंतर यह है कि पुनरुत्पादन कर्नेल $$ \Gamma $$ एक सममित फ़ंक्शन है जो अब प्रत्येक के लिए एक सकारात्मक अर्ध-निश्चित मैट्रिक्स है $$ x,y $$ में $$ X $$. अधिक औपचारिक रूप से, हम एक वेक्टर-मूल्यवान आरकेएचएस (वीवीआरकेएचएस) को कार्यों के हिल्बर्ट स्थान के रूप में परिभाषित करते हैं $$ f: X \to \mathbb{R}^T $$ ऐसा कि सभी के लिए $$ c \in \mathbb{R}^T $$ और $$ x \in X $$
 * $$ \Gamma_xc(y) = \Gamma(x, y)c \in H \text{ for } y \in X $$

और


 * $$ \langle f, \Gamma_x c \rangle_H = f(x)^\intercal c. $$

यह दूसरी संपत्ति अदिश-मूल्य वाले स्थितियों के लिए पुनरुत्पादन संपत्ति के समानांतर है। इस परिभाषा को इंटीग्रल ऑपरेटर्स, बाउंडेड इवैल्यूएशन फ़ंक्शंस और फ़ीचर मैप्स से भी जोड़ा जा सकता है, जैसा कि हमने स्केलर-वैल्यू आरकेएचएस के लिए देखा था। हम वीवीआरकेएचएस को एक सीमित मूल्यांकन कार्यात्मकता के साथ एक वेक्टर-मूल्यवान हिल्बर्ट स्पेस के रूप में परिभाषित कर सकते हैं और दिखा सकते हैं कि यह रिज़्ज़ प्रतिनिधित्व प्रमेय द्वारा एक अद्वितीय पुनरुत्पादन कर्नेल के अस्तित्व का तात्पर्य है। वेक्टर-मूल्य सेटिंग को संबोधित करने के लिए मर्सर के प्रमेय को भी बढ़ाया जा सकता है और इसलिए हम वीवीआरकेएचएस का एक फीचर मैप दृश्य प्राप्त कर सकते हैं। अंत में, यह भी दिखाया जा सकता है कि स्पैन का बंद होना $$ \{ \Gamma_xc : x \in X, c \in \mathbb{R}^T \} $$ के साथ मेल खाता है $$ H $$, अदिश-मूल्यवान स्थितियों के समान एक और संपत्ति।

हम इन स्थानों पर घटक-वार परिप्रेक्ष्य लेकर वीवीआरकेएचएस के लिए अंतर्ज्ञान प्राप्त कर सकते हैं। विशेष रूप से, हम पाते हैं कि प्रत्येक वीवीआरकेएचएस एक विशेष इनपुट स्थान पर स्केलर-मूल्य वाले आरकेएचएस के लिए सममितीय रूप से समरूपी  है। होने देना $$\Lambda = \{1, \dots, T \} $$. स्थान पर विचार करें $$ X \times \Lambda $$ और संबंधित पुनरुत्पादन कर्नेल

जैसा कि ऊपर उल्लेख किया गया है, इस पुनरुत्पादन कर्नेल से जुड़ा आरकेएचएस स्पैन के बंद होने से दिया गया है $$\{ \gamma_{(x,t)} : x \in X, t \in \Lambda \} $$ कहाँ $$ \gamma_{(x,t)} (y,s) = \gamma( (x,t), (y,s)) $$ जोड़ियों के प्रत्येक सेट के लिए $ (x,t), (y,s) \in X \times \Lambda $.

स्केलर-मूल्यवान आरकेएचएस से संबंध इस तथ्य से बनाया जा सकता है कि प्रत्येक मैट्रिक्स-मूल्यवान कर्नेल को फॉर्म के कर्नेल के साथ पहचाना जा सकता है ($$) के जरिए


 * $$ \Gamma(x,y)_{(t,s)} = \gamma((x,t), (y,s)). $$

इसके अतिरिक्त, प्रत्येक कर्नेल ($$) उपरोक्त अभिव्यक्ति के साथ एक मैट्रिक्स-मूल्यवान कर्नेल को परिभाषित करता है। अब नक्शा दे रहा हूँ $$ D: H_\Gamma \to H_\gamma $$ के रूप में परिभाषित किया जाए


 * $$ (Df)(x,t) = \langle f(x), e_t \rangle_{\mathbb{R}^T} $$

कहाँ $$ e_t $$ है $$ t^\text{th} $$ के लिए विहित आधार का घटक $$ \mathbb{R}^T $$, कोई इसे दिखा सकता है $$ D $$ विशेषण है और बीच में एक आइसोमेट्री है $$ H_\Gamma $$ और $$ H_\gamma $$.

जबकि वीवीआरकेएचएस का यह दृश्य बहु-कार्य सीखने में उपयोगी हो सकता है, यह आइसोमेट्री वेक्टर-मूल्य वाले स्थितियों के अध्ययन को स्केलर-मूल्यवान स्थितियों के अध्ययन तक कम नहीं करता है। वास्तव में, यह आइसोमेट्री प्रक्रिया स्केलर-वैल्यू कर्नेल और इनपुट स्पेस दोनों को व्यवहार में काम करने के लिए बहुत कठिन बना सकती है क्योंकि मूल कर्नेल के गुण अधिकांशतः खो जाते हैं। मैट्रिक्स-मूल्यवान पुनरुत्पादन कर्नेल का एक महत्वपूर्ण वर्ग अलग-अलग कर्नेल हैं जिन्हें स्केलर मूल्यवान कर्नेल के उत्पाद के रूप में फैक्टराइज़ किया जा सकता है और ए $$T$$-आयामी सममित सकारात्मक अर्ध-निश्चित मैट्रिक्स। हमारी पिछली चर्चा के आलोक में ये गुठलियाँ इस प्रकार हैं


 * $$ \gamma((x,t),(y,s)) = K(x,y) K_T(t,s) $$

सभी के लिए $$x,y $$ में $$ X $$ और $$t,s$$ में $$ T $$. चूँकि स्केलर-मूल्यवान कर्नेल इनपुट के बीच निर्भरता को एनकोड करता है, हम देख सकते हैं कि मैट्रिक्स-मूल्यवान कर्नेल इनपुट और आउटपुट दोनों के बीच निर्भरता को एनकोड करता है।

हम अंत में टिप्पणी करते हैं कि उपरोक्त सिद्धांत को फ़ंक्शन स्थानों में मानों के साथ कार्यों के स्थानों तक बढ़ाया जा सकता है किन्तु इन स्थानों के लिए कर्नेल प्राप्त करना अधिक कठिन कार्य है।

ReLU फ़ंक्शन के साथ RKHS के बीच कनेक्शन
रेक्टिफायर (तंत्रिका नेटवर्क) को सामान्यतः इस प्रकार परिभाषित किया जाता है $$f(x)=\max \{0, x\}$$ और यह तंत्रिका नेटवर्क की वास्तुकला में एक मुख्य आधार है जहां इसका उपयोग सक्रियण फ़ंक्शन के रूप में किया जाता है। कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के सिद्धांत का उपयोग करके कोई ReLU-जैसे नॉनलाइनियर फ़ंक्शन का निर्माण कर सकता है। नीचे, हम इस निर्माण को प्राप्त करते हैं और दिखाते हैं कि यह ReLU सक्रियणों के साथ तंत्रिका नेटवर्क की प्रतिनिधित्व शक्ति को कैसे दर्शाता है।

हम हिल्बर्ट क्षेत्र के साथ काम करेंगे $$ \mathcal{H}=L^1_2(0)[0, \infty) $$ के साथ बिल्कुल निरंतर कार्य करता है $$f(0) = 0$$ और वर्ग पूर्णांक (अर्थात्) $$L_2$$) व्युत्पन्न। इसमें आंतरिक उत्पाद है


 * $$ \langle f,g \rangle_{\mathcal{H}} = \int_0^\infty f'(x)g'(x) \, dx .$$

पुनरुत्पादक कर्नेल का निर्माण करने के लिए घने उपस्थान पर विचार करना पर्याप्त है, तो चलिए $$f\in C^1[0, \infty)$$ और $$f(0)=0$$. कैलकुलस का मौलिक प्रमेय तब देता है


 * $$f(y)= \int_0^y f'(x) \, dx = \int_0^\infty G(x,y) f'(x) \, dx = \langle K_y,f \rangle$$

कहाँ


 * $$G(x,y)=

\begin{cases} 1, & x < y\\ 0, & \text{otherwise} \end{cases}$$ और $$K_y'(x)= G(x,y),\ K_y(0) = 0$$ अर्थात।


 * $$K(x, y)=K_y(x)=\int_0^x G(z, y) \, dz=

\begin{cases} x, & 0\leq x<y \\ y, & \text{otherwise.} \end{cases}=\min(x, y)$$ यह संकेत करता है $$K_y=K(\cdot, y)$$ पुनरुत्पादन करता है $$f$$.

इसके अतिरिक्त न्यूनतम फ़ंक्शन चालू है $$ X\times X = [0,\infty)\times [0,\infty) $$ ReLu फ़ंक्शन के साथ निम्नलिखित प्रस्तुतियाँ हैं:


 * $$ \min(x,y) = x -\operatorname{ReLU}(x-y) =  y - \operatorname{ReLU}(y-x). $$

इस फॉर्मूलेशन का उपयोग करके, हम प्रतिनिधि प्रमेय को आरकेएचएस पर लागू कर सकते हैं, जिससे तंत्रिका नेटवर्क सेटिंग्स में ReLU सक्रियणों का उपयोग करने की इष्टतमता सिद्ध करना हो सकती है।

यह भी देखें

 * सकारात्मक निश्चित कर्नेल
 * मर्सर का प्रमेय
 * कर्नेल ट्रिक
 * वितरण की कर्नेल एम्बेडिंग
 * प्रतिनिधि प्रमेय

संदर्भ

 * Alvarez, Mauricio, Rosasco, Lorenzo and Lawrence, Neil, “Kernels for Vector-Valued Functions: a Review,” https://arxiv.org/abs/1106.6251, June 2011.
 * Berlinet, Alain and Thomas, Christine. Reproducing kernel Hilbert spaces in Probability and Statistics, Kluwer Academic Publishers, 2004.
 * De Vito, Ernest, Umanita, Veronica, and Villa, Silvia. "An extension of Mercer theorem to vector-valued measurable kernels,", June 2013.
 * Durrett, Greg. 9.520 Course Notes, Massachusetts Institute of Technology, https://www.mit.edu/~9.520/scribe-notes/class03_gdurett.pdf, February 2010.
 * Okutmustur, Baver.  “Reproducing Kernel Hilbert Spaces,” M.S. dissertation, Bilkent University, http://www.thesis.bilkent.edu.tr/0002953.pdf, August 2005.
 * Paulsen, Vern. “An introduction to the theory of reproducing kernel Hilbert spaces,” http://www.math.uh.edu/~vern/rkhs.pdf.
 * Rosasco, Lorenzo and Poggio, Thomas. "A Regularization Tour of Machine Learning – MIT 9.520 Lecture Notes" Manuscript, Dec. 2014.
 * Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.
 * Paulsen, Vern. “An introduction to the theory of reproducing kernel Hilbert spaces,” http://www.math.uh.edu/~vern/rkhs.pdf.
 * Rosasco, Lorenzo and Poggio, Thomas. "A Regularization Tour of Machine Learning – MIT 9.520 Lecture Notes" Manuscript, Dec. 2014.
 * Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.
 * Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.