कर्नेल हिल्बर्ट समष्टि पुनरुत्पादन

कार्यात्मक विश्लेषण (गणित की एक शाखा) में, एक पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि   (आरकेएचएस) फलनों का एक हिल्बर्ट समष्टि है जिसमें बिंदु मूल्यांकन एक सतत रैखिक कार्यात्मक (गणित) है। मोटे तौर पर कहें तो इसका मतलब यह है कि यदि दो कार्य करते हैं $$f$$ और $$g$$ आरकेएचएस में मानक के निकट हैं, अर्थात, $$\|f-g\|$$ तो फिर छोटा है $$f$$ और $$g$$ बिंदुवार भी निकट हैं, अर्थात, $$|f(x)-g(x)|$$ सबके लिए छोटा है $$x$$. बातचीत का सत्य होना आवश्यक नहीं है। इस प्रकार अनौपचारिक रूप से, इसे यूनिफ़ॉर्म मानदंड: फलनों के अनुक्रम को देखकर दिखाया जा सकता है $$\sin^n (x)$$ बिंदुवार अभिसरण करता है, किन्तु समान अभिसरण नहीं करता है अर्थात सर्वोच्च मानदंड के संबंध में अभिसरण नहीं करता है (यह एक प्रति उदाहरण नहीं है क्योंकि समांतर चतुर्भुज नियम को संतुष्ट न करने के कारण सर्वोच्च मानदंड किसी भी आंतरिक उत्पाद से उत्पन्न नहीं होता है।)

फलन के हिल्बर्ट समष्टि का निर्माण करना पूरी तरह से सरल नहीं है जो आर.के.एच.एस नहीं है। चूँकि, कुछ उदाहरण मिले हैं।

L2 रिक्त स्थान फलनों के हिल्बर्ट स्थान नहीं हैं (और इसलिए आरकेएचएस नहीं हैं), बल्कि फलनों के समतुल्य वर्गों के हिल्बर्ट स्थान हैं (उदाहरण के लिए, फलन $$f$$ और $$g$$ द्वारा परिभाषित $$f(x)=0$$ और $$g(x)=1_{\mathbb{Q}}$$ L2 में समतुल्य हैं)। चूँकि, ऐसे आरकेएचएस हैं जिनमें मानक L2-मानदंड है, जैसे बैंड-सीमित फलनों का स्थान (नीचे उदाहरण देखें)।

आरकेएचएस एक कर्नेल से जुड़ा है जो अंतरिक्ष में हर फलन को हर एक के अर्थ में पुन: प्रस्तुत करता है $$x$$ उस समुच्चय में जिस पर फलन परिभाषित किए गए हैं, "मूल्यांकन पर $$x$$" कर्नेल द्वारा निर्धारित फलन के साथ एक आंतरिक उत्पाद लेकर निष्पादित किया जा सकता है। इस प्रकार ऐसा पुनरुत्पादन कर्नेल तभी उपस्तिथ होता है जब प्रत्येक मूल्यांकन कार्यात्मकता निरंतर होती है।

पुनरुत्पादन कर्नेल को पहली बार साल 1907 में हार्मोनिक फलन और बिहार्मोनिक समीकरण के लिए सीमा मूल्य समस्याओं से संबंधित स्टैनिस्लाव ज़रेम्बा के काम में प्रस्तुत किया गया था, जेम्स मर्सर ने एक साथ उन फलनों की जांच की जो अभिन्न समीकरणों के सिद्धांत में पुनरुत्पादन संपत्ति को संतुष्ट करते हैं। इस प्रकार पुनरुत्पादन कर्नेल का विचार लगभग बीस वर्षों तक अछूता रहा जब तक कि यह गैबोर सजेगो, स्टीफन बर्गमैन और सॉलोमन बोचनर के शोध प्रबंधों में सामने नहीं आया। इस विषय को अंततः साल 1950 के दशक की शुरुआत में नचमन एरोनज़जन और स्टीफ़न बर्गमैन द्वारा व्यवस्थित रूप से विकसित किया गया था।

इन स्थानों में व्यापक अनुप्रयोग हैं, जिनमें सम्मिश्र विश्लेषण, हार्मोनिक विश्लेषण और क्वांटम यांत्रिकी सम्मिलित हैं। प्रसिद्ध प्रतिनिधि प्रमेय के कारण सांख्यिकीय शिक्षण सिद्धांत के क्षेत्र में कर्नेल हिल्बर्ट रिक्त स्थान का पुनरुत्पादन विशेष रूप से महत्वपूर्ण है, जिसमें कहा गया है कि आरकेएचएस में प्रत्येक फलन जो एक अनुभवजन्य जोखिम कार्यात्मक को कम करता है, इस प्रकार उसे प्रशिक्षण बिंदुओं पर मूल्यांकन किए गए कर्नेल फलन के रैखिक संयोजन के रूप में लिखा जा सकता है। यह एक व्यावहारिक रूप से उपयोगी परिणाम है क्योंकि यह अनुभवजन्य जोखिम न्यूनीकरण समस्या को अनंत आयामी से सीमित आयामी अनुकूलन समस्या तक प्रभावी ढंग से सरल बनाता है।

समझने में आसानी के लिए, हम वास्तविक-मूल्यवान हिल्बर्ट स्थानों के लिए रूपरेखा प्रदान करते हैं। इस प्रकार सिद्धांत को आसानी से सम्मिश्र-मूल्य वाले फलनों के स्थानों तक बढ़ाया जा सकता है और इसलिए इसमें कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के कई महत्वपूर्ण उदाहरण सम्मिलित हैं जो विश्लेषणात्मक कार्य के स्थान हैं।

परिभाषा
होने देना $$X$$ एक मनमाना समुच्चय हो और $$H$$ वास्तविक-मूल्यवान फलनों का एक हिल्बर्ट स्थान $$X$$, बिंदुवार जोड़ और बिंदुवार अदिश गुणन से सुसज्जित फलनों के हिल्बर्ट स्थान पर कार्टेशियन बंद श्रेणी मूल्यांकन कार्यात्मक $$H$$ एक रैखिक कार्यात्मक है जो प्रत्येक फलन का एक बिंदु पर मूल्यांकन करती है $$x$$,


 * $$ L_{x} : f \mapsto f(x) \text{   } \forall f \in H. $$

हम कहते हैं कि यदि सभी के लिए H एक  'प्रजनन कर्नेल हिल्बर्ट समष्टि' है $$x$$ में $$X$$, $$ L_x $$ प्रत्येक पर सतत कार्य (टोपोलॉजी) है $$f$$ में $$H$$ या, समकक्ष, यदि $$ L_x $$ पर एक परिबद्ध संचालिका है $$H$$, अर्थात कुछ उपस्तिथ है $$M_x>0$$ ऐसा है कि

यद्यपि $$M_x<\infty$$ सभी के लिए मान लिया गया है $$x\in X$$, अभी भी ऐसा ही हो सकता है $\sup_x M_x = \infty$.

जबकि संपत्ति ($$) सबसे कमजोर स्थिति है जो आंतरिक उत्पाद के अस्तित्व और प्रत्येक फलन के मूल्यांकन दोनों को सुनिश्चित करती है $$H$$ डोमेन के प्रत्येक बिंदु पर, यह व्यवहार में आसान अनुप्रयोग के लिए उपयुक्त नहीं है। आरकेएचएस की एक अधिक सहज परिभाषा यह देखकर प्राप्त की जा सकती है कि यह संपत्ति गारंटी देती है कि मूल्यांकन कार्यात्मकता का आंतरिक उत्पाद लेकर प्रतिनिधित्व किया जा सकता है $$ f $$ एक समारोह के साथ $$ K_x $$ में $$H$$. यह फलन तथाकथित पुनरुत्पादन कर्नेल है हिल्बर्ट स्थान के लिए $$H$$ जिससे आरकेएचएस का नाम पड़ा एवं अधिक औपचारिक रूप से, रिज़्ज़ प्रतिनिधित्व प्रमेय का तात्पर्य सभी के लिए है $$x$$ में $$X$$ वहां एक अनोखा तत्व उपस्तिथ है $$ K_x $$ का $$H$$ पुनरुत्पादन संपत्ति के साथ,

तब से $$ K_x $$ यह अपने आप में परिभाषित एक फलन है $$X$$ क्षेत्र में मूल्यों के साथ $$\mathbb{R}$$ (या $$\mathbb{C}$$ सम्मिश्र हिल्बर्ट स्थानों के स्थितियों में) और जैसे $$ K_x $$ में है $$H$$ हमारे पास वह है
 * $$ K_x(y) = L_y(K_x)= \langle K_x,\ K_y \rangle_H, $$

कहाँ $$K_y\in H$$ में तत्व है $$H$$ के लिए जुड़े $$L_y$$.

यह हमें पुनरुत्पादन कर्नेल को परिभाषित करने की अनुमति देता है $$H$$ एक समारोह के रूप में $$ K: X \times X \to \mathbb{R} $$ द्वारा


 * $$ K(x,y) = \langle K_x,\ K_y \rangle_H. $$

इस परिभाषा से यह देखना आसान है $$ K: X \times X \to \mathbb{R} $$ (या $$\mathbb{C}$$ सम्मिश्र स्थितियों में) सममित (सम्मान संयुग्म सममित) और धनात्मक निश्चित दोनों है, अर्थात।


 * $$ \sum_{i,j =1}^n c_i c_j K(x_i, x_j)=

\sum_{i=1}^n c_i \left\langle K_{x_i}, \sum_{j=1}^n c_j K_{x_j} \right\rangle_{H} = \left\langle \sum_{i=1}^n c_i K_{x_i}, \sum_{j=1}^n c_j K_{x_j} \right\rangle_{H} = \left\|\sum_{i=1}^nc_iK_{x_i}\right\|_H^2 \ge 0 $$ हरएक के लिए $$ n \in \mathbb{N}, x_1, \dots, x_n \in X, \text{ and } c_1, \dots, c_n \in \mathbb{R}. $$ मूर-एरोन्सज़जन प्रमेय (नीचे देखें) इसका एक प्रकार से विपरीत है: यदि कोई फलन $$K$$ इन शर्तों को पूरा करता है तो फलनों का एक हिल्बर्ट स्थान होता है $$X$$ जिसके लिए यह एक पुनरुत्पादक कर्नेल है।

उदाहरण
बैंडलिमिटिंग निरंतर फलनों का स्थान $$H$$ एक आरकेएचएस है, जैसा कि हम अब दिखाते हैं। औपचारिक रूप से, कुछ कटऑफ आवृत्ति तय करें $$ 0<a < \infty $$ और हिल्बर्ट स्थान को परिभाषित करें


 * $$ H = \{ f \in C(\mathbb{R}) \mid \operatorname{supp}(F) \subset [-a,a] \} $$

कहाँ $$C(\mathbb{R})$$ सतत वर्ग पूर्णांकीय फलनों का समुच्चय है, और $ F(\omega) = \int_{-\infty}^\infty f(t) e^{-i\omega t} \, dt $ का फूरियर रूपांतरण है $$ f$$. इस हिल्बर्ट समष्टि के आंतरिक उत्पाद के रूप में, हम उपयोग करते हैं


 * $$\langle f, g\rangle_{L^2} = \int_{-\infty}^\infty f(x) \cdot \overline{g(x)} \, dx.$$

फूरियर व्युत्क्रम प्रमेय से, हमारे पास है


 * $$ f(x) = \frac{1}{2 \pi} \int_{-a}^a F(\omega) e^{ix \omega} \, d\omega .$$

इसके बाद कॉची-श्वार्ज़ असमानता और प्लांचरेल के प्रमेय का पालन होता है, जो सभी के लिए है $$x$$,


 * $$ |f(x)| \le

\frac{1}{2 \pi} \sqrt{ \int_{-a}^a 2a |F(\omega)|^2 \, d\omega} =\frac{1}{\pi}\sqrt{\frac{a}{2}\int_{-\infty}^\infty |F(\omega)|^2 \, d\omega} = \sqrt{\frac{a}{\pi}} \|f\|_{L^2}. $$ यह असमानता दर्शाती है कि मूल्यांकन कार्यात्मकता सीमित है, जिससे यह सिद्ध करना होता है $$ H $$ वास्तव में एक आरकेएचएस है।

कर्नेल फलन $$K_x$$ इस स्थितियों में द्वारा दिया गया है


 * $$K_x(y) = \frac{a}{\pi} \operatorname{sinc}\left ( \frac{a}{\pi} (y-x) \right )=\frac{\sin(a(y-x))}{\pi(y-x)}.$$

का फूरियर रूपांतरण $$K_x(y)$$ ऊपर परिभाषित द्वारा दिया गया है


 * $$\int_{-\infty}^\infty K_x(y)e^{-i \omega y} \, dy =

\begin{cases} e^{-i \omega x} &\text{if } \omega \in [-a, a], \\ 0 &\textrm{otherwise}, \end{cases} $$ जो फूरियर ट्रांसफॉर्म#बेसिक प्रॉपर्टीज|फूरियर ट्रांसफॉर्म की टाइम-शिफ्टिंग प्रॉपर्टी का परिणाम है। परिणाम स्वरुप, प्लैंचरेल के प्रमेय का उपयोग करते हुए, हमारे पास है


 * $$ \langle f, K_x\rangle_{L^2} = \int_{-\infty}^\infty f(y) \cdot \overline{K_x(y)} \, dy

= \frac{1}{2\pi} \int_{-a}^a F(\omega) \cdot e^{i\omega x} \, d\omega = f(x) .$$ इस प्रकार हम कर्नेल की पुनरुत्पादन संपत्ति प्राप्त करते हैं।

$$K_x$$ इस स्थितियों में डिराक डेल्टा फलन का बैंडलिमिटेड संस्करण है, और वह $$K_x(y)$$ में एकत्रित हो जाता है $$\delta(y-x)$$ कटऑफ आवृत्ति के रूप में कमजोर अर्थ में $$a$$ अनन्त की ओर प्रवृत्त होता है।

मूर-अरोनज़जन प्रमेय
हमने देखा है कि कैसे एक पुनरुत्पादक कर्नेल हिल्बर्ट समष्टि एक पुनरुत्पादक कर्नेल फलन को परिभाषित करता है जो सममित और धनात्मक निश्चित कर्नेल दोनों है। इस प्रकार मूर-अरोन्सज़जन प्रमेय दूसरी दिशा में जाता है; इसमें कहा गया है कि प्रत्येक सममित, धनात्मक निश्चित कर्नेल एक अद्वितीय पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि को परिभाषित करता है। प्रमेय पहली बार एरोनज़जन की थ्योरी ऑफ़ रिप्रोड्यूसिंग कर्नेल्स में दिखाई दिया, चूँकि वह इसका श्रेय ई. एच. मूर को देते हैं।


 * 'प्रमेय '. मान लीजिए कि K एक समुच्चय

'सबूत '। एक्स में सभी एक्स के लिए, के को परिभाषित करेंx= के(एक्स, ⋅ ). चलो एच0 {K का रैखिक विस्तार होx: एक्स ∈ एक्स}. H पर एक आंतरिक उत्पाद को परिभाषित करें0 द्वारा


 * $$ \left\langle \sum_{j=1}^n b_j K_{y_j}, \sum_{i=1}^m a_i K_{x_i} \right \rangle_{H_0} = \sum_{i=1}^m \sum_{j=1}^n {a_i} b_j K(y_j, x_i),$$

जो ये दर्शाता हे $$K(x,y)=\left\langle K_{x}, K_{y} \right\rangle_{H_0}$$.

इस आंतरिक उत्पाद की समरूपता K की समरूपता से उत्पन्न होती है और गैर-अपघटन इस तथ्य से उत्पन्न होती है कि K धनात्मक निश्चित है।

मान लीजिए H, H का समापन (मीट्रिक स्थान) है0 इस आंतरिक उत्पाद के संबंध में. फिर H में फॉर्म के फलन सम्मिलित हैं


 * $$ f(x) = \sum_{i=1}^\infty a_i K_{x_i} (x) \quad \text{where} \quad \lim_{n \to \infty}\sup_{p\geq0}\left\|\sum_{i=n}^{n+p} a_i K_{x_i}\right\|_{H_0} = 0.$$

अब हम पुनरुत्पादन गुण की जांच कर सकते हैं ($$):


 * $$\langle f, K_x \rangle_H = \sum_{i=1}^\infty a_i\left \langle K_{x_i}, K_x \right \rangle_{H_0}= \sum_{i=1}^\infty a_i K (x_i, x) = f(x).$$

विशिष्टता सिद्ध करना करने के लिए, मान लीजिए कि G फलन का एक और हिल्बर्ट स्थान है जिसके लिए K एक पुनरुत्पादक कर्नेल है। X में प्रत्येक x और y के लिए, ($$) इसका आशय है


 * $$\langle K_x, K_y \rangle_H = K(x, y) = \langle K_x, K_y \rangle_G.$$

रैखिकता से, $$\langle \cdot, \cdot \rangle_H = \langle \cdot, \cdot \rangle_G$$ के विस्तार पर $$\{K_x : x \in X\}$$. तब $$H \subset G$$ क्योंकि G पूर्ण है और इसमें H सम्मिलित है0 और इसलिए इसमें इसकी पूर्णता सम्मिलित है।

अब हमें यह सिद्ध करना है कि G का प्रत्येक तत्व H में है $$ f $$ G का एक तत्व हो। चूँकि H, G का एक बंद उपस्थान है, इसलिए हम लिख सकते हैं $$ f=f_H + f_{H^\bot} $$ कहाँ $$ f_H \in H $$ और $$ f_{H^\bot} \in H^\bot $$. अब यदि $$ x \in X $$ तब, चूँकि K, G और H का पुनरुत्पादक कर्नेल है:


 * $$f(x) = \langle K_x, f \rangle_G = \langle K_x, f_H \rangle_G + \langle K_x, f_{H^\bot} \rangle_G = \langle K_x , f_H \rangle_G = \langle K_x , f_H \rangle_H = f_H(x),   $$

जहाँ हमने इस तथ्य का प्रयोग किया है $$ K_x $$ H से संबंधित है जिससे कि इसका आंतरिक उत्पाद साथ हो $$ f_{H^\bot} $$ जी में शून्य है. इससे पता चलता है कि $$ f = f_H $$ जी में और प्रमाण समाप्त होता है।

इंटीग्रल ऑपरेटर्स और मर्सर का प्रमेय
हम एक सममित धनात्मक निश्चित कर्नेल की विशेषता बता सकते हैं $$K$$ मर्सर के प्रमेय का उपयोग करके इंटीग्रल ऑपरेटर के माध्यम से और आरकेएचएस का एक अतिरिक्त दृश्य प्राप्त करें। होने देना $$X$$ सख्ती से धनात्मक परिमित बोरेल माप से सुसज्जित एक कॉम्पैक्ट स्थान बनें $$\mu$$ और $$K: X \times X \to \R$$ एक सतत, सममित और धनात्मक निश्चित कार्य। इंटीग्रल ऑपरेटर को परिभाषित करें $$T_K: L_2(X) \to L_2(X)$$ जैसा


 * $$ [T_K f](\cdot) =\int_X K(\cdot,t) f(t)\, d\mu(t) $$

कहाँ $$L_2(X)$$ के संबंध में वर्गाकार समाकलनीय फलनों का स्थान है $$ \mu $$.

मर्सर के प्रमेय में कहा गया है कि अभिन्न ऑपरेटर का वर्णक्रमीय अपघटन $$T_K$$ का $$K$$ का एक श्रृंखला प्रतिनिधित्व प्राप्त होता है $$K$$ के अभिलाक्षणिक मान ​​​​और अभिलक्षणिक फलन के संदर्भ में $$ T_K $$. इसका तात्पर्य यह है कि $$K$$ एक पुनरुत्पादन कर्नेल है जिससे कि संबंधित आरकेएचएस को इन अभिलाक्षणिक मान ​​​​और अभिलक्षणिक फलन के संदर्भ में परिभाषित किया जा सके। हम नीचे विवरण प्रदान करते हैं।

इन धारणाओं के अनुसार $$T_K$$ एक सघन, सतत, स्व-सहायक और धनात्मक संचालिका है। स्व-सहायक ऑपरेटरों के लिए वर्णक्रमीय प्रमेय का तात्पर्य है कि अधिकतम गणनीय घटता क्रम है $$(\sigma_i)_i \geq 0 $$ ऐसा है कि $\lim_{i \to \infty}\sigma_i = 0$  और

$$T_K\varphi_i(x) = \sigma_i\varphi_i(x)$$, जहां $$\{\varphi_i\}$$ का असामान्य आधार बनाएं $$L_2(X)$$. की धनात्मकता से $$T_K, \sigma_i > 0$$ सभी के लिए $$i.$$ वो भी कोई दिखा सकता है $$T_K $$ सतत फलनों के स्थान में निरंतर मानचित्रण करता है $$C(X)$$ और इसलिए हम आइजन्वेक्टर के रूप में निरंतर फलनों को चुन सकते हैं, अर्थात, $$\varphi_i \in C(X)$$ सभी के लिए $$i.$$ फिर मर्सर के प्रमेय द्वारा $$ K $$ अभिलाक्षणिक मान ​​​​और निरंतर अभिलक्षणिक फलन  के संदर्भ में लिखा जा सकता है


 * $$ K(x,y) = \sum_{j=1}^\infty \sigma_j \, \varphi_j(x) \, \varphi_j(y) $$

सभी के लिए $$x, y \in X$$ ऐसा है कि


 * $$ \lim_{n \to \infty}\sup_{u,v} \left |K(u,v) - \sum_{j=1}^n \sigma_j \, \varphi_j(u) \, \varphi_j(v) \right | = 0. $$

इस उपरोक्त श्रृंखला प्रतिनिधित्व को मर्सर कर्नेल या मर्सर प्रतिनिधित्व के रूप में जाना जाता है $$ K $$.

इसके अतिरिक्त, यह दिखाया जा सकता है कि आरकेएचएस $$ H $$ का $$ K $$ द्वारा दिया गया है


 * $$ H = \left \{ f \in L_2(X) \,\Bigg\vert\, \sum_{i=1}^\infty \frac{\left\langle f,\varphi_i \right \rangle^2_{L_2}}{\sigma_i} < \infty \right\} $$

जहां का आंतरिक उत्पाद $$ H $$ द्वारा दिए गए


 * $$ \left\langle f,g \right\rangle_H = \sum_{i=1}^\infty \frac{\left\langle f,\varphi_i \right\rangle_{L_2}\left\langle g,\varphi_i \right\rangle_{L_2}}{\sigma_i}. $$

आरकेएचएस के इस प्रतिनिधित्व का संभाव्यता और सांख्यिकी में अनुप्रयोग है, उदाहरण के लिए स्टोकेस्टिक प्रक्रियाओं और कर्नेल पीसीए के लिए करहुनेन-लोवे प्रमेय | करहुनेन-लोवे प्रतिनिधित्व।

फ़ीचर मानचित्र
फ़ीचर मानचित्र एक मानचित्र है $$ \varphi\colon X \rightarrow F $$, कहाँ $$ F $$ एक हिल्बर्ट समष्टि है जिसे हम फीचर समष्टि कहेंगे। पहले खंड में बंधे/निरंतर मूल्यांकन फलनों, धनात्मक निश्चित फलनों और अभिन्न ऑपरेटरों के बीच संबंध प्रस्तुत किया गया है और इस खंड में हम फीचर मानचित्रों के संदर्भ में आरकेएचएस का एक और प्रतिनिधित्व प्रदान करते हैं।

प्रत्येक फीचर मैप एक कर्नेल को परिभाषित करता है

स्पष्ट रूप से $$ K $$ सममित है और धनात्मक निश्चितता आंतरिक उत्पाद के गुणों से आती है $$ F $$. इसके विपरीत, प्रत्येक धनात्मक निश्चित फलन और संबंधित पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि में असीमित रूप से कई संबद्ध फ़ीचर मानचित्र होते हैं जैसे कि ($$) धारण करता है.

उदाहरण के लिए, हम तुच्छ रूप से ले सकते हैं $$ F = H $$ और $$ \varphi(x) = K_x $$ सभी के लिए $$ x \in X $$. तब ($$) पुनरुत्पादक संपत्ति से संतुष्ट है। फ़ीचर मैप का एक और मौलिक उदाहरण इंटीग्रल ऑपरेटरों के संबंध में पिछले अनुभाग से संबंधित है $$ F = \ell^2 $$ और $$ \varphi(x) = (\sqrt{\sigma_i} \varphi_i(x))_i $$.

कर्नेल और फीचर मैप के बीच यह संबंध हमें धनात्मक निश्चित फलनों को समझने का एक नया विधि प्रदान करता है और इसलिए कर्नेल को आंतरिक उत्पादों के रूप में पुन: प्रस्तुत करता है। $$ H $$. इसके अतिरिक्त, प्रत्येक फीचर मैप एक धनात्मक निश्चित फलन की परिभाषा के माध्यम से स्वाभाविक रूप से आरकेएचएस को परिभाषित कर सकता है।

अंत में, फीचर मैप हमें फलन समष्टि बनाने की अनुमति देते हैं जो आरकेएचएस पर एक और परिप्रेक्ष्य प्रकट करते हैं। रैखिक स्थान पर विचार करें


 * $$ H_\varphi = \{ f: X \to \mathbb{R} \mid \exists w \in F, f(x) = \langle w, \varphi(x) \rangle_{F}, \forall \text{ } x \in X \} . $$

हम एक मानदंड को परिभाषित कर सकते हैं $$ H_\varphi $$ द्वारा


 * $$ \|f\|_\varphi = \inf \{\|w\|_F : w \in F, f(x) = \langle w, \varphi(x)\rangle_F, \forall \text{ } x \in X \} .$$

ऐसा दिखाया जा सकता है $$ H_{\varphi} $$ कर्नेल द्वारा परिभाषित आरकेएचएस है $$ K(x,y) = \langle\varphi(x), \varphi(y)\rangle_F $$. इस प्रतिनिधित्व का तात्पर्य है कि आरकेएचएस के तत्व फीचर समष्टि में तत्वों के आंतरिक उत्पाद हैं और तदनुसार हाइपरप्लेन के रूप में देखे जा सकते हैं। आरकेएचएस का यह दृश्य मशीन लर्निंग में कर्नेल चाल से संबंधित है।

गुण
आरकेएचएस के निम्नलिखित गुण पाठकों के लिए उपयोगी हो सकते हैं।


 * होने देना $$(X_i)_{i=1}^p$$ समुच्चयों का एक क्रम बनें और $$(K_i)_{i=1}^p$$ संबंधित धनात्मक निश्चित फलनों का एक संग्रह बनें $$ (X_i)_{i=1}^p.$$ इसके बाद यह अनुसरण करता है
 * $$K((x_1,\ldots ,x_p),(y_1,\ldots,y_p)) = K_1(x_1,y_1)\cdots K_p(x_p,y_p)$$
 * एक कर्नेल चालू है $$ X = X_1 \times \dots \times X_p.$$
 * होने देना $$X_0 \subset X,$$ फिर का प्रतिबंध $$ K $$ को $$X_0 \times X_0 $$ एक पुनरुत्पादक कर्नेल भी है।
 * सामान्यीकृत कर्नेल पर विचार करें $$K$$ ऐसा है कि $$ K(x, x) = 1 $$ सभी के लिए $$x \in X $$. X पर छद्म-मीट्रिक को इस प्रकार परिभाषित करें
 * $$ d_K(x,y) = \|K_x - K_y\|_H^2 = 2(1-K(x,y)) \qquad \forall x \in X . $$
 * कॉची-श्वार्ज़ असमानता द्वारा,
 * $$ K(x,y)^2 \le K(x, x)K(y, y)=1 \qquad \forall x,y \in X.$$
 * यह असमानता हमें देखने की अनुमति देती है $$K$$ इनपुट के बीच समानता माप के रूप में। यदि $$x, y \in X$$ फिर समान हैं $$K(x,y)$$ 1 के निकट होगा जबकि यदि $$x,y \in X$$ फिर भिन्न हैं $$K(x,y)$$ 0 के निकट होगा.


 * के स्पैन का बंद होना $$ \{ K_x \mid x \in X \} $$ के साथ मेल खाता है $$ H $$.

बिलिनियर कर्नेल

 * $$ K(x,y) = \langle x,y\rangle $$

आरकेएचएस $$H$$ इस कर्नेल के अनुरूप दोहरा स्थान है, जिसमें फलन सम्मिलित हैं $$f(x) = \langle x,\beta\rangle$$ संतुष्टि देने वाला $$\|f\|_H^2=\|\beta\|^2$$.

बहुपद कर्नेल

 * $$ K(x,y) = (\alpha\langle x,y \rangle + 1)^d, \qquad \alpha \in \R, d \in \N $$

रेडियल आधार फलन कर्नेल
ये गुठली का एक और सामान्य वर्ग है जो संतुष्ट करता है $$ K(x,y) = K(\|x - y\|)$$. कुछ उदाहरणों में सम्मिलित हैं:


 * गाऊशियन या वर्गाकार घातीय कर्नेल:
 * $$ K(x,y) = e^{-\frac{\|x - y\|^2}{2\sigma^2}}, \qquad \sigma > 0 $$
 * लाप्लासियन कर्नेल:
 * $$ K(x,y) = e^{-\frac{\|x - y\|}{\sigma}}, \qquad \sigma > 0 $$
 * किसी फलन का वर्ग मानदंड $$f$$ आरकेएचएस में $$H$$ इस कर्नेल के साथ है:
 * $$\|f\|_H^2=\int_{\mathbb R}\Big( \frac1{\sigma} f(x)^2 + \sigma f'(x)^2\Big) \mathrm d x.$$

बर्गमैन कर्नेल
हम बर्गमैन कर्नेल के उदाहरण भी प्रदान करते हैं। मान लीजिए कि यदि सामान्य आंतरिक उत्पाद का उपयोग किया जाता है, तो केxवह फलन है जिसका मान x पर 1 और अन्य सभी जगह 0 है, और $$K(x,y)$$ तब से इसे एक पहचान मैट्रिक्स के रूप में सोचा जा सकता है


 * $$K(x,y)=\begin{cases} 1 & x=y \\ 0 & x \neq y \end{cases}$$

इस स्थितियों में, H समरूपी है $$\Complex^n$$.

के स्थितियों में $$X= \mathbb{D}$$ (कहाँ $$\mathbb{D}$$ यूनिट डिस्क को दर्शाता है) अधिक परिष्कृत है। यहां बर्गमैन समष्टि एच स्क्वायर|$$H^2(\mathbb{D})$$वर्ग-अभिन्न फलन का स्थान है|वर्ग-अभिन्न होलोमोर्फिक फलन पर $$\mathbb{D}$$. यह दिखाया जा सकता है कि पुनरुत्पादन कर्नेल के लिए $$H^2(\mathbb{D})$$ है


 * $$K(x,y)=\frac{1}{\pi}\frac{1}{(1-x\overline{y})^2}.$$

अंत में, बैंड का स्थान सीमित कार्य करता है $$ L^2(\R) $$ बैंडविड्थ के साथ $$2a$$ पुनरुत्पादन कर्नेल वाला आरकेएचएस है


 * $$K(x,y)=\frac{\sin a (x - y)}{\pi (x-y)}.$$

वेक्टर-मूल्यवान फलन का विस्तार
इस खंड में हम आरकेएचएस की परिभाषा को वेक्टर-मूल्यवान फलनों के स्थानों तक विस्तारित करते हैं क्योंकि यह विस्तार बहु-कार्य सीखने और कई गुना नियमितीकरण में विशेष रूप से महत्वपूर्ण है। इस प्रकार मुख्य अंतर यह है कि पुनरुत्पादन कर्नेल $$ \Gamma $$ एक सममित फलन है जो अब प्रत्येक के लिए एक धनात्मक अर्ध-निश्चित मैट्रिक्स है $$ x,y $$ में $$ X $$. अधिक औपचारिक रूप से, हम एक वेक्टर-मूल्यवान आरकेएचएस (वीवीआरकेएचएस) को फलनों के हिल्बर्ट स्थान के रूप में परिभाषित करते हैं $$ f: X \to \mathbb{R}^T $$ ऐसा कि सभी के लिए $$ c \in \mathbb{R}^T $$ और $$ x \in X $$
 * $$ \Gamma_xc(y) = \Gamma(x, y)c \in H \text{ for } y \in X $$

और


 * $$ \langle f, \Gamma_x c \rangle_H = f(x)^\intercal c. $$

यह दूसरी संपत्ति अदिश-मूल्य वाले स्थितियों के लिए पुनरुत्पादन संपत्ति के समानांतर है। इस परिभाषा को इंटीग्रल ऑपरेटर्स, बाउंडेड इवैल्यूएशन फलन और फ़ीचर मैप्स से भी जोड़ा जा सकता है, जैसा कि हमने स्केलर-वैल्यू आरकेएचएस के लिए देखा था। इस प्रकार हम वीवीआरकेएचएस को एक सीमित मूल्यांकन कार्यात्मकता के साथ एक वेक्टर-मूल्यवान हिल्बर्ट समष्टि के रूप में परिभाषित कर सकते हैं और दिखा सकते हैं कि यह रिज़्ज़ प्रतिनिधित्व प्रमेय द्वारा एक अद्वितीय पुनरुत्पादन कर्नेल के अस्तित्व का तात्पर्य है। वेक्टर-मूल्य समुच्चयिंग को संबोधित करने के लिए मर्सर के प्रमेय को भी बढ़ाया जा सकता है और इसलिए हम वीवीआरकेएचएस का एक फीचर मैप दृश्य प्राप्त कर सकते हैं। अंत में, यह भी दिखाया जा सकता है कि स्पैन का बंद होना $$ \{ \Gamma_xc : x \in X, c \in \mathbb{R}^T \} $$ के साथ मेल खाता है $$ H $$, अदिश-मूल्यवान स्थितियों के समान एक और संपत्ति।

हम इन स्थानों पर घटक-वार परिप्रेक्ष्य लेकर वीवीआरकेएचएस के लिए अंतर्ज्ञान प्राप्त कर सकते हैं। विशेष रूप से, हम पाते हैं कि प्रत्येक वीवीआरकेएचएस एक विशेष इनपुट स्थान पर स्केलर-मूल्य वाले आरकेएचएस के लिए सममितीय रूप से समरूपी  है। इस प्रकार होने देना $$\Lambda = \{1, \dots, T \} $$. स्थान पर विचार करें $$ X \times \Lambda $$ और संबंधित पुनरुत्पादन कर्नेल

जैसा कि ऊपर उल्लेख किया गया है, इस पुनरुत्पादन कर्नेल से जुड़ा आरकेएचएस स्पैन के बंद होने से दिया गया है $$\{ \gamma_{(x,t)} : x \in X, t \in \Lambda \} $$ कहाँ $$ \gamma_{(x,t)} (y,s) = \gamma( (x,t), (y,s)) $$ जोड़ियों के प्रत्येक समुच्चय के लिए $ (x,t), (y,s) \in X \times \Lambda $.

स्केलर-मूल्यवान आरकेएचएस से संबंध इस तथ्य से बनाया जा सकता है कि प्रत्येक मैट्रिक्स-मूल्यवान कर्नेल को फॉर्म के कर्नेल के साथ पहचाना जा सकता है ($$) के जरिए


 * $$ \Gamma(x,y)_{(t,s)} = \gamma((x,t), (y,s)). $$

इसके अतिरिक्त, प्रत्येक कर्नेल ($$) उपरोक्त अभिव्यक्ति के साथ एक मैट्रिक्स-मूल्यवान कर्नेल को परिभाषित करता है। अब नक्शा दे रहा हूँ $$ D: H_\Gamma \to H_\gamma $$ के रूप में परिभाषित किया जाए


 * $$ (Df)(x,t) = \langle f(x), e_t \rangle_{\mathbb{R}^T} $$

कहाँ $$ e_t $$ है $$ t^\text{th} $$ के लिए विहित आधार का घटक $$ \mathbb{R}^T $$, कोई इसे दिखा सकता है $$ D $$ विशेषण है और बीच में एक आइसोमेट्री है $$ H_\Gamma $$ और $$ H_\gamma $$.

जबकि वीवीआरकेएचएस का यह दृश्य बहु-कार्य सीखने में उपयोगी हो सकता है, यह आइसोमेट्री वेक्टर-मूल्य वाले स्थितियों के अध्ययन को स्केलर-मूल्यवान स्थितियों के अध्ययन तक कम नहीं करता है। इस प्रकार वास्तव में, यह आइसोमेट्री प्रक्रिया स्केलर-वैल्यू कर्नेल और इनपुट समष्टि दोनों को व्यवहार में काम करने के लिए बहुत कठिन बना सकती है क्योंकि मूल कर्नेल के गुण अधिकांशतः खो जाते हैं।

मैट्रिक्स-मूल्यवान पुनरुत्पादन कर्नेल का एक महत्वपूर्ण वर्ग अलग-अलग कर्नेल हैं जिन्हें स्केलर मूल्यवान कर्नेल के उत्पाद के रूप में फैक्टराइज़ किया जा सकता है और ए $$T$$-आयामी सममित धनात्मक अर्ध-निश्चित मैट्रिक्स। हमारी पिछली चर्चा के आलोक में ये गुठलियाँ इस प्रकार हैं


 * $$ \gamma((x,t),(y,s)) = K(x,y) K_T(t,s) $$

सभी के लिए $$x,y $$ में $$ X $$ और $$t,s$$ में $$ T $$. चूँकि स्केलर-मूल्यवान कर्नेल इनपुट के बीच निर्भरता को एनकोड करता है, हम देख सकते हैं कि मैट्रिक्स-मूल्यवान कर्नेल इनपुट और आउटपुट दोनों के बीच निर्भरता को एनकोड करता है।

हम अंत में टिप्पणी करते हैं कि उपरोक्त सिद्धांत को फलन स्थानों में मानों के साथ फलनों के स्थानों तक बढ़ाया जा सकता है किन्तु इन स्थानों के लिए कर्नेल प्राप्त करना अधिक कठिन कार्य है।

ReLU फलन के साथ RKHS के बीच कनेक्शन
रेक्टिफायर (तंत्रिका नेटवर्क) को सामान्यतः इस प्रकार परिभाषित किया जाता है $$f(x)=\max \{0, x\}$$ और यह तंत्रिका नेटवर्क की वास्तुकला में एक मुख्य आधार है जहां इसका उपयोग सक्रियण फलन के रूप में किया जाता है। कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के सिद्धांत का उपयोग करके कोई ReLU-जैसे नॉनलाइनियर फलन का निर्माण कर सकता है। नीचे, हम इस निर्माण को प्राप्त करते हैं और दिखाते हैं कि यह ReLU सक्रियणों के साथ तंत्रिका नेटवर्क की प्रतिनिधित्व शक्ति को कैसे दर्शाता है।

हम हिल्बर्ट क्षेत्र के साथ काम करेंगे $$ \mathcal{H}=L^1_2(0)[0, \infty) $$ के साथ बिल्कुल निरंतर कार्य करता है $$f(0) = 0$$ और वर्ग पूर्णांक (अर्थात्) $$L_2$$) व्युत्पन्न। इसमें आंतरिक उत्पाद है


 * $$ \langle f,g \rangle_{\mathcal{H}} = \int_0^\infty f'(x)g'(x) \, dx .$$

पुनरुत्पादक कर्नेल का निर्माण करने के लिए घने उपस्थान पर विचार करना पर्याप्त है, तो चलिए $$f\in C^1[0, \infty)$$ और $$f(0)=0$$. कैलकुलस का मौलिक प्रमेय तब देता है


 * $$f(y)= \int_0^y f'(x) \, dx = \int_0^\infty G(x,y) f'(x) \, dx = \langle K_y,f \rangle$$

कहाँ


 * $$G(x,y)=

\begin{cases} 1, & x < y\\ 0, & \text{otherwise} \end{cases}$$ और $$K_y'(x)= G(x,y),\ K_y(0) = 0$$ अर्थात।


 * $$K(x, y)=K_y(x)=\int_0^x G(z, y) \, dz=

\begin{cases} x, & 0\leq x<y \\ y, & \text{otherwise.} \end{cases}=\min(x, y)$$ यह संकेत करता है $$K_y=K(\cdot, y)$$ पुनरुत्पादन करता है $$f$$.

इसके अतिरिक्त न्यूनतम फलन चालू है $$ X\times X = [0,\infty)\times [0,\infty) $$ ReLu फलन के साथ निम्नलिखित प्रस्तुतियाँ हैं:


 * $$ \min(x,y) = x -\operatorname{ReLU}(x-y) =  y - \operatorname{ReLU}(y-x). $$

इस फॉर्मूलेशन का उपयोग करके, हम प्रतिनिधि प्रमेय को आरकेएचएस पर लागू कर सकते हैं, जिससे तंत्रिका नेटवर्क समुच्चयिंग्स में ReLU सक्रियणों का उपयोग करने की इष्टतमता सिद्ध करना हो सकती है।

यह भी देखें

 * धनात्मक निश्चित कर्नेल
 * मर्सर का प्रमेय
 * कर्नेल ट्रिक
 * वितरण की कर्नेल एम्बेडिंग
 * प्रतिनिधि प्रमेय

संदर्भ

 * Alvarez, Mauricio, Rosasco, Lorenzo and Lawrence, Neil, “Kernels for Vector-Valued Functions: a Review,” https://arxiv.org/abs/1106.6251, June 2011.
 * Berlinet, Alain and Thomas, Christine. Reproducing kernel Hilbert spaces in Probability and Statistics, Kluwer Academic Publishers, 2004.
 * De Vito, Ernest, Umanita, Veronica, and Villa, Silvia. "An extension of Mercer theorem to vector-valued measurable kernels,", June 2013.
 * Durrett, Greg. 9.520 Course Notes, Massachusetts Institute of Technology, https://www.mit.edu/~9.520/scribe-notes/class03_gdurett.pdf, February 2010.
 * Okutmustur, Baver.  “Reproducing Kernel Hilbert Spaces,” M.S. dissertation, Bilkent University, http://www.thesis.bilkent.edu.tr/0002953.pdf, August 2005.
 * Paulsen, Vern. “An introduction to the theory of reproducing kernel Hilbert spaces,” http://www.math.uh.edu/~vern/rkhs.pdf.
 * Rosasco, Lorenzo and Poggio, Thomas. "A Regularization Tour of Machine Learning – MIT 9.520 Lecture Notes" Manuscript, Dec. 2014.
 * Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.
 * Paulsen, Vern. “An introduction to the theory of reproducing kernel Hilbert spaces,” http://www.math.uh.edu/~vern/rkhs.pdf.
 * Rosasco, Lorenzo and Poggio, Thomas. "A Regularization Tour of Machine Learning – MIT 9.520 Lecture Notes" Manuscript, Dec. 2014.
 * Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.
 * Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.