प्रमुख घटक प्रतिगमन

आंकड़ों में, प्रमुख घटक प्रतिगमन (पीसीआर) एक प्रतिगमन विश्लेषण तकनीक है जो प्रमुख घटक विश्लेषण (पीसीए) पर आधारित है। अधिक विशेष रूप से, पीसीआर का उपयोग रैखिक प्रतिगमन में अज्ञात रैखिक प्रतिगमन का अनुमान लगाने के लिए किया जाता है।

पीसीआर में, व्याख्यात्मक चर पर निर्भर चर को सीधे वापस लाने के बजाय, व्याख्यात्मक चर के प्रमुख घटक विश्लेषण का उपयोग आश्रित और स्वतंत्र चर के रूप में किया जाता है। आमतौर पर प्रतिगमन के लिए सभी प्रमुख घटकों के केवल एक उपसमूह का उपयोग किया जाता है, जिससे पीसीआर एक प्रकार की नियमितीकरण (गणित) प्रक्रिया और एक प्रकार का संकोचन अनुमानक भी बन जाता है।

अक्सर उच्च प्रसरण वाले प्रमुख घटक (नमूना माध्य और नमूना सहप्रसरण सहप्रसरण मैट्रिक्स | व्याख्यात्मक चर के प्रसरण-सहप्रसरण मैट्रिक्स के उच्च eigenvalues ​​​​और eigenvectors के अनुरूप eigenvalues ​​​​और eigenvectors पर आधारित) को प्रतिगामी के रूप में चुना जाता है। हालाँकि, परिणाम की भविष्यवाणी के उद्देश्य से, कम भिन्नता वाले प्रमुख घटक भी महत्वपूर्ण हो सकते हैं, कुछ मामलों में और भी महत्वपूर्ण। पीसीआर का एक प्रमुख उपयोग बहुसंरेखता समस्या पर काबू पाने में निहित है जो तब उत्पन्न होती है जब दो या अधिक व्याख्यात्मक चर संरेख होने के करीब होते हैं। पीसीआर प्रतिगमन चरण में कुछ कम-विचरण वाले प्रमुख घटकों को छोड़कर ऐसी स्थितियों से उपयुक्त रूप से निपट सकता है। इसके अलावा, आमतौर पर सभी प्रमुख घटकों के केवल एक सबसेट पर पीछे हटने से, पीसीआर अंतर्निहित मॉडल की विशेषता वाले मापदंडों की प्रभावी संख्या को काफी कम करके आयामीता में कमी ला सकता है। यह उच्च-आयामी सांख्यिकी|उच्च-आयामी सहसंयोजकों वाली सेटिंग्स में विशेष रूप से उपयोगी हो सकता है। इसके अलावा, प्रतिगमन के लिए उपयोग किए जाने वाले प्रमुख घटकों के उचित चयन के माध्यम से, पीसीआर कल्पित मॉडल के आधार पर परिणाम की कुशल भविष्यवाणी कर सकता है।

सिद्धांत
पीसीआर विधि को मोटे तौर पर तीन प्रमुख चरणों में विभाजित किया जा सकता है:


 * 1. $$ \;\; $$ प्रमुख घटकों को प्राप्त करने के लिए व्याख्यात्मक चर के लिए देखे गए डेटा मैट्रिक्स (बहुभिन्नरूपी आँकड़े) पर प्रमुख घटक विश्लेषण करें, और फिर (आमतौर पर) आगे के उपयोग के लिए प्राप्त प्रमुख घटकों के कुछ उचित मानदंडों के आधार पर एक उपसमूह का चयन करें।


 * 2. $$ \;\; $$ अब चयनित प्रमुख घटकों पर परिणामों के देखे गए वेक्टर को सहसंयोजक के रूप में पुनः प्राप्त करें, अनुमानित प्रतिगमन गुणांक (चयनित प्रमुख घटकों की संख्या के बराबर आयाम (वेक्टर स्थान) के साथ) का एक वेक्टर प्राप्त करने के लिए साधारण न्यूनतम वर्ग प्रतिगमन (रैखिक प्रतिगमन) का उपयोग करें।


 * 3. $$ \;\; $$ अब परिवर्तन मैट्रिक्स इस वेक्टर को वास्तविक सहसंयोजकों के पैमाने पर वापस लाता है, अंतिम पीसीआर अनुमानक (सहसंयोजकों की कुल संख्या के बराबर आयाम के साथ) प्राप्त करने के लिए चयनित प्रमुख घटक विश्लेषण (चयनित प्रमुख घटकों के अनुरूप ईजेनवेक्टर) का उपयोग करके अनुमान लगाता है। मूल मॉडल की विशेषता बताने वाले प्रतिगमन गुणांक।

विधि का विवरण
डेटा प्रतिनिधित्व: चलो $$ \mathbf{Y}_{n \times 1} = \left(y_1,\ldots,y_n\right)^T $$ प्रेक्षित परिणामों के वेक्टर को निरूपित करें और $$ \mathbf{X}_{n \times p} = \left(\mathbf{x}_1,\ldots,\mathbf{x}_n\right)^T $$ प्रेक्षित सहसंयोजकों के संबंधित डेटा मैट्रिक्स (बहुभिन्नरूपी आँकड़े) को निरूपित करें, जहाँ, $$ n $$ और $$ p $$ क्रमशः देखे गए नमूने (सांख्यिकी) के आकार और सहसंयोजकों की संख्या को निरूपित करें $$ n \geq p $$. हरेक $$ n $$ की पंक्तियों $$ \mathbf{X} $$ के लिए प्रेक्षणों के एक सेट को दर्शाता है $$ p $$ आयाम (वेक्टर स्थान) सहसंयोजक और संबंधित प्रविष्टि $$ \mathbf{Y} $$ संगत प्रेक्षित परिणाम को दर्शाता है।

डेटा प्री-प्रोसेसिंग: मान लें $$ \mathbf{Y} $$ और प्रत्येक $$ p $$ के कॉलम $$ \mathbf{X} $$ पहले से ही मैट्रिक्स को केन्द्रित किया जा चुका है ताकि उन सभी में शून्य नमूना माध्य और नमूना सहप्रसरण हो। यह केन्द्रीकरण चरण महत्वपूर्ण है (कम से कम स्तंभों के लिए)। $$ \mathbf{X} $$) चूंकि पीसीआर में पीसीए का उपयोग शामिल है $$ \mathbf{X} $$ और डेटा के मैट्रिक्स को केंद्रित करने के लिए प्रमुख घटक विश्लेषण।

अंतर्निहित मॉडल: केंद्रीकरण के बाद, मानक गॉस-मार्कोव प्रमेय | गॉस-मार्कोव रैखिक प्रतिगमन मॉडल $$ \mathbf{Y} $$ पर $$ \mathbf{X} $$ इस प्रकार दर्शाया जा सकता है: $$ \mathbf{Y} = \mathbf{X}\boldsymbol{\beta} + \boldsymbol{\varepsilon}, \;$$ कहाँ $$ \boldsymbol{\beta} \in \mathbb{R}^p $$ प्रतिगमन गुणांक के अज्ञात पैरामीटर वेक्टर को दर्शाता है और $$ \boldsymbol{\varepsilon} $$ यादृच्छिक त्रुटियों के वेक्टर को दर्शाता है $$ \operatorname{E}\left(\boldsymbol{\varepsilon}\right) = \mathbf{0} \; $$ और $$ \; \operatorname{Var}\left(\boldsymbol{\varepsilon}\right) = \sigma^2I_{n \times n} $$ कुछ अज्ञात विचरण पैरामीटर के लिए $$ \sigma^2 > 0 \;\; $$ उद्देश्य: प्राथमिक लक्ष्य एक कुशल अनुमानक प्राप्त करना है $$ \widehat{\boldsymbol\beta} $$ पैरामीटर के लिए $$ \boldsymbol\beta $$, डेटा के आधार पर। इसके लिए अक्सर इस्तेमाल किया जाने वाला एक दृष्टिकोण सामान्य न्यूनतम वर्ग प्रतिगमन है, जिसे मानते हुए $$ \mathbf{X} $$ रैंक (रैखिक बीजगणित) है, जो एक अनुमानक का पूर्वाग्रह देता है: $$ \widehat{\boldsymbol\beta}_\mathrm{ols} = (\mathbf{X}^{T}\mathbf{X})^{-1} \mathbf{X}^{T}\mathbf{Y} $$ का $$ \boldsymbol{\beta} $$. पीसीआर एक अन्य तकनीक है जिसका उपयोग अनुमान लगाने के समान उद्देश्य के लिए किया जा सकता है $$ \boldsymbol{\beta} $$.

पीसीए चरण: पीसीआर केंद्रित डेटा मैट्रिक्स पर पीसीए निष्पादित करके शुरू होता है $$ \mathbf{X} $$. इसके लिए आइए $$ \mathbf{X} = U \Delta V^{T} $$ के एकवचन मूल्य अपघटन को निरूपित करें $$ \mathbf{X} $$ कहाँ, $$ \Delta_{p \times p} = \operatorname{diag}\left[\delta_1,\ldots,\delta_p\right] $$ साथ $$ \delta_1 \geq \cdots \geq \delta_p \geq 0 $$ के गैर-नकारात्मक एकवचन मूल्य अपघटन को दर्शाता है $$ \mathbf{X} $$, जबकि का स्तंभ सदिश $$ U_{n \times p} = [\mathbf{u}_1,\ldots,\mathbf{u}_p] $$ और $$ V_{p \times p} = [\mathbf{v}_1,\ldots,\mathbf{v}_p] $$ दोनों सदिशों की लम्बवत्ता हैं जो एकवचन मान के अपघटन को दर्शाते हैं $$ \mathbf{X} $$ क्रमश।

प्रमुख घटक: $$ V \Lambda V^T $$ के मैट्रिक्स का एक Eigendecomposition देता है $$ \mathbf{X}^T \mathbf{X} $$ कहाँ $$ \Lambda_{p \times p} = \operatorname{diag}\left[\lambda_1,\ldots,\lambda_p\right] = \operatorname{diag}\left[\delta_1^2,\ldots,\delta_p^2\right] = \Delta^2 $$ साथ $$ \lambda_1 \geq \cdots \geq \lambda_p \geq 0 $$ के गैर-नकारात्मक eigenvalues ​​​​(जिन्हें प्रमुख घटक विश्लेषण के रूप में भी जाना जाता है) को दर्शाता है $$ \mathbf{X}^T \mathbf{X} $$, जबकि के कॉलम $$ V $$ eigenvectors के संगत ऑर्थोनॉर्मल सेट को निरूपित करें। तब, $$ \mathbf{X}\mathbf{v}_j $$ और $$ \mathbf{v}_j $$ क्रमशः निरूपित करें $$ j^{th} $$ प्रमुख घटक विश्लेषण और $$ j^{th} $$ प्रमुख घटक विश्लेषण (या प्रमुख घटक विश्लेषण) के अनुरूप $$ j^\text{th} $$ सबसे बड़ा प्रमुख घटक विश्लेषण $$ \lambda_j $$ प्रत्येक के लिए $$ j \in \{1,\ldots,p\}$$.

व्युत्पन्न सहसंयोजक: किसी के लिए $$ k \in \{1,\ldots,p\}$$, होने देना $$ V_{k} $$ निरूपित करें $$ p \times k $$ ऑर्थोनॉर्मल कॉलम के साथ मैट्रिक्स जिसमें पहले शामिल हैं $$ k $$ के कॉलम $$ V $$. होने देना $$ W_k = \mathbf{X}V_{k} $$ $$ = [\mathbf{X}\mathbf{v}_1,\ldots,\mathbf{X}\mathbf{v}_k] $$ निरूपित करें $$ n \times k $$ मैट्रिक्स पहले वाला है $$ k $$ इसके स्तंभों के रूप में प्रमुख घटक। $$ W $$ परिवर्तन मैट्रिक्स सहसंयोजकों का उपयोग करके प्राप्त डेटा मैट्रिक्स के रूप में देखा जा सकता है $$ \mathbf{x}_i^k = V_k^T \mathbf{x}_i \in \mathbb{R}^{k} $$ मूल सहसंयोजकों का उपयोग करने के बजाय $$ \mathbf{x}_i \in \mathbb{R}^p \;\; \forall \;\; 1 \leq i \leq n $$.

पीसीआर अनुमानक: चलो $$ \widehat{\gamma}_k = (W_k^T W_k)^{-1} W_k^T \mathbf{Y} \in \mathbb{R}^k $$ प्रतिक्रिया वेक्टर के साधारण न्यूनतम वर्ग प्रतिगमन द्वारा प्राप्त अनुमानित प्रतिगमन गुणांक के वेक्टर को निरूपित करें $$ \mathbf{Y} $$ डेटा मैट्रिक्स पर $$ W_{k} $$. फिर, किसी के लिए $$ k \in \{1,\ldots,p\}$$, का अंतिम पीसीआर अनुमानक $$ \boldsymbol{\beta} $$ पहले के उपयोग पर आधारित $$ k $$ प्रमुख घटक इस प्रकार दिए गए हैं: $$ \widehat{\boldsymbol{\beta}}_k = V_k \widehat{\gamma}_k \in \mathbb{R}^p $$.

दो बुनियादी गुण
पीसीआर अनुमानक प्राप्त करने के लिए फिटिंग प्रक्रिया में व्युत्पन्न डेटा मैट्रिक्स पर प्रतिक्रिया वेक्टर को पुनः प्राप्त करना शामिल है $$ W_{k} $$ जिसमें किसी के लिए ऑर्थोनॉर्मलिटी कॉलम हैं $$ k \in \{1,\ldots,p\}$$ चूँकि प्रमुख घटक एक-दूसरे से लम्बवत हैं। इस प्रकार प्रतिगमन चरण में, संयुक्त रूप से एक रेखीय प्रतिगमन निष्पादित करना $$ k $$ सहसंयोजक के रूप में चयनित प्रमुख घटकों को क्रियान्वित करने के बराबर है $$ k $$ प्रत्येक पर अलग-अलग स्वतंत्र रैखिक प्रतिगमन (या अविभाज्य प्रतिगमन)। $$ k $$ सहसंयोजक के रूप में चयनित प्रमुख घटक।

जब सभी प्रमुख घटकों को प्रतिगमन के लिए चुना जाता है $$ k = p $$, तो पीसीआर अनुमानक सामान्य न्यूनतम वर्ग अनुमानक के बराबर है। इस प्रकार, $$ \widehat{\boldsymbol{\beta}}_{p} = \widehat{\boldsymbol{\beta}}_\mathrm{ols} $$. इसका अंदाजा इस बात से आसानी से लगाया जा सकता है $$ W_{p} = \mathbf{X}V_{p} = \mathbf{X}V $$ और उसका अवलोकन भी कर रहे हैं $$ V $$ एक ऑर्थोगोनल मैट्रिक्स है.

विचरण में कमी
किसी के लिए $$ k \in \{1,\ldots,p\} $$, का विचरण $$ \widehat{\boldsymbol{\beta}}_{k}$$ द्वारा दिया गया है


 * $$ \operatorname{Var}(\widehat{\boldsymbol{\beta}}_k) = \sigma^2 \; V_k (W_k^T W_k)^{-1} V_k^T = \sigma^2 \; V_k \; \operatorname{diag}\left(\lambda_1^{-1},\ldots,\lambda_k^{-1}\right) V_k^{T} = \sigma^2 \sideset{}{}\sum_{j = 1}^k \frac{\mathbf{v}_j\mathbf{v}_j^T}{\lambda_j}.$$

विशेष रूप से:


 * $$ \operatorname{Var}(\widehat{\boldsymbol{\beta}}_{p}) = \operatorname{Var}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) = \sigma^2 \sideset{}{}\sum_{j = 1}^{p}\frac{\mathbf{v}_j\mathbf{v}_j^{T}}{\lambda_j}.$$

इसलिए सभी के लिए $$ k \in \{1,\ldots, p-1\} $$ अपने पास:


 * $$ \operatorname{Var}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) - \operatorname{Var}(\widehat{\boldsymbol{\beta}}_{k}) = \sigma^2 \sideset{}{}\sum_{j = k+1}^p\frac{\mathbf{v}_j\mathbf{v}_j^T}{\lambda_j}.$$

इस प्रकार, सभी के लिए $$ k \in \{1,\ldots, p\} $$ अपने पास:


 * $$ \operatorname{Var}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) - \operatorname{Var}(\widehat{\boldsymbol{\beta}}_k) \succeq 0 $$ कहाँ $$ A \succeq 0 $$ इंगित करता है कि एक वर्ग सममित मैट्रिक्स $$ A $$ सकारात्मक-निश्चित मैट्रिक्स है|गैर-नकारात्मक निश्चित। नतीजतन, पीसीआर अनुमानक के किसी भी दिए गए रैखिक रूप में सामान्य न्यूनतम वर्ग अनुमानक के समान रैखिक रूप की तुलना में कम भिन्नता होती है।

बहुसंरेखता को संबोधित करना
बहुसंरेखता के तहत, दो या दो से अधिक सहसंयोजक अत्यधिक सहसंबंध और निर्भरता वाले होते हैं, ताकि एक को सटीकता की गैर-तुच्छ डिग्री के साथ दूसरों से रैखिक रूप से भविष्यवाणी की जा सके। नतीजतन, डेटा मैट्रिक्स के कॉलम $$ \mathbf{X} $$ इन सहसंयोजकों के अवलोकनों के अनुरूप रैखिक स्वतंत्रता बनने की प्रवृत्ति होती है और इसलिए, $$ \mathbf{X} $$ अपनी पूर्ण स्तंभ रैंक संरचना खोकर रैंक (रैखिक बीजगणित) बन जाता है। अधिक मात्रात्मक रूप से, एक या अधिक छोटे eigenvalues $$ \mathbf{X}^{T}\mathbf{X} $$ बहुत करीब आ जाना या बिल्कुल बराबर हो जाना $$ 0 $$ ऐसी परिस्थितियों में. उपरोक्त विचरण अभिव्यक्तियाँ दर्शाती हैं कि इन छोटे eigenvalues ​​​​में न्यूनतम वर्ग अनुमानक के विचरण पर अधिकतम विचरण मुद्रास्फीति कारक होता है, जिससे जब वे करीब होते हैं तो अनुमानक मुद्रास्फीति कारक में महत्वपूर्ण रूप से परिवर्तन होता है। $$ 0$$. इन छोटे eigenvalues ​​​​के अनुरूप प्रमुख घटकों को छोड़कर प्राप्त पीसीआर अनुमानक का उपयोग करके इस मुद्दे को प्रभावी ढंग से संबोधित किया जा सकता है।

आयाम में कमी
पीसीआर का उपयोग आयाम में कमी करने के लिए भी किया जा सकता है। इसे देखने के लिए आइए $$L_k$$ किसी को निरूपित करें $$ p \times k $$ किसी के लिए भी ऑर्थोनॉर्मल कॉलम वाला मैट्रिक्स $$ k \in \{1,\ldots,p\}.$$ मान लीजिए कि अब हम प्रत्येक सहसंयोजक प्रेक्षण का अनुमान लगाना चाहते हैं $$ \mathbf{x}_i $$ रैंक के माध्यम से (रैखिक बीजगणित) $$ k $$ रैखिक परिवर्तन $$ L_k \mathbf{z}_i $$ कुछ के लिए $$ \mathbf{z}_i \in \mathbb{R}^{k} (1 \leq i \leq n) $$.

तो फिर वो दिखाया जा सकता है


 * $$ \sum_{i=1}^{n} \left \|\mathbf{x}_i - L_{k}\mathbf{z}_i \right \|^2 $$ पर न्यूनतम किया गया है $$L_k = V_k,$$ पहले के साथ मैट्रिक्स $$k$$ स्तंभों के रूप में प्रमुख घटक दिशाएँ, और $$\mathbf{z}_i = \mathbf{x}_{i}^{k} = V_{k}^{T}\mathbf{x}_i,$$ इसी $$k$$ आयामी व्युत्पन्न सहसंयोजक। इस प्रकार $$k$$ आयामी प्रमुख घटक रैंक का सर्वोत्तम रैखिक सन्निकटन प्रदान करते हैं $$ k $$ प्रेक्षित डेटा मैट्रिक्स के लिए $$ \mathbf{X} $$.

आँकड़ों में संबंधित त्रुटियाँ और अवशेष इस प्रकार दिए गए हैं:


 * $$ \sum_{i=1}^{n} \left \|\mathbf{x}_i - V_{k}\mathbf{x}_{i}^{k} \right \|^2 = \begin{cases} \sum_{j = k+1}^{n} \lambda_j & 1 \leqslant k < p \\ 0 & k = p \end{cases} $$

इस प्रकार किसी भी संभावित आयाम में कमी को चुनकर प्राप्त किया जा सकता है $$ k $$, उपयोग किए जाने वाले प्रमुख घटकों की संख्या, के eigenvalues ​​​​के संचयी योग पर उचित थ्रेशोल्डिंग के माध्यम से $$ \mathbf{X}^{T}\mathbf{X}$$. चूँकि छोटे eigenvalues ​​​​संचयी योग में महत्वपूर्ण योगदान नहीं देते हैं, इसलिए जब तक वांछित सीमा सीमा पार नहीं हो जाती, तब तक संबंधित प्रमुख घटकों को हटाया जाना जारी रखा जा सकता है। समान मानदंड का उपयोग बहुसंरेखता मुद्दे को संबोधित करने के लिए भी किया जा सकता है, जिसके तहत छोटे eigenvalues ​​​​के अनुरूप प्रमुख घटकों को तब तक नजरअंदाज किया जा सकता है जब तक कि सीमा सीमा बनाए रखी जाती है।

नियमितीकरण प्रभाव
चूंकि पीसीआर अनुमानक आम तौर पर प्रतिगमन के लिए सभी प्रमुख घटकों का केवल एक सबसेट का उपयोग करता है, इसे किसी प्रकार के नियमितीकरण (गणित) प्रक्रिया के रूप में देखा जा सकता है। अधिक विशेष रूप से, किसी के लिए $$ 1 \leqslant k < p$$, पीसीआर अनुमानक $$ \widehat{\boldsymbol{\beta}}_k $$ निम्नलिखित विवश अनुकूलन समस्या के नियमित समाधान को दर्शाता है:


 * $$\min_{\boldsymbol{\beta}_{*} \in \mathbb{R}^{p}} \left \|\mathbf{Y} - \mathbf{X}\boldsymbol{\beta}_* \right \|^2 \quad \text{ subject to } \quad \boldsymbol{\beta}_* \perp \{\mathbf{v}_{k+1}, \ldots, \mathbf{v}_p\}.$$

बाधा को समान रूप से इस प्रकार लिखा जा सकता है:


 * $$ V_{(p-k)}^{T}\boldsymbol{\beta}_* = \mathbf{0},$$ कहाँ:


 * $$ V_{(p-k)} = \left[\mathbf{v}_{k+1},\ldots,\mathbf{v}_p\right]_{p\times (p-k)}. $$

इस प्रकार, जब प्रतिगमन के लिए सभी प्रमुख घटकों का केवल एक उचित उपसमूह चुना जाता है, तो प्राप्त पीसीआर अनुमानक नियमितीकरण (गणित) के एक कठिन रूप पर आधारित होता है जो परिणामी समाधान को चयनित प्रमुख घटक दिशाओं के कॉलम स्थान तक सीमित कर देता है, और परिणामस्वरूप इसे बहिष्कृत दिशाओं के लिए लंबनता तक सीमित कर दिया जाता है।

नियमित अनुमानकों के एक वर्ग के बीच पीसीआर की इष्टतमता
जैसा कि ऊपर परिभाषित है, विवश न्यूनतमकरण समस्या को देखते हुए, इसके निम्नलिखित सामान्यीकृत संस्करण पर विचार करें:


 * $$ \min_{\boldsymbol{\beta}_{*} \in \mathbb{R}^{p}} \|\mathbf{Y} - \mathbf{X}\boldsymbol{\beta}_*\|^2 \quad \text{ subject to } \quad L_{(p-k)}^{T}\boldsymbol{\beta}_* = \mathbf{0} $$

कहाँ, $$ L_{(p-k)} $$ क्रम के किसी भी पूर्ण स्तंभ रैंक मैट्रिक्स को दर्शाता है $$ p \times (p-k)$$ साथ $$ 1 \leqslant k < p$$.

होने देना $$ \widehat{\boldsymbol{\beta}}_L $$ संगत समाधान को निरूपित करें। इस प्रकार


 * $$ \widehat{\boldsymbol{\beta}}_L = \arg \min_{\boldsymbol{\beta}_{*} \in \mathbb{R}^{p}} \|\mathbf{Y} - \mathbf{X}\boldsymbol{\beta}_*\|^2 \quad \text{ subject to } \quad   L_{(p-k)}^{T}\boldsymbol{\beta}_* = \mathbf{0}.$$

फिर प्रतिबंध मैट्रिक्स का इष्टतम विकल्प $$L_{(p-k)}$$ जिसके लिए संबंधित अनुमानक $$\widehat{\boldsymbol{\beta}}_{L}$$ न्यूनतम पूर्वानुमान त्रुटि प्राप्त होती है:
 * $$ L^{*}_{(p-k)} = V_{(p-k)} \Lambda_{(p-k)}^{1/2},$$ कहाँ


 * $$ \Lambda_{(p-k)}^{1/2} = \operatorname{diag} \left(\lambda_{k+1}^{1/2},\ldots,\lambda_p^{1/2}\right).$$

बिल्कुल स्पष्ट रूप से, परिणामी इष्टतम अनुमानक $$ \widehat{\boldsymbol{\beta}}_{L^{*}} $$ फिर बस पीसीआर अनुमानक द्वारा दिया जाता है $$ \widehat{\boldsymbol{\beta}}_{k} $$ पहले पर आधारित $$ k $$ मूल घटक।

दक्षता
चूँकि सामान्य न्यूनतम वर्ग अनुमानक एक अनुमानक का पूर्वाग्रह है $$ \boldsymbol{\beta} $$, अपने पास


 * $$ \operatorname{Var}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) = \operatorname{MSE} (\widehat{\boldsymbol{\beta}}_\mathrm{ols}),$$ जहां, एमएसई माध्य वर्ग त्रुटि दर्शाता है। अब, यदि कुछ के लिए $$ k \in \{1,\ldots,p\} $$, हमारे पास अतिरिक्त है: $$ V_{(p-k)}^T\boldsymbol{\beta} = \mathbf{0} $$, फिर संगत $$ \widehat{\boldsymbol{\beta}}_k $$ के लिए एक अनुमानक का पूर्वाग्रह भी है $$\boldsymbol{\beta} $$ और इसलिए


 * $$ \operatorname{Var}(\widehat{\boldsymbol{\beta}}_k) = \operatorname{MSE} (\widehat{\boldsymbol{\beta}}_k).$$

वह हम पहले ही देख चुके हैं


 * $$\forall j \in \{ 1, \ldots, p\}: \quad \operatorname{Var}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) - \operatorname{Var}(\widehat{\boldsymbol{\beta}}_j) \succeq 0,$$ जिसका तात्पर्य यह है:


 * $$ \operatorname{MSE} (\widehat{\boldsymbol{\beta}}_\mathrm{ols}) - \operatorname{MSE} (\widehat{\boldsymbol{\beta}}_k) \succeq 0 $$ उस विशेष के लिए $$k$$. इस प्रकार उस मामले में, संगत $$\widehat{\boldsymbol{\beta}}_{k}$$ का अधिक कुशल आकलनकर्ता होगा $$\boldsymbol{\beta}$$ की तुलना में $$\widehat{\boldsymbol{\beta}}_\mathrm{ols}$$, प्रदर्शन मानदंड के रूप में माध्य वर्ग त्रुटि का उपयोग करने पर आधारित। इसके अलावा, किसी भी दिए गए संगत का रैखिक रूप $$\widehat{\boldsymbol{\beta}}_{k}$$ समान रैखिक रूप की तुलना में कम माध्य वर्ग त्रुटि भी होगी $$ \widehat{\boldsymbol{\beta}}_\mathrm{ols} $$.

अब मान लीजिए कि किसी दिए गए के लिए $$ k \in \{1,\ldots,p\}, V_{(p-k)}^{\boldsymbol{\beta}} \neq \mathbf{0} $$. फिर संगत $$ \widehat{\boldsymbol{\beta}}_k $$ के लिए एक अनुमानक का पूर्वाग्रह है $$ \boldsymbol{\beta} $$. हालाँकि, जब से


 * $$ \forall k \in \{ 1, \ldots, p\}: \quad  \operatorname{Var}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) - \operatorname{Var}(\widehat{\boldsymbol{\beta}}_k)  \succeq 0,$$

ऐसा अब भी संभव है $$ \operatorname{MSE}(\widehat{\boldsymbol{\beta}}_\mathrm{ols}) - \operatorname{MSE}(\widehat{\boldsymbol{\beta}}_k) \succeq 0 $$, विशेष रूप से यदि $$ k $$ ऐसा है कि बहिष्कृत प्रमुख घटक छोटे स्वदेशी मानों के अनुरूप होते हैं, जिसके परिणामस्वरूप अनुमानक का पूर्वाग्रह कम होता है।

एक अनुमानक के रूप में पीसीआर के कुशल अनुमान और भविष्यवाणी प्रदर्शन को सुनिश्चित करने के लिए $$ \boldsymbol{\beta}$$, पार्क (1981) प्रतिगमन के लिए उपयोग किए जाने वाले प्रमुख घटकों के चयन के लिए निम्नलिखित दिशानिर्देश का प्रस्ताव है: ड्रॉप करें $$ j^{th} $$ प्रमुख घटक यदि और केवल यदि $$\lambda_j < (p\sigma^2)/ \boldsymbol{\beta}^T \boldsymbol{\beta}.$$ इस दिशानिर्देश के व्यावहारिक कार्यान्वयन के लिए निश्चित रूप से अज्ञात मॉडल मापदंडों के अनुमान की आवश्यकता होती है $$ \sigma^2 $$ और $$ \boldsymbol{\beta} $$. सामान्य तौर पर, उनका अनुमान मूल पूर्ण मॉडल से प्राप्त अप्रतिबंधित न्यूनतम वर्ग अनुमानों का उपयोग करके लगाया जा सकता है। पार्क (1981) हालांकि अनुमानों का थोड़ा संशोधित सेट प्रदान करता है जो इस उद्देश्य के लिए बेहतर अनुकूल हो सकता है। के eigenvalues ​​​​के संचयी योग पर आधारित मानदंडों के विपरीत $$ \mathbf{X}^T\mathbf{X} $$, जो संभवतः बहुसंरेखता समस्या को संबोधित करने और आयाम में कमी करने के लिए अधिक उपयुक्त है, उपरोक्त मानदंड वास्तव में प्रिंसिपल के चयन की प्रक्रिया में परिणाम के साथ-साथ सहसंयोजक दोनों को शामिल करके पीसीआर अनुमानक की भविष्यवाणी और अनुमान दक्षता में सुधार करने का प्रयास करता है। प्रतिगमन चरण में उपयोग किए जाने वाले घटक। समान लक्ष्यों वाले वैकल्पिक दृष्टिकोणों में क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन या मैलोज़ सीपी|मैलोज़ सी के आधार पर प्रमुख घटकों का चयन शामिल है।pमानदंड। अक्सर, प्रमुख घटकों का चयन परिणाम के साथ उनके सहसंबंध और निर्भरता की डिग्री के आधार पर भी किया जाता है।

पीसीआर का सिकुड़न प्रभाव
सामान्य तौर पर, पीसीआर अनिवार्य रूप से एक संकोचन अनुमानक है जो आमतौर पर उच्च विचरण वाले प्रमुख घटकों (उच्च स्वदेशी मूल्यों के अनुरूप) को बनाए रखता है $$ \mathbf{X}^T\mathbf{X} $$) मॉडल में सहसंयोजक के रूप में और शेष कम विचरण घटकों को त्याग देता है (निचले eigenvalues ​​​​के अनुरूप) $$ \mathbf{X}^T\mathbf{X} $$). इस प्रकार यह कम विचरण वाले घटकों पर एक पृथक संकोचन अनुमानक लगाता है जो मूल मॉडल में उनके योगदान को पूरी तरह से समाप्त कर देता है। इसके विपरीत, रिज प्रतिगमन  अनुमानक इसके निर्माण में स्वाभाविक रूप से शामिल नियमितीकरण (गणित) (या ट्यूनिंग पैरामीटर) के माध्यम से एक सहज संकोचन प्रभाव डालता है। हालाँकि यह किसी भी घटक को पूरी तरह से नहीं हटाता है, यह उन सभी पर निरंतर तरीके से सिकुड़न प्रभाव डालता है ताकि कम भिन्नता वाले घटकों के लिए संकोचन की सीमा अधिक हो और उच्च भिन्नता वाले घटकों के लिए कम हो। फ्रैंक और फ्रीडमैन (1993) निष्कर्ष निकालें कि भविष्यवाणी के उद्देश्य से, रिज अनुमानक, अपने सहज संकोचन प्रभाव के कारण, असतत संकोचन प्रभाव वाले पीसीआर अनुमानक की तुलना में शायद एक बेहतर विकल्प है।

इसके अलावा, प्रमुख घटक एकवचन मूल्य अपघटन|ईजेन-अपघटन से प्राप्त होते हैं $$ \mathbf{X} $$ इसमें केवल व्याख्यात्मक चर के लिए अवलोकन शामिल हैं। इसलिए, सहसंयोजक के रूप में इन प्रमुख घटकों का उपयोग करने से प्राप्त परिणामी पीसीआर अनुमानक को परिणाम के लिए संतोषजनक पूर्वानुमानित प्रदर्शन की आवश्यकता नहीं है। कुछ हद तक समान अनुमानक जो अपने निर्माण के माध्यम से इस मुद्दे को संबोधित करने का प्रयास करता है वह आंशिक न्यूनतम वर्ग (पीएलएस) अनुमानक है। पीसीआर के समान, पीएलएस भी निम्न आयामों के व्युत्पन्न सहसंयोजकों का उपयोग करता है। हालाँकि, पीसीआर के विपरीत, पीएलएस के लिए व्युत्पन्न सहसंयोजक परिणाम और सहसंयोजक दोनों के उपयोग के आधार पर प्राप्त किए जाते हैं। जबकि पीसीआर सहसंयोजक स्थान में उच्च विचरण दिशाओं की तलाश करता है, पीएलएस सहसंयोजक स्थान में उन दिशाओं की तलाश करता है जो परिणाम की भविष्यवाणी के लिए सबसे उपयोगी हैं।

2006 में क्लासिकल पीसीआर का एक संस्करण प्रस्तावित किया गया जिसे पर्यवेक्षित पीसीआर के नाम से जाना जाता है। पीएलएस के समान भावना में, यह एक मानदंड के आधार पर निचले आयामों के व्युत्पन्न सहसंयोजक प्राप्त करने का प्रयास करता है जिसमें परिणाम और सहसंयोजक दोनों शामिल होते हैं। विधि का एक सेट निष्पादित करके प्रारंभ होता है $$ p $$ रैखिक प्रतिगमन (या अविभाज्य प्रतिगमन) जिसमें परिणाम वेक्टर को प्रत्येक पर अलग से प्रतिगमन किया जाता है $$ p $$ सहसंयोजकों को एक-एक करके लिया गया। फिर, कुछ के लिए $$ m \in \{1,\ldots, p\}$$, पहला $$ m $$ सहसंयोजक जो परिणाम के साथ सबसे अधिक सहसंबद्ध होते हैं (संबंधित अनुमानित प्रतिगमन गुणांक के महत्व की डिग्री के आधार पर) आगे के उपयोग के लिए चुने जाते हैं। जैसा कि पहले बताया गया है, एक पारंपरिक पीसीआर का प्रदर्शन किया जाता है, लेकिन अब यह केवल पर आधारित है $$ n \times m $$ चयनित सहसंयोजकों के अवलोकनों के अनुरूप डेटा मैट्रिक्स। प्रयुक्त सहसंयोजकों की संख्या: $$ m \in \{1,\ldots, p\}$$ और बाद में उपयोग किए गए प्रमुख घटकों की संख्या: $$ k \in \{1,\ldots, m\}$$ आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन द्वारा चुना जाता है।

कर्नेल सेटिंग्स का सामान्यीकरण
ऊपर वर्णित शास्त्रीय पीसीआर विधि प्रमुख घटक विश्लेषण पर आधारित है और सहसंयोजकों के आधार पर परिणाम की भविष्यवाणी के लिए एक रैखिक प्रतिगमन पर विचार करती है। हालाँकि, इसे आसानी से कर्नेल विधियों की सेटिंग में सामान्यीकृत किया जा सकता है, जिससे प्रतिगमन विश्लेषण के लिए सहसंयोजकों में रैखिकता की आवश्यकता नहीं होती है, बल्कि इसके बजाय यह किसी भी मनमानी (संभवतः रैखिकता | गैर-रैखिक), सममित से जुड़े पुनरुत्पादन कर्नेल हिल्बर्ट स्थान से संबंधित हो सकता है। कार्य सकारात्मक-निश्चित कर्नेल। रैखिक प्रतिगमन इस सेटिंग का एक विशेष मामला बन जाता है जब सकारात्मक-निश्चित कर्नेल को कर्नेल हिल्बर्ट स्पेस का पुनरुत्पादन के रूप में चुना जाता है।

सामान्य तौर पर, कर्नेल विधियों की सेटिंग के तहत, सहसंयोजकों का वेक्टर एक आयाम (वेक्टर स्पेस) में पहला मानचित्र (गणित) होता है | उच्च-आयामी (संभावित आयाम (वेक्टर स्पेस) | अनंत-आयामी) सुविधा स्थान  जो सकारात्मक-निश्चित द्वारा विशेषता है कर्नेल चुना गया. इस प्रकार प्राप्त मानचित्र (गणित) को कर्नेल विधियों के रूप में जाना जाता है और इसकी प्रत्येक समन्वय प्रणाली, जिसे कर्नेल विधियों के रूप में भी जाना जाता है, सहसंयोजकों की एक विशेषता (रैखिकता या रैखिकता | गैर-रैखिक हो सकती है) से मेल खाती है। फिर प्रतिगमन विश्लेषण को इन कर्नेल विधियों का एक रैखिक संयोजन माना जाता है। इस प्रकार, कर्नेल विधियों की सेटिंग में प्रतिगमन विश्लेषण अनिवार्य रूप से एक रैखिक प्रतिगमन है, इस समझ के साथ कि सहसंयोजकों के मूल सेट के बजाय, भविष्यवक्ताओं को अब कर्नेल विधियों के वेक्टर (संभावित आयाम (वेक्टर स्थान) | अनंत-आयामी) द्वारा दिया जाता है कर्नेल विधियों का उपयोग करके डेटा परिवर्तन द्वारा वास्तविक सहसंयोजक प्राप्त किए जाते हैं।

हालाँकि, कर्नेल चाल वास्तव में हमें कर्नेल विधियों की स्पष्ट रूप से गणना किए बिना फीचर स्पेस में काम करने में सक्षम बनाती है। यह पता चलता है कि देखे गए सहसंयोजक वैक्टरों के लिए फीचर मानचित्रों के बीच जोड़ीदार आंतरिक उत्पादों की गणना करना ही पर्याप्त है और ये आंतरिक उत्पाद केवल सहसंयोजक वैक्टरों के संबंधित जोड़े पर मूल्यांकन किए गए सकारात्मक-निश्चित कर्नेल के मूल्यों द्वारा दिए गए हैं। इस प्रकार प्राप्त जोड़ीवार आंतरिक उत्पादों को एक के रूप में दर्शाया जा सकता है $$ n \times n $$ सममित गैर-नकारात्मक निश्चित मैट्रिक्स को कर्नेल पीसीए के रूप में भी जाना जाता है।

कर्नेल मशीन सेटिंग में पीसीआर को अब फीचर स्पेस के संबंध में पहले कर्नेल पीसीए, इस कर्नेल पीसीए (के, मान लीजिए) द्वारा कार्यान्वित किया जा सकता है और फिर कर्नेल पीसीए (के, मान लीजिए) पर कर्नेल पीसीए का प्रदर्शन किया जा सकता है, जिससे एक मैट्रिक्स का ईगेंडेकंपोजिशन किया जा सकता है। का ' प्राप्त होता है। कर्नेल पीसीआर तब (आमतौर पर) प्राप्त किए गए सभी आइजनवेक्टरों के एक सबसेट का चयन करके आगे बढ़ता है और फिर इन चयनित eigenvectors पर परिणाम वेक्टर का एक रैखिक प्रतिगमन करता है। प्रतिगमन के लिए उपयोग किए जाने वाले ईजेनवेक्टर आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन का उपयोग करके चुने जाते हैं। अनुमानित प्रतिगमन गुणांक (चयनित ईजेनवेक्टरों की संख्या के समान आयाम वाले) के साथ-साथ संबंधित चयनित ईजेनवेक्टरों का उपयोग भविष्य के अवलोकन के परिणाम की भविष्यवाणी करने के लिए किया जाता है। यंत्र अधिगम  में इस तकनीक को स्पेक्ट्रल रिग्रेशन के रूप में भी जाना जाता है।

स्पष्ट रूप से, कर्नेल पीसीआर का K' के आइजनवेक्टरों पर एक अलग संकोचन प्रभाव होता है, जो कि मुख्य घटकों पर शास्त्रीय पीसीआर के अलग संकोचन प्रभाव के समान है, जैसा कि पहले चर्चा की गई थी। हालाँकि, चुने गए कर्नेल से जुड़ा फ़ीचर मैप संभावित रूप से अनंत-आयामी हो सकता है, और इसलिए संबंधित प्रमुख घटक और प्रमुख घटक दिशाएँ भी अनंत-आयामी हो सकती हैं। इसलिए, कर्नेल मशीन सेटिंग के तहत ये मात्राएँ अक्सर व्यावहारिक रूप से कठिन होती हैं। कर्नेल पीसीआर अनिवार्य रूप से संबंधित कर्नेल मैट्रिक्स के मैट्रिक्स के ईगेंडेकंपोजीशन का उपयोग करने के आधार पर एक समतुल्य दोहरे फॉर्मूलेशन पर विचार करके इस समस्या के आसपास काम करता है। रैखिक प्रतिगमन मॉडल के तहत (जो कर्नेल फ़ंक्शन को रैखिक कर्नेल के रूप में चुनने से मेल खाता है), यह संबंधित के वर्णक्रमीय अपघटन पर विचार करने के बराबर है $$ n \times n $$ कर्नेल मैट्रिक्स $$ \mathbf{X}\mathbf{X}^T $$ और फिर eigenvectors के एक चयनित उपसमूह पर परिणाम वेक्टर को पुनः प्राप्त करना $$ \mathbf{X}\mathbf{X}^T $$ तो प्राप्त हुआ. यह आसानी से दिखाया जा सकता है कि यह संबंधित प्रमुख घटकों (जो इस मामले में परिमित-आयामी हैं) पर परिणाम वेक्टर को पुनः प्राप्त करने के समान है, जैसा कि शास्त्रीय पीसीआर के संदर्भ में परिभाषित किया गया है। इस प्रकार, रैखिक कर्नेल के लिए, दोहरे फॉर्मूलेशन पर आधारित कर्नेल पीसीआर, प्राइमल फॉर्मूलेशन पर आधारित शास्त्रीय पीसीआर के बिल्कुल बराबर है। हालाँकि, मनमाने ढंग से (और संभवतः गैर-रैखिक) कर्नेल के लिए, यह प्रारंभिक सूत्रीकरण संबंधित फीचर मैप की अनंत आयामीता के कारण कठिन हो सकता है। इस प्रकार उस मामले में शास्त्रीय पीसीआर व्यावहारिक रूप से अव्यवहार्य हो जाता है, लेकिन दोहरे फॉर्मूलेशन पर आधारित कर्नेल पीसीआर अभी भी वैध और कम्प्यूटेशनल रूप से स्केलेबल बना हुआ है।

यह भी देखें

 * प्रमुख कंपोनेंट विश्लेषण
 * आंशिक न्यूनतम वर्ग प्रतिगमन
 * कटक प्रतिगमन
 * विहित सहसंबंध
 * प्रतिगमन की मांग करना
 * वर्गों का कुल योग