विलक्षण मान अपघटन

रैखिक बीजगणित में, एकवचन मूल्य अपघटन (SVD) एक वास्तविक संख्या या जटिल संख्या मैट्रिक्स (गणित) का एक मैट्रिक्स अपघटन है। यह किसी वर्ग सामान्य मैट्रिक्स के किसी भी ऑर्थोनॉर्मल ईजेनबेसिस के ईजेनडीकम्पोजीशन को सामान्यीकृत करता है $$\ m \times n\ $$ आव्यूह। यह ध्रुवीय अपघटन # मैट्रिक्स ध्रुवीय अपघटन से संबंधित है।

विशेष रूप से, एक का एकवचन मूल्य अपघटन $$\ m \times n\ $$ जटिल मैट्रिक्स $M$ रूप का गुणनखंड है $$\ \mathbf{M} = \mathbf{U\Sigma V^*}\ ,$$ कहाँ $U$ एक $$\ m \times m\ $$ जटिल एकात्मक मैट्रिक्स, $$\ \mathbf{\Sigma}\ $$ एक $$\ m \times n\ $$ विकर्ण पर गैर-ऋणात्मक वास्तविक संख्याओं के साथ आयताकार विकर्ण मैट्रिक्स, $V$ एक $$n \times n$$ जटिल एकात्मक मैट्रिक्स, और $$\ \mathbf{V^*}\ $$ का संयुग्मी स्थानांतरण है $V$. किसी भी जटिल मैट्रिक्स के लिए ऐसा अपघटन हमेशा मौजूद होता है। अगर $M$ वास्तविक है, तो $U$ और $V$ वास्तविक ऑर्थोगोनल मैट्रिक्स मैट्रिक्स होने की गारंटी दी जा सकती है; ऐसे संदर्भों में, SVD को अक्सर निरूपित किया जाता है $$\ \mathbf{ U\Sigma V}^\mathsf{T}\ .$$ विकर्ण प्रविष्टियाँ $$\ \sigma_i = \Sigma_{i i}\ $$ का $$\ \mathbf{\Sigma}\ $$ द्वारा विशिष्ट रूप से निर्धारित किया जाता है $M$ और के एकवचन मान के रूप में जाने जाते हैं $M$. गैर-शून्य एकवचन मानों की संख्या मैट्रिक्स के रैंक के बराबर होती है $M$. के स्तंभ $U$ और के कॉलम $V$ के बाएँ-एकवचन सदिश और दाएँ-एकवचन सदिश कहलाते हैं $M$, क्रमश। वे ऑर्थोनॉर्मल आधार के दो सेट बनाते हैं $u1, ..., um$ और $v1, ..., vn$, और यदि उन्हें क्रमबद्ध किया जाता है ताकि एकवचन मान $$\ \sigma_i\ $$ मान शून्य के साथ सभी उच्चतम संख्या वाले कॉलम (या पंक्तियों) में हैं, एकवचन मूल्य अपघटन के रूप में लिखा जा सकता है $$\ \mathbf{M} = \sum_{i=1}^{r}\sigma_i\mathbf{u}_i\mathbf{v}_i^{*}\ ,$$ कहाँ $$\ r \leq \min\{m,n\}\ $$ का दर्जा है $M$.

एसवीडी अद्वितीय नहीं है। अपघटन को चुनना हमेशा संभव होता है ताकि एकवचन मान हो $$\Sigma_{i i}$$ अवरोही क्रम में हैं। इस मामले में, $$\mathbf{\Sigma}$$ (लेकिन नहीं $U$ और $V$) द्वारा विशिष्ट रूप से निर्धारित किया जाता है $M$.

शब्द कभी-कभी कॉम्पैक्ट एसवीडी, एक समान अपघटन को संदर्भित करता है $$\ \mathbf{M} = \mathbf{U\Sigma V^*}\ $$ जिसमें $$\ \mathbf{\Sigma}\ $$ आकार का वर्ग विकर्ण है $$r \times r$$, कहाँ $$\ r \leq \min\{m,n\}\ $$ का दर्जा है $M$, और केवल गैर-शून्य विलक्षण मान हैं। इस संस्करण में, $U$ एक $$m \times r$$ अर्ध-ऑर्थोगोनल मैट्रिक्स | अर्ध-एकात्मक मैट्रिक्स और $$\ \mathbf{V}\ $$ एक $$n \times r$$ अर्ध-ऑर्थोगोनल मैट्रिक्स | अर्ध-एकात्मक मैट्रिक्स, जैसे कि $$\ \mathbf{U^* U} = \mathbf{V^* V} = \mathbf{I}_r\ .$$ एसवीडी के गणितीय अनुप्रयोगों में मूर-पेनरोज़ स्यूडोइनवर्स, मैट्रिक्स सन्निकटन की गणना करना गिरी (मैट्रिक्स) की रैंक, श्रेणी और मैट्रिक्स के कर्नेल (मैट्रिक्स) का निर्धारण करना शामिल है। SVD विज्ञान, अभियांत्रिकी  और सांख्यिकी के सभी क्षेत्रों में भी बेहद उपयोगी है, जैसे  संकेत आगे बढ़ाना, डेटा की कम से कम वर्ग फिटिंग और प्रक्रिया नियंत्रण।

रोटेशन, समन्वय स्केलिंग, और प्रतिबिंब
विशेष मामले में जब $M$ एक $M$ वास्तविक स्क्वायर मैट्रिक्स, आव्यूह $M$ और $V^{⁎}$ वास्तविक होने के लिए चुना जा सकता है $U$ मैट्रिसेस भी। उस मामले में, एकात्मक ऑर्थोगोनल मैट्रिक्स के समान है। फिर, एकात्मक मैट्रिसेस और साथ ही विकर्ण मैट्रिक्स दोनों की व्याख्या करते हुए, यहाँ संक्षेप में प्रस्तुत किया गया है $σ_{1}$, एक रेखीय परिवर्तन के रूप में $M$ अंतरिक्ष का $Σ_{1,1}$, मैट्रिक्स $Σ_{2,2}$ और $M$ अंतरिक्ष के रोटेशन (ज्यामिति) या प्रतिबिंब (ज्यामिति) का प्रतिनिधित्व करते हैं, जबकि $$\mathbf{\Sigma}$$ प्रत्येक निर्देशांक के स्केलिंग मैट्रिक्स का प्रतिनिधित्व करता है $m × m$ कारक द्वारा $U$. इस प्रकार SVD अपघटन किसी भी रैखिक परिवर्तन को तोड़ देता है $V^{⁎}$ तीन ज्यामितीय परिवर्तन (ज्यामिति) की एक फ़ंक्शन रचना में: एक रोटेशन या प्रतिबिंब ($m × m$), उसके बाद समन्वय-दर-समन्वय स्केलिंग (ज्यामिति) ($$\mathbf{\Sigma}$$), उसके बाद एक और घुमाव या प्रतिबिंब ($A$).

विशेष रूप से, अगर $x ↦ Ax$ का एक सकारात्मक निर्धारक है, तो $R^{m}$ और $U$ को प्रतिबिंबों के साथ दोनों घुमावों के रूप में चुना जा सकता है, या प्रतिबिंबों के बिना दोनों घुमावों के रूप में चुना जा सकता है। यदि निर्धारक ऋणात्मक है, तो उनमें से ठीक एक का प्रतिबिम्ब होगा। यदि निर्धारक शून्य है, तो प्रत्येक को स्वतंत्र रूप से किसी भी प्रकार का चुना जा सकता है।

यदि मैट्रिक्स $V^{⁎}$ वास्तविक है लेकिन वर्गाकार नहीं है, अर्थात् $x_{i}$ साथ $σ_{i}$, इसे एक रैखिक परिवर्तन के रूप में व्याख्या किया जा सकता है $R^{m}$ को $V^{⁎}$. तब $U$ और $M$ को घूर्णन/प्रतिबिंब के रूप में चुना जा सकता है $U$ और $V^{⁎}$, क्रमश; और $$\mathbf{\Sigma}$$, पहले स्केलिंग के अलावा $$\min\{m,n\}$$ निर्देशांक, वेक्टर को शून्य के साथ भी विस्तारित करता है, अर्थात अनुगामी निर्देशांक को हटाता है, ताकि मुड़ सके $M$ में $m×n$.

दीर्घवृत्त या दीर्घवृत्ताभ
के अर्धअक्ष के रूप में एकवचन मान जैसा कि चित्र में दिखाया गया है, एकवचन मानों की व्याख्या 2D में दीर्घवृत्त के अर्धअक्षों के परिमाण के रूप में की जा सकती है। इस अवधारणा को सामान्यीकृत किया जा सकता है $n$-आयामी यूक्लिडियन अंतरिक्ष, किसी के विलक्षण मूल्यों के साथ $m ≠ n$ वर्ग मैट्रिक्स को a के अर्ध-अक्ष के परिमाण के रूप में देखा जा रहा है $n$-आयामी दीर्घवृत्ताभ। इसी प्रकार, किसी का एकवचन मान $R^{n}$ आव्यूह को a के अर्धअक्ष के परिमाण के रूप में देखा जा सकता है $n$-आयामी दीर्घवृत्ताभ में $m$-विमीय स्थान, उदाहरण के लिए एक 3D अंतरिक्ष में एक (झुके हुए) 2D विमान में दीर्घवृत्त के रूप में। एकवचन मान अर्धअक्ष के परिमाण को कूटबद्ध करते हैं, जबकि एकवचन सदिश दिशा को कूटबद्ध करते हैं। अधिक जानकारी के लिए #ज्यामितीय अर्थ देखें।

के कॉलम $R^{m}$ और $U$ सरणी ऑर्थोनॉर्मल आधार
पापों $V^{⁎}$ और $R^{m}$ एकात्मक हैं, उनमें से प्रत्येक के कॉलम ऑर्थोनॉर्मल वैक्टर का एक सेट बनाते हैं, जिन्हें आधार वैक्टर माना जा सकता है। गणित का सवाल $R^{n}$ बेस वेक्टर को मैप करता है $R^{n}$ तनी हुई इकाई वेक्टर के लिए $R^{m}$. एकात्मक मैट्रिक्स की परिभाषा के अनुसार, उनके संयुग्मी स्थानान्तरण के लिए भी यही सच है $n × n$ और $m × n$, खिंचाव के रूप में एकवचन मानों की ज्यामितीय व्याख्या को छोड़कर खो गया है। संक्षेप में, के कॉलम $U$, और $V$ अयस्क ऑर्थोनॉर्मल आधार। होना $$\mathbf{M}$$ एक निश्चित मैट्रिक्स है|सकारात्मक-अर्द्धपरिमित हर्मिटियन मैट्रिक्स, $U$ और $V^{⁎}$ दोनों एकात्मक मैट्रिक्स के बराबर हैं जिसका उपयोग विकर्ण करने के लिए किया जाता है $$\mathbf{M}$$. हालाँकि, कब $$\mathbf{M}$$ धनात्मक-अर्द्ध-परिमित और हर्मिटियन नहीं है, लेकिन फिर भी विकर्णीय है, इसकी ईजेनडीकंपोजीशन और एकवचन मूल्य अपघटन अलग-अलग हैं।

ज्यामितीय अर्थ
क्योंकि $M$ और $V_{i}$ एकात्मक हैं, हम जानते हैं कि column $σ_{i} U_{i}$ का $U^{⁎}$ यील्ड n ऑर्थोनॉर्मल बेसिस $K^{m}$ और कॉलम $V$ का $U, U^{⁎}, V$ यील्ड n ऑर्थोनॉर्मल बेसिस $K^{n}$ (इन स्थानों पर मानक अदिश गुणनफलों के संबंध में)।

रैखिक परिवर्तन


 * $$T \colon \left\{\begin{aligned} K^n &\to K^m \\ x &\mapsto \mathbf{M}x \end{aligned}\right.$$

इन ऑर्थोनॉर्मल आधारों के संबंध में एक विशेष रूप से सरल विवरण है: हमारे पास है


 * $$T(\mathbf{V}_i) = \sigma_i \mathbf{U}_i, \qquad i = 1, \ldots, \min(m, n),$$

कहाँ $σ_{i}$ है $i$-वीं विकर्ण प्रविष्टि $$\mathbf{\Sigma}$$, और $V^{⁎}$ के लिए $U$.

एसवीडी प्रमेय की ज्यामितीय सामग्री को इस प्रकार संक्षेप में प्रस्तुत किया जा सकता है: प्रत्येक रैखिक मानचित्र के लिए $V$ कोई भी ऑर्थोनॉर्मल आधार पा सकता है $K^{n}$ और $K^{m}$ ऐसा है कि $T$ मैप करता है $i$-वाँ आधार वेक्टर $K^{n}$ के एक गैर-ऋणात्मक गुणज में $i$-वाँ आधार वेक्टर $K^{m}$, और लेफ्ट-ओवर आधार वैक्टर को शून्य पर भेजता है। इन आधारों के संबंध में, मानचित्र $T$ इसलिए गैर-ऋणात्मक वास्तविक विकर्ण प्रविष्टियों के साथ एक विकर्ण मैट्रिक्स द्वारा दर्शाया गया है।

विलक्षण मूल्यों और SVD गुणनखंडन का अधिक दृश्य स्वाद प्राप्त करने के लिए - कम से कम वास्तविक वेक्टर रिक्त स्थान पर काम करते समय - गोले पर विचार करें $S$ त्रिज्या एक में $U$. रेखीय नक्शा $T$ इस गोले को एक दीर्घवृत्ताभ में मैप करता है $V$. गैर-शून्य एकवचन मान इस दीर्घवृत्त के अर्ध-लघु अक्ष | अर्ध-अक्ष की लंबाई हैं। खासकर जब $U_{1}, ..., U_{m}$, और सभी एकवचन मान विशिष्ट और गैर-शून्य हैं, रैखिक मानचित्र का एसवीडी $T$ को लगातार तीन चालों के उत्तराधिकार के रूप में आसानी से विश्लेषित किया जा सकता है: दीर्घवृत्त पर विचार करें $U$ और विशेष रूप से इसकी कुल्हाड़ियाँ; फिर दिशाओं पर विचार करें $V_{1}, ..., V_{n}$ के द्वारा भेजा गया $T$ इन अक्षों पर। ये दिशाएं पारस्परिक रूप से ऑर्थोगोनल होती हैं। पहले एक आइसोमेट्री लागू करें $V$ के निर्देशांक अक्षों को इन दिशाओं को भेजना $T(V_{i}) = 0$. दूसरी चाल पर, एंडोमोर्फिज्म लागू करें $i > min(m,n)$ समन्वय अक्षों के साथ तिरछे और अर्ध-अक्ष लंबाई का उपयोग करते हुए प्रत्येक दिशा में खिंचाव या सिकुड़ना $T : K^{n} → K^{m}$ स्ट्रेचिंग गुणांक के रूप में। रचना $R^{n}$ फिर इकाई-गोले को दीर्घवृत्ताभ आइसोमेट्रिक पर भेजता है $R^{m}$. तीसरी और अंतिम चाल को परिभाषित करने के लिए, एक आइसोमेट्री लागू करें $n = m$ इस दीर्घवृत्त को प्राप्त करने के लिए $T(S)$. जैसा कि आसानी से जांचा जा सकता है, रचना $R^{n}$ के साथ मेल खाता है $T$.

उदाहरण
इसपर विचार करें $V^{⁎}$ आव्यूह


 * $$\mathbf{M} = \begin{bmatrix}

1 & 0 & 0 & 0 & 2 \\                     0 & 0 & 3 & 0 & 0 \\                      0 & 0 & 0 & 0 & 0 \\                      0 & 2 & 0 & 0 & 0                    \end{bmatrix} $$ इस मैट्रिक्स का एक विलक्षण मूल्य अपघटन द्वारा दिया गया है $R^{n}$


 * $$\begin{align}

\mathbf{U} &= \begin{bmatrix} \color{Green}0 & \color{Blue}-1 & \color{Cyan}0 & \color{Emerald}0 \\ \color{Green}-1 & \color{Blue}0 & \color{Cyan}0 & \color{Emerald}0 \\ \color{Green}0 & \color{Blue}0 & \color{Cyan}0 & \color{Emerald}-1 \\ \color{Green}0 & \color{Blue}0 & \color{Cyan}-1 & \color{Emerald}0 \end{bmatrix} \\[6pt]

\boldsymbol{\Sigma} &= \begin{bmatrix} 3 &       0 &        0 &             0  & \color{Gray}\mathit{0} \\ 0 & \sqrt{5} &       0 &             0  & \color{Gray}\mathit{0} \\ 0 &       0 &        2 &             0  & \color{Gray}\mathit{0} \\ 0 &       0 &        0 & \color{Red}\mathbf{0} & \color{Gray}\mathit{0} \end{bmatrix} \\[6pt]

\mathbf{V}^* &= \begin{bmatrix} \color{Violet}0       & \color{Violet}0    & \color{Violet}-1  & \color{Violet}0  &\color{Violet}0 \\ \color{Plum}-\sqrt{0.2}& \color{Plum}0     & \color{Plum}0    & \color{Plum}0    &\color{Plum}-\sqrt{0.8} \\ \color{Magenta}0      & \color{Magenta}-1  & \color{Magenta}0 & \color{Magenta}0 &\color{Magenta}0 \\ \color{Orchid}0          & \color{Orchid}0  & \color{Orchid}0  & \color{Orchid}1  &\color{Orchid}0 \\ \color{Purple} - \sqrt{0.8} & \color{Purple}0 & \color{Purple}0 & \color{Purple}0 & \color{Purple}\sqrt{0.2} \end{bmatrix} \end{align}$$ स्केलिंग मैट्रिक्स $$\mathbf{\Sigma}$$ विकर्ण के बाहर शून्य है (ग्रे इटैलिक) और एक विकर्ण तत्व शून्य है (लाल बोल्ड, डार्क मोड में हल्का नीला बोल्ड)। इसके अलावा, क्योंकि matrices $D$ और $T(S)$ एकात्मक मैट्रिक्स हैं, उनके संबंधित संयुग्मों से गुणा करने से पहचान मैट्रिक्स प्राप्त होता है, जैसा कि नीचे दिखाया गया है। इस मामले में, क्योंकि $D ∘ V^{⁎}$ और $T(S)$ वास्तविक मूल्यवान हैं, प्रत्येक एक ऑर्थोगोनल मैट्रिक्स है।


 * $$\begin{align}

\mathbf{U} \mathbf{U}^* &= \begin{bmatrix} 1 & 0 & 0 & 0 \\   0 & 1 & 0 & 0 \\    0 & 0 & 1 & 0 \\    0 & 0 & 0 & 1  \end{bmatrix} = \mathbf{I}_4 \\[6pt] \mathbf{V} \mathbf{V}^* &= \begin{bmatrix} 1 & 0 & 0 & 0 & 0 \\   0 & 1 & 0 & 0 & 0 \\    0 & 0 & 1 & 0 & 0 \\    0 & 0 & 0 & 1 & 0 \\    0 & 0 & 0 & 0 & 1  \end{bmatrix} = \mathbf{I}_5 \end{align}$$ यह विशेष विलक्षण मूल्य अपघटन अद्वितीय नहीं है। का चयन $$\mathbf V$$ ऐसा है कि
 * $$\mathbf{V}^* = \begin{bmatrix}

\color{Violet}0 & \color{Violet}1 & \color{Violet}0 &         \color{Violet}0 &           \color{Violet}0 \\ \color{Plum}0 & \color{Plum}0 & \color{Plum}1 &         \color{Plum}0 &           \color{Plum}0 \\ \color{Magenta}\sqrt{0.2} & \color{Magenta}0 & \color{Magenta}0 &         \color{Magenta}0 &  \color{Magenta}\sqrt{0.8} \\ \color{Orchid}\sqrt{0.4} & \color{Orchid}0 & \color{Orchid}0 & \color{Orchid}\sqrt{0.5} & \color{Orchid}-\sqrt{0.1} \\ \color{Purple}-\sqrt{0.4} & \color{Purple}0 & \color{Purple}0 & \color{Purple}\sqrt{0.5} & \color{Purple}\sqrt{0.1} \end{bmatrix}$$ एक मान्य विलक्षण मूल्य अपघटन भी है।

एकवचन मान, एकवचन सदिश, और SVD से उनका संबंध
एक गैर-ऋणात्मक वास्तविक संख्या $σ$ के लिए एक विलक्षण मान है $U$ अगर और केवल अगर इकाई-लंबाई वाले वैक्टर मौजूद हैं $$\mathbf{u}$$ के. मेंमी और $$\mathbf{v}$$ के. मेंn ऐसा कि


 * $$\mathbf{M v} = \sigma \mathbf{u} \,\text{ and } \mathbf{M}^*\mathbf{u} = \sigma \mathbf{v}.$$

वैक्टर $$\mathbf{u}$$ और $$\mathbf{v}$$ के लिए बाएँ-एकवचन और दाएँ-एकवचन सदिश कहलाते हैं $σ$, क्रमश।

किसी भी विलक्षण मूल्य अपघटन में


 * $$\mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*$$

की विकर्ण प्रविष्टियाँ $$\mathbf{\Sigma}$$ के विलक्षण मूल्यों के बराबर हैं $T(S)$. पहला $U ∘ D ∘ V^{⁎}$ के कॉलम $4 × 5$ और $UΣV^{⁎}$ संबंधित एकवचन मानों के लिए क्रमशः बाएँ और दाएँ-एकवचन सदिश हैं। नतीजतन, उपरोक्त प्रमेय का तात्पर्य है कि:
 * एक $U$ आव्यूह $V^{⁎}$ अधिक से अधिक है $p$ विशिष्ट विलक्षण मान।
 * ऑर्थोगोनल आधार खोजना हमेशा संभव होता है $U$ के लिए $K^{m}$ के प्रत्येक एकवचन मान के बाएँ-एकवचन वैक्टर में फैले आधार वैक्टर के एक सबसेट के साथ $V^{⁎}$.
 * एकात्मक आधार खोजना हमेशा संभव है $M$ के लिए $K^{n}$ के प्रत्येक एकवचन मान के दाएं-एकवचन वैक्टर में फैले आधार वैक्टर के एक सबसेट के साथ $M$.

एक विलक्षण मान जिसके लिए हम दो बाएँ (या दाएँ) एकवचन वैक्टर पा सकते हैं जो रैखिक रूप से स्वतंत्र हैं, पतित कहलाते हैं। अगर $$\mathbf{u}_1$$ और $$\mathbf{u}_2$$ दो बाएं-एकवचन वैक्टर हैं जो दोनों एकवचन मान σ के अनुरूप हैं, तो दो वैक्टरों का कोई सामान्यीकृत रैखिक संयोजन भी एकवचन मान σ के अनुरूप एक बायां-एकवचन वेक्टर है। समान कथन सही-एकवचन सदिशों के लिए सत्य है। स्वतंत्र बाएँ और दाएँ-एकवचन वैक्टर की संख्या मेल खाती है, और ये एकवचन वैक्टर एक ही कॉलम में दिखाई देते हैं $p = min(m, n)$ और $U$ के विकर्ण तत्वों के अनुरूप $$\mathbf{\Sigma}$$ सभी समान मान σ के साथ।

एक अपवाद के रूप में, एकवचन मान 0 के बाएँ और दाएँ-एकवचन सदिशों में क्रमशः cokernel और कर्नेल (रैखिक बीजगणित) में सभी इकाई सदिश शामिल हैं। $V$, जो रैंक-शून्यता प्रमेय द्वारा समान आयाम नहीं हो सकता है $m × n$. भले ही सभी एकवचन मान शून्य न हों, यदि $M$ तो कोकरनेल नॉनट्रिविअल है, किस मामले में $U$ से गद्देदार है $M$ कोकरनेल से ऑर्थोगोनल वैक्टर। इसके विपरीत यदि $V$, तब $M$ द्वारा गद्देदार है $U$ कर्नेल से ऑर्थोगोनल वैक्टर। हालाँकि, यदि 0 का एकवचन मान मौजूद है, तो अतिरिक्त कॉलम $V$ या $M$ पहले से ही बाएं या दाएं-एकवचन वैक्टर के रूप में दिखाई देते हैं।

गैर-पतित एकवचन मूल्यों में हमेशा अद्वितीय बाएँ और दाएँ-एकवचन वैक्टर होते हैं, एक इकाई-चरण कारक ई द्वारा गुणा तकiφ (असली केस के लिए साइन तक)। नतीजतन, यदि एक वर्ग मैट्रिक्स के सभी एकवचन मान $m ≠ n$ गैर-पतित और गैर-शून्य हैं, तो इसका एकवचन मूल्य अपघटन अद्वितीय है, एक स्तंभ के गुणन तक $m > n$ एक इकाई-चरण कारक और इसी कॉलम के साथ-साथ गुणा करके $U$ एक ही इकाई-चरण कारक द्वारा। सामान्य तौर पर, एसवीडी दोनों के कॉलम वैक्टरों पर समान रूप से लागू मनमाना एकात्मक परिवर्तनों के लिए अद्वितीय है $m − n$ और $m < n$ प्रत्येक एकवचन मूल्य के उप-स्थानों को फैलाते हुए, और के सदिशों पर मनमाने ढंग से एकात्मक परिवर्तनों तक $V$ और $n − m$ क्रमशः कर्नेल और कोकर्नेल को फैलाते हुए $U$.

आइगेनवैल्यू अपघटन से संबंध
एकवचन मूल्य अपघटन इस मायने में बहुत सामान्य है कि इसे किसी पर भी लागू किया जा सकता है $V$ मैट्रिक्स, जबकि eigenvalue अपघटन केवल विकर्ण मैट्रिक्स पर लागू किया जा सकता है। फिर भी, दो अपघटन संबंधित हैं।

का एसवीडी दिया $M$, जैसा कि ऊपर बताया गया है, निम्नलिखित दो संबंध हैं:


 * $$\begin{align}

\mathbf{M}^* \mathbf{M} &= \mathbf{V} \boldsymbol{\Sigma}^* \mathbf{U}^*\, \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^* = \mathbf{V} (\boldsymbol{\Sigma}^* \boldsymbol{\Sigma}) \mathbf{V}^* \\ \mathbf{M} \mathbf{M}^* &= \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*\, \mathbf{V} \boldsymbol{\Sigma}^* \mathbf{U}^* = \mathbf{U} (\boldsymbol{\Sigma} \boldsymbol{\Sigma}^*) \mathbf{U}^* \end{align}$$ इन संबंधों के दाएँ हाथ के पक्ष बाएँ हाथ के पक्षों के ईगेनवैल्यू अपघटन का वर्णन करते हैं। फलस्वरूप:


 * के स्तंभ $U$ (दाएं-एकवचन सदिश) के egenvectors हैं $V$.
 * के स्तंभ $U$ (बायां-एकवचन सदिश) के ईजेनवेक्टर हैं $V$.
 * के गैर-शून्य तत्व $$\mathbf{\Sigma}$$ (गैर-शून्य एकवचन मान) के गैर-शून्य eigenvalues ​​​​के वर्गमूल हैं $U$ या $V$.

विशेष मामले में कि $M$ एक सामान्य मैट्रिक्स है, जो परिभाषा के अनुसार वर्गाकार होना चाहिए, स्पेक्ट्रल प्रमेय # परिमित-आयामी मामला कहता है कि यह आइजन्वेक्टर के आधार का उपयोग करके एकात्मक परिवर्तन विकर्ण मैट्रिक्स हो सकता है, ताकि इसे लिखा जा सके $m × n$ एकात्मक मैट्रिक्स के लिए $M$ और एक विकर्ण मैट्रिक्स $V$ जटिल तत्वों के साथ $σ_{i}$ विकर्ण के साथ। कब $M^{⁎}M$ सकारात्मक-निश्चित मैट्रिक्स है|सकारात्मक अर्ध-निश्चित, $σ_{i}$ गैर-नकारात्मक वास्तविक संख्या होगी ताकि अपघटन हो $U$ भी एक विलक्षण मूल्य अपघटन है। अन्यथा, चरण को स्थानांतरित करके इसे एसवीडी के रूप में फिर से तैयार किया जा सकता है $e^{iφ}$ प्रत्येक की $σ_{i}$ या तो इसके अनुरूप $MM^{⁎}$ या $M^{⁎}M$. SVD का गैर-सामान्य मैट्रिसेस से प्राकृतिक संबंध ध्रुवीय अपघटन प्रमेय के माध्यम से है: $MM^{⁎}$, कहाँ $M$ सकारात्मक अर्ध निश्चित और सामान्य है, और  $M = UDU^{⁎}$ एकात्मक है।

इस प्रकार, सकारात्मक अर्ध-निश्चित मेट्रिसेस को छोड़कर, आइगेनवैल्यू अपघटन और एसवीडी का $U$, संबंधित होने पर, भिन्न होते हैं: eigenvalue अपघटन है $D$, कहाँ $M$ आवश्यक रूप से एकात्मक नहीं है और $M = UDU^{⁎}$ आवश्यक रूप से सकारात्मक अर्ध-निश्चित नहीं है, जबकि SVD है $V_{i}$, कहाँ $$\mathbf{\Sigma}$$ विकर्ण और सकारात्मक अर्ध-निश्चित है, और $U_{i}$ और $M = SR$ एकात्मक मैट्रिसेस हैं जो आवश्यक रूप से मैट्रिक्स के माध्यम से संबंधित नहीं हैं $S = UΣU^{⁎}$. जबकि केवल दोषपूर्ण मैट्रिक्स | गैर-दोषपूर्ण वर्ग मैट्रिक्स में एक आइगेनवैल्यू अपघटन होता है, कोई भी $$m \times n$$ मैट्रिक्स में एक एसवीडी है।

एसवीडी
के अनुप्रयोग

छद्मविपरीत
एक मैट्रिक्स के मूर-पेनरोज स्यूडोइनवर्स की गणना के लिए एकवचन मूल्य अपघटन का उपयोग किया जा सकता है। (विभिन्न लेखक छद्मविपरीत के लिए अलग-अलग संकेतन का उपयोग करते हैं; यहाँ हम उपयोग करते हैं $R = UV^{⁎}$।) वास्तव में, मैट्रिक्स का छद्मविपरीत $M$ एकवचन मूल्य अपघटन के साथ $M = UDU^{−1}$ है



कहाँ $U$ का प्रतिलोम है $D$, जो प्रत्येक गैर-शून्य विकर्ण प्रविष्टि को उसके गुणात्मक व्युत्क्रम द्वारा प्रतिस्थापित करके और परिणामी मैट्रिक्स को स्थानांतरित करके बनाया जाता है। स्यूडोइनवर्स रैखिक न्यूनतम वर्ग (गणित) समस्याओं को हल करने का एक तरीका है।

सजातीय रैखिक समीकरणों को हल करना
सजातीय रैखिक समीकरणों का एक सेट इस रूप में लिखा जा सकता है $M = UΣV^{⁎}$ मैट्रिक्स के लिए $U$ और वेक्टर $V$. एक विशिष्ट स्थिति यह है $M$ ज्ञात है और शून्य नहीं है $^{†}$ निर्धारित किया जाना है जो समीकरण को संतुष्ट करता है। इस तरह के एक $M$ से संबंधित $M = UΣV^{⁎}$ का कर्नेल (मैट्रिक्स) है और कभी-कभी इसे (दाएं) अशक्त वेक्टर कहा जाता है $M^{†} = V Σ^{†} U^{⁎}$. सदिश $Σ^{†}$ को एक विलक्षण मान के अनुरूप एक सही-एकवचन वेक्टर के रूप में चित्रित किया जा सकता है $Σ$ वह शून्य है। इस अवलोकन का अर्थ है कि यदि $Ax = 0$ एक वर्ग मैट्रिक्स है और इसका कोई लुप्त होने वाला एकवचन मान नहीं है, समीकरण का कोई गैर-शून्य नहीं है $A$ समाधान के रूप में। इसका अर्थ यह भी है कि यदि कई लुप्त हो रहे एकवचन मान हैं, तो संगत सम-एकवचन सदिशों का कोई भी रैखिक संयोजन एक वैध समाधान है। एक (दाएं) अशक्त वेक्टर की परिभाषा के अनुरूप, एक गैर-शून्य $x$ संतुष्टि देने वाला $A$, साथ $x$ के संयुग्मी स्थानांतरण को दर्शाता है $x$, का बायां अशक्त वेक्टर कहा जाता है $A$.

कुल कम से कम वर्ग न्यूनीकरण
कुल कम से कम वर्गों की समस्या वेक्टर की तलाश करती है $A$ जो एक सदिश के सदिश मानदंड#p-मानक|2-मानदंड को कम करता है $x$ बाधा के तहत $A$. समाधान का सही-एकवचन वेक्टर निकला $A$ सबसे छोटे एकवचन मान के अनुरूप।

रेंज, रिक्त स्थान और रैंक
एसवीडी का एक अन्य अनुप्रयोग यह है कि यह स्तंभ स्थान और मैट्रिक्स के शून्य स्थान का स्पष्ट प्रतिनिधित्व प्रदान करता है $x$. के लुप्त हो रहे एकवचन मानों के अनुरूप दायाँ-एकवचन सदिश $x$ के रिक्त स्थान का विस्तार करें $x^{⁎}A = 0$ और बाएँ-एकवचन सदिश के गैर-शून्य एकवचन मान के संगत $x^{⁎}$ की सीमा का विस्तार करें $x$. उदाहरण के लिए, उपरोक्त #Example में रिक्त स्थान की अंतिम दो पंक्तियों द्वारा फैला हुआ है $A$ और श्रेणी के पहले तीन स्तंभों द्वारा विस्तृत है $x$.

नतीजतन, के एक मैट्रिक्स की रैंक $Ax$ गैर-शून्य एकवचन मानों की संख्या के बराबर है जो गैर-शून्य विकर्ण तत्वों की संख्या के समान है $$\mathbf{\Sigma}$$. संख्यात्मक रेखीय बीजगणित में मैट्रिक्स के प्रभावी रैंक को निर्धारित करने के लिए एकवचन मानों का उपयोग किया जा सकता है, क्योंकि पूर्णन त्रुटि से रैंक की कमी वाले मैट्रिक्स में छोटे लेकिन गैर-शून्य एकवचन मान हो सकते हैं। एक महत्वपूर्ण अंतर से परे एकवचन मान को संख्यात्मक रूप से शून्य के बराबर माना जाता है।

निम्न-रैंक मैट्रिक्स सन्निकटन
कुछ व्यावहारिक अनुप्रयोगों को एक मैट्रिक्स के निम्न-रैंक_सन्निकटन की समस्या को हल करने की आवश्यकता है $x = 1$ दूसरे मैट्रिक्स के साथ $$\tilde{\mathbf{M}}$$, #ट्रंकेटेड SVD कहा जाता है, जिसकी एक विशिष्ट रैंक होती है $r$. इस मामले में कि सन्निकटन अंतर के फ्रोबेनियस मानदंड को कम करने पर आधारित है $A$ और $$\tilde{\mathbf{M}}$$ उस बाधा के तहत $$\operatorname{rank}\left(\tilde{\mathbf{M}}\right) = r$$, यह पता चला है कि समाधान एसवीडी द्वारा दिया गया है $M$, अर्थात्


 * $$\tilde{\mathbf{M}} = \mathbf{U} \tilde{\boldsymbol{\Sigma}} \mathbf{V}^*,$$

कहाँ $$\tilde{\boldsymbol{\Sigma}}$$ के समान मैट्रिक्स है $$\mathbf{\Sigma}$$ सिवाय इसके कि इसमें केवल शामिल है $r$ सबसे बड़ा एकवचन मान (अन्य एकवचन मानों को शून्य से बदल दिया जाता है)। इसे लो-रैंक_सन्निकटन|एकार्ट-यंग प्रमेय के रूप में जाना जाता है, जैसा कि 1936 में उन दो लेखकों द्वारा सिद्ध किया गया था (हालांकि बाद में पाया गया कि यह पहले के लेखकों के लिए जाना जाता था; देखें ).

वियोज्य मॉडल
एसवीडी को एक मैट्रिक्स को भारित, अलग-अलग मैट्रिक्स के आदेशित योग में विघटित करने के बारे में सोचा जा सकता है। वियोज्य से हमारा मतलब है कि एक मैट्रिक्स $M$ को दो सदिशों के बाहरी उत्पाद के रूप में लिखा जा सकता है $M$, या, निर्देशांक में, $$A_{ij} = u_i v_j$$. विशेष रूप से, मैट्रिक्स $M$ के रूप में विघटित किया जा सकता है


 * $$\mathbf{M} = \sum_i \mathbf{A}_i = \sum_i \sigma_i \mathbf U_i \otimes \mathbf V_i.$$

यहाँ $M$ और $V^{⁎}$ हैं $i$- संगत एसवीडी मैट्रिसेस के कॉलम, $σ_{i}$ आदेशित एकवचन मान हैं, और प्रत्येक $U$ वियोज्य है। एसवीडी का उपयोग इमेज प्रोसेसिंग फिल्टर के अलग-अलग क्षैतिज और ऊर्ध्वाधर फिल्टर में अपघटन को खोजने के लिए किया जा सकता है। ध्यान दें कि गैर-शून्य की संख्या $σ_{i}$ बिल्कुल मैट्रिक्स की रैंक है।

वियोज्य मॉडल अक्सर जैविक प्रणालियों में उत्पन्न होते हैं, और एसवीडी कारककरण ऐसी प्रणालियों का विश्लेषण करने के लिए उपयोगी होता है। उदाहरण के लिए, कुछ दृश्य क्षेत्र V1 सरल कोशिकाओं के ग्रहणशील क्षेत्रों का अच्छी तरह से वर्णन किया जा सकता है स्पेस डोमेन में गैबर फिल्टर द्वारा टाइम डोमेन में मॉडुलन फ़ंक्शन द्वारा गुणा किया जाता है। इस प्रकार, उदाहरण के लिए, स्पाइक-ट्रिगर औसत के माध्यम से मूल्यांकन किए गए एक रेखीय फ़िल्टर को देखते हुए, दो स्थानिक आयामों को एक आयाम में पुनर्व्यवस्थित किया जा सकता है, इस प्रकार एक द्वि-आयामी फ़िल्टर (स्थान, समय) प्राप्त होता है जिसे एसवीडी के माध्यम से विघटित किया जा सकता है। का पहला स्तंभ $M$ SVD गुणनखंड में तब एक गैबोर होता है जबकि का पहला स्तंभ $M$ समय मॉडुलन (या इसके विपरीत) का प्रतिनिधित्व करता है। तब कोई पृथक्करणीयता के सूचकांक को परिभाषित कर सकता है


 * $$\alpha = \frac{\sigma_1^2}{\sum_i \sigma_i^2},$$

जो मैट्रिक्स एम में शक्ति का अंश है जिसे अपघटन में पहले वियोज्य मैट्रिक्स द्वारा हिसाब किया जाता है।

निकटतम ऑर्थोगोनल मैट्रिक्स
स्क्वायर मैट्रिक्स के एसवीडी का उपयोग करना संभव है $M$ ऑर्थोगोनल मैट्रिक्स निर्धारित करने के लिए $M$ से नजदीकी $A$. फिट की निकटता को फ्रोबेनियस मानदंड द्वारा मापा जाता है $A = u ⊗ v$. समाधान उत्पाद है $M$. यह सहज रूप से समझ में आता है क्योंकि एक ऑर्थोगोनल मैट्रिक्स में अपघटन होगा $U_{i}$ कहाँ $V_{i}$ पहचान मैट्रिक्स है, ताकि अगर $A_{i}$ फिर उत्पाद $U$ एकवचन मानों को उनके साथ बदलने के बराबर है। समान रूप से, समाधान एकात्मक मैट्रिक्स है $V$ ध्रुवीय अपघटन का $A$ स्ट्रेच और रोटेशन के किसी भी क्रम में, जैसा कि ऊपर बताया गया है।

आकृति विश्लेषण (डिजिटल ज्यामिति) में दिलचस्प अनुप्रयोगों के साथ एक समान समस्या, ऑर्थोगोनल प्रोक्रस्ट्स समस्या है, जिसमें एक ऑर्थोगोनल मैट्रिक्स खोजना शामिल है। $O$ जो सबसे बारीकी से मैप करता है $A$ को $O − A$. विशेष रूप से,


 * $$\mathbf{O} = \underset\Omega\operatorname{argmin} \|\mathbf{A}\boldsymbol{\Omega} - \mathbf{B}\|_F \quad\text{subject to}\quad \boldsymbol{\Omega}^\textsf{T}\boldsymbol{\Omega} = \mathbf{I},$$

कहाँ $$\| \cdot \|_F$$ फ्रोबेनियस मानदंड को दर्शाता है।

यह समस्या किसी दिए गए मैट्रिक्स के निकटतम ऑर्थोगोनल मैट्रिक्स को खोजने के बराबर है $UV^{⁎}$.

Kabsch एल्गोरिथम
Kabsch एल्गोरिथम (जिसे अन्य क्षेत्रों में वाहबा की समस्या कहा जाता है) एसवीडी का उपयोग इष्टतम रोटेशन की गणना करने के लिए करता है (न्यूनतम-वर्ग न्यूनीकरण के संबंध में) जो बिंदुओं के एक सेट को बिंदुओं के संगत सेट के साथ संरेखित करेगा। इसका उपयोग, अन्य अनुप्रयोगों के बीच, अणुओं की संरचनाओं की तुलना करने के लिए किया जाता है।

सिग्नल प्रोसेसिंग
एसवीडी और स्यूडोइनवर्स को सिग्नल प्रोसेसिंग में सफलतापूर्वक लागू किया गया है, मूर्ति प्रोद्योगिकी और बड़ा डेटा (जैसे, जीनोमिक सिग्नल प्रोसेसिंग में)।

खगोलगतिकी
खगोल गतिशीलता में, एसवीडी और इसके रूपों का उपयोग स्थानांतरण प्रक्षेपवक्र डिजाइन के लिए उपयुक्त पैंतरेबाज़ी दिशाओं को निर्धारित करने के लिए एक विकल्प के रूप में किया जाता है। और कक्षीय स्टेशन-कीपिंग।

अन्य उदाहरण
एसवीडी को रैखिक व्युत्क्रम समस्याओं के अध्ययन के लिए भी बड़े पैमाने पर लागू किया जाता है और नियमितीकरण के तरीकों जैसे तिखोनोव नियमितीकरण के विश्लेषण में उपयोगी है। यह आंकड़ों में व्यापक रूप से उपयोग किया जाता है, जहां यह प्रमुख घटक विश्लेषण और पत्राचार विश्लेषण से संबंधित है, और सिग्नल प्रोसेसिंग और पैटर्न पहचान में है। इसका उपयोग केवल-आउटपुट मोडल विश्लेषण में भी किया जाता है, जहां गैर-स्केल्ड मोड आकृतियों को एकवचन वैक्टर से निर्धारित किया जा सकता है। फिर भी एक अन्य उपयोग प्राकृतिक-भाषा पाठ प्रसंस्करण में अव्यक्त सिमेंटिक इंडेक्सिंग है।

सामान्य संख्यात्मक संगणना में रेखीय या रेखीय प्रणालियों को शामिल करते हुए, एक सार्वभौमिक स्थिरांक होता है जो किसी समस्या की नियमितता या विलक्षणता को दर्शाता है, जो कि प्रणाली की स्थिति संख्या है $$\kappa := \sigma_\text{max} / \sigma_\text{min}$$. यह अक्सर ऐसी प्रणालियों पर दी गई कम्प्यूटेशनल योजना की त्रुटि दर या अभिसरण दर को नियंत्रित करता है। एसवीडी क्वांटम सूचना के क्षेत्र में भी एक महत्वपूर्ण भूमिका निभाता है, जिसे अक्सर श्मिट अपघटन कहा जाता है। इसके माध्यम से, दो क्वांटम प्रणालियों की अवस्थाएं स्वाभाविक रूप से विघटित हो जाती हैं, जो उनके लिए क्वांटम उलझाव होने के लिए एक आवश्यक और पर्याप्त स्थिति प्रदान करती हैं: यदि की रैंक $$\mathbf{\Sigma}$$ मैट्रिक्स एक से बड़ा है।

बल्कि बड़े आव्यूहों के लिए एसवीडी का एक अनुप्रयोग संख्यात्मक मौसम भविष्यवाणी में है, जहां लैंक्ज़ोस एल्गोरिथम का उपयोग दी गई आरंभिक आगे की समयावधि में केंद्रीय संख्यात्मक मौसम पूर्वानुमान के लिए सबसे अधिक रैखिक रूप से तेजी से बढ़ने वाले कुछ क्षोभों का अनुमान लगाने के लिए किया जाता है; यानी, उस समय अंतराल पर वैश्विक मौसम के लिए लीनियराइज्ड प्रोपेगेटर के सबसे बड़े एकवचन मूल्यों के अनुरूप एकवचन वैक्टर। इस मामले में आउटपुट सिंगुलर वैक्टर संपूर्ण मौसम प्रणालियां हैं। इन क्षोभों को तब पूर्ण गैर-रैखिक मॉडल के माध्यम से चलाया जाता है ताकि एक पहनावा पूर्वानुमान उत्पन्न किया जा सके, जो कुछ अनिश्चितताओं पर नियंत्रण प्रदान करता है जिसे वर्तमान केंद्रीय भविष्यवाणी के लिए अनुमति दी जानी चाहिए।

एसवीडी को घटे हुए ऑर्डर मॉडलिंग के लिए भी लागू किया गया है। कम क्रम मॉडलिंग का उद्देश्य एक जटिल प्रणाली में स्वतंत्रता की डिग्री की संख्या को कम करना है जिसे मॉडलिंग करना है। एसवीडी को त्रि-आयामी अस्थिर प्रवाह समस्याओं के समाधानों को प्रक्षेपित करने के लिए रेडियल आधार कार्यों के साथ जोड़ा गया था। दिलचस्प बात यह है कि एसवीडी का उपयोग ग्राउंड-बेस्ड ग्रेविटेशनल-वेव इंटरफेरोमीटर एलआईजीओ द्वारा ग्रेविटेशनल वेवफॉर्म मॉडलिंग को बेहतर बनाने के लिए किया गया है। SVD गुरुत्वीय-तरंगों की खोजों का समर्थन करने और दो अलग-अलग तरंग मॉडल को अपडेट करने के लिए तरंग निर्माण की सटीकता और गति को बढ़ाने में मदद कर सकता है।

लोगों की आइटम रेटिंग की भविष्यवाणी करने के लिए सिफ़ारिश करने वाले सिस्टम में एकवचन मूल्य अपघटन का उपयोग किया जाता है। कमोडिटी मशीनों के क्लस्टर पर एसवीडी की गणना के उद्देश्य से वितरित एल्गोरिदम विकसित किए गए हैं। बीमारी के प्रकोप का पता लगाने के लिए आवेदन के साथ spatiotemporal डेटा से हॉटस्पॉट का पता लगाने के लिए निम्न-श्रेणी के एसवीडी को लागू किया गया है। रोग निगरानी में जटिल डेटा स्ट्रीम (अंतरिक्ष और समय आयामों के साथ बहुभिन्नरूपी डेटा) से वास्तविक समय घटना का पता लगाने के लिए एसवीडी और उच्च-क्रम के एकवचन मूल्य अपघटन का एक संयोजन। उच्च-क्रम एसवीडी भी लागू किया गया है।

अस्तित्व का प्रमाण
एक आइगेनवैल्यू λ}एक मैट्रिक्स का $UIV^{⁎}$ बीजगणितीय संबंध की विशेषता है $I$. कब $A = UΣV^{⁎}$ हर्मिटियन मैट्रिक्स है, एक परिवर्तनशील लक्षण वर्णन भी उपलब्ध है। होने देना $A = UV^{⁎}$ वास्तविक बनो $R = UV^{⁎}$ सममित मैट्रिक्स। परिभाषित करना


 * $$\begin{cases}

f : \R^n \to \R \\ f : \mathbf{x} \mapsto \mathbf{x}^\textsf{T} \mathbf{M} \mathbf{x} \end{cases}$$ चरम मूल्य प्रमेय द्वारा, यह निरंतर कार्य इकाई क्षेत्र तक सीमित होने पर कुछ यू पर अधिकतम प्राप्त करता है {||x|| = 1}। लग्रेंज गुणक प्रमेय द्वारा, आप आवश्यक रूप से संतुष्ट करते हैं


 * $$\nabla \mathbf{u}^\textsf{T} \mathbf{M} \mathbf{u} - \lambda \cdot \nabla \mathbf{u}^\textsf{T} \mathbf{u} = 0$$

कुछ वास्तविक संख्या के लिए $λ$. नबला प्रतीक, $M = RP = P'R$, डेल ऑपरेटर है (x के संबंध में विभेदन)। की समरूपता का उपयोग करना $O$ हमने प्राप्त


 * $$\nabla \mathbf{x}^\textsf{T} \mathbf{M} \mathbf{x} - \lambda \cdot \nabla \mathbf{x}^\textsf{T} \mathbf{x} = 2(\mathbf{M}-\lambda \mathbf{I})\mathbf{x}.$$

इसलिए $A$, इसलिए u एक इकाई लंबाई का आइजनवेक्टर है $B$. प्रत्येक इकाई लंबाई के लिए eigenvector v $M = A^B$ इसका eigenvalue f('v') है, इसलिए $λ$ का सबसे बड़ा eigenvalue है $M$. यू के ऑर्थोगोनल पूरक पर की गई एक ही गणना अगले सबसे बड़े ईजेनवेल्यू और इसी तरह देती है। जटिल हर्मिटियन मामला समान है; वहाँ f(x) = x* M x का वास्तविक-मूल्यवान फलन है $Mu = λu$ वास्तविक चर।

एकवचन मान समान होते हैं कि उन्हें बीजगणितीय रूप से या परिवर्तनशील सिद्धांतों से वर्णित किया जा सकता है। हालांकि, eigenvalue मामले के विपरीत, Hermiticity, या समरूपता, की $M$ की अब आवश्यकता नहीं है।

यह खंड एकवचन मूल्य अपघटन के अस्तित्व के लिए ये दो तर्क देता है।

स्पेक्ट्रल प्रमेय
पर आधारित होने देना $$\mathbf{M}$$ सेम $M$ जटिल मैट्रिक्स। तब से $$\mathbf{M}^* \mathbf{M}$$ वर्णक्रमीय प्रमेय द्वारा सकारात्मक अर्ध-निश्चित और हर्मिटियन है, वहां मौजूद है $n × n$ एकात्मक मैट्रिक्स $$\mathbf{V}$$ ऐसा है कि


 * $$\mathbf{V}^* \mathbf{M}^* \mathbf{M} \mathbf{V} = \bar\mathbf{D} = \begin{bmatrix} \mathbf{D} & 0 \\ 0 & 0\end{bmatrix},$$

कहाँ $$\mathbf{D}$$ विकर्ण और सकारात्मक निश्चित, आयाम का है $$\ell\times \ell$$, साथ $$\ell$$ के गैर-शून्य eigenvalues ​​​​की संख्या $$\mathbf{M}^* \mathbf{M}$$ (जिसे सत्यापित करने के लिए दिखाया जा सकता है $$\ell\le\min(n,m)$$). ध्यान दें कि $$\mathbf{V}$$ यहाँ परिभाषा के अनुसार एक मैट्रिक्स है जिसका $$i$$-वाँ स्तंभ है $$i$$का -वां ईजेनवेक्टर $$\mathbf{M}^* \mathbf{M}$$, eigenvalue के अनुरूप $$\bar{\mathbf{D}}_{ii}$$. इसके अलावा, $$j$$-वाँ स्तंभ $$\mathbf{V}$$, के लिए $$j>\ell$$, का आइजनवेक्टर है $$\mathbf{M}^* \mathbf{M}$$ आइगेनवैल्यू के साथ $$\bar{\mathbf{D}}_{jj}=0$$. इसे लिखकर व्यक्त किया जा सकता है $$\mathbf{V}$$ जैसा $$\mathbf{V}=\begin{bmatrix}\mathbf{V}_1 &\mathbf{V}_2\end{bmatrix}$$, जहां के कॉलम $$\mathbf{V}_1$$ और $$\mathbf{V}_2$$ इसलिए के eigenvectors शामिल हैं $$\mathbf{M}^* \mathbf{M}$$ क्रमशः गैर-शून्य और शून्य eigenvalues ​​​​के अनुरूप। इस पुनर्लेखन का उपयोग करना $$\mathbf{V}$$समीकरण बन जाता है:


 * $$\begin{bmatrix} \mathbf{V}_1^* \\ \mathbf{V}_2^* \end{bmatrix} \mathbf{M}^* \mathbf{M} \begin{bmatrix} \mathbf{V}_1 & \mathbf{V}_2 \end{bmatrix} = \begin{bmatrix} \mathbf{V}_1^* \mathbf{M}^* \mathbf{M} \mathbf{V}_1 & \mathbf{V}_1^* \mathbf{M}^* \mathbf{M} \mathbf{V}_2 \\ \mathbf{V}_2^* \mathbf{M}^* \mathbf{M} \mathbf{V}_1 & \mathbf{V}_2^* \mathbf{M}^* \mathbf{M} \mathbf{V}_2 \end{bmatrix} = \begin{bmatrix} \mathbf{D} & 0 \\ 0 & 0 \end{bmatrix}.$$

इसका अर्थ यह है कि


 * $$\mathbf{V}_1^* \mathbf{M}^* \mathbf{M} \mathbf{V}_1 = \mathbf{D}, \quad \mathbf{V}_2^* \mathbf{M}^* \mathbf{M} \mathbf{V}_2 = \mathbf{0}.$$

इसके अलावा, दूसरे समीकरण का तात्पर्य है $$\mathbf{M}\mathbf{V}_2 = \mathbf{0}$$. अंत में, की एकात्मकता $$\mathbf{V}$$ के संदर्भ में अनुवाद करता है $$\mathbf{V}_1$$ और $$\mathbf{V}_2$$, निम्नलिखित स्थितियों में:


 * $$\begin{align}

\mathbf{V}_1^* \mathbf{V}_1 &= \mathbf{I}_1, \\ \mathbf{V}_2^* \mathbf{V}_2 &= \mathbf{I}_2, \\ \mathbf{V}_1 \mathbf{V}_1^* + \mathbf{V}_2 \mathbf{V}_2^* &= \mathbf{I}_{12}, \end{align}$$ जहां आइडेंटिटी मैट्रिसेस पर सबस्क्रिप्ट का उपयोग यह बताने के लिए किया जाता है कि वे विभिन्न आयामों के हैं।

आइए अब परिभाषित करते हैं


 * $$\mathbf{U}_1 = \mathbf{M} \mathbf{V}_1 \mathbf{D}^{-\frac{1}{2}}.$$

तब,


 * $$\mathbf{U}_1 \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* = \mathbf{M} \mathbf{V}_1 \mathbf{D}^{-\frac{1}{2}} \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* = \mathbf{M} (\mathbf{I} - \mathbf{V}_2\mathbf{V}_2^*) = \mathbf{M} - (\mathbf{M}\mathbf{V}_2)\mathbf{V}_2^* = \mathbf{M},$$

तब से $$\mathbf{M}\mathbf{V}_2 = \mathbf{0}. $$ इसे इस तथ्य के तत्काल परिणाम के रूप में भी देखा जा सकता है कि $$\mathbf{M}\mathbf{V}_1\mathbf{V}_1^* = \mathbf{M}$$. यह अवलोकन के बराबर है कि यदि $$\{\boldsymbol v_i\}_{i=1}^\ell$$ के ईजेनवेक्टरों का समुच्चय है $$\mathbf{M}^* \mathbf{M}$$ गैर-लुप्त होने वाले eigenvalues ​​​​के अनुरूप $$\{\lambda_i\}_{i=1}^\ell$$, तब $$\{\mathbf M \boldsymbol v_i\}_{i=1}^\ell$$ ऑर्थोगोनल वैक्टर का एक सेट है, और $$\{\lambda_i^{-1/2}\mathbf M \boldsymbol v_i\}_{i=1}^\ell$$ ऑर्थोनॉर्मल वैक्टर का एक (आमतौर पर पूर्ण नहीं) सेट है। यह मैट्रिक्स औपचारिकता के साथ मेल खाता है जिसका उपयोग ऊपर दर्शाया गया है $$\mathbf{V}_1$$ मैट्रिक्स जिसका स्तंभ हैं $$\{\boldsymbol v_i\}_{i=1}^\ell$$, साथ $$\mathbf{V}_2$$ वह मैट्रिक्स जिसके स्तंभ आइजेनवेक्टर हैं $$\mathbf{M}^* \mathbf{M}$$ गायब होने वाले आइगेनवैल्यू के साथ, और $$\mathbf{U}_1$$ वह मैट्रिक्स जिसके स्तंभ सदिश होते हैं $$\{\lambda_i^{-1/2}\mathbf M \boldsymbol v_i\}_{i=1}^\ell$$.

हम देखते हैं कि यह लगभग वांछित परिणाम है, सिवाय इसके $$\mathbf{U}_1$$ और $$\mathbf{V}_1$$ आम तौर पर एकात्मक नहीं होते हैं, क्योंकि वे वर्गाकार नहीं हो सकते हैं। हालाँकि, हम जानते हैं कि पंक्तियों की संख्या $$\mathbf{U}_1$$ के आयामों के बाद से स्तंभों की संख्या से छोटा नहीं है $$\mathbf{D}$$ से बड़ा नहीं है $$m$$ और $$n$$. इसके अलावा, चूंकि


 * $$\mathbf{U}_1^*\mathbf{U}_1 = \mathbf{D}^{-\frac{1}{2}}\mathbf{V}_1^*\mathbf{M}^*\mathbf{M} \mathbf{V}_1 \mathbf{D}^{-\frac{1}{2}}=\mathbf{D}^{-\frac{1}{2}}\mathbf{D}\mathbf{D}^{-\frac{1}{2}} = \mathbf{I_1},$$

कॉलम में $$\mathbf{U}_1$$ ऑर्थोनॉर्मल हैं और इसे ऑर्थोनॉर्मल आधार पर बढ़ाया जा सकता है। इसका मतलब है कि हम चुन सकते हैं $$\mathbf{U}_2$$ ऐसा है कि $$\mathbf{U} = \begin{bmatrix} \mathbf{U}_1 & \mathbf{U}_2 \end{bmatrix}$$ एकात्मक है।

के लिए $∇$ हमारे पास पहले से है $M$ इसे एकात्मक बनाने के लिए। अब, परिभाषित करें


 * $$\boldsymbol{\Sigma} =

\begin{bmatrix} \begin{bmatrix} \mathbf{D}^\frac{1}{2} & 0 \\ 0                     & 0    \end{bmatrix} \\ 0 \end{bmatrix},$$ जहाँ शून्य पंक्तियों की संख्या को स्तंभों की संख्या के बराबर बनाने के लिए अतिरिक्त शून्य पंक्तियों को जोड़ा या हटाया जाता है $Mu = λu$, और इसलिए के समग्र आयाम $$\boldsymbol{\Sigma}$$ के बराबर $$m\times n$$. तब


 * $$ \begin{bmatrix}

\mathbf{U}_1 & \mathbf{U}_2 \end{bmatrix} \begin{bmatrix} \begin{bmatrix} \mathbf{}D^\frac{1}{2} & 0 \\ 0                     & 0    \end{bmatrix} \\ 0 \end{bmatrix} \begin{bmatrix} \mathbf{V}_1 & \mathbf{V}_2 \end{bmatrix}^* = \begin{bmatrix} \mathbf{U}_1 & \mathbf{U}_2 \end{bmatrix} \begin{bmatrix} \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* \\ 0 \end{bmatrix} = \mathbf{U}_1 \mathbf{D}^\frac{1}{2} \mathbf{V}_1^* = \mathbf{M},$$ जो वांछित परिणाम है:


 * $$\mathbf{M} = \mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^*.$$

ध्यान दें कि तर्क विकर्ण के साथ शुरू हो सकता है $M$ इसके बजाय $M$ (यह सीधे दिखाता है कि $M$ और $2n$ समान गैर-शून्य eigenvalues ​​हैं)।

परिवर्तनशील लक्षण वर्णन के आधार पर
एकवचन मूल्यों को अधिकतम के रूप में भी चित्रित किया जा सकता है $M$, के एक कार्य के रूप में माना जाता है $m × n$ और $n × n$, विशेष उप-स्थानों पर। एकवचन सदिश के मान हैं $V_{1}$ और $V_{2}$ जहां ये अधिकतम प्राप्त होते हैं।

होने देना $U_{2}$ एक को निरूपित करें $MM^{⁎}$ वास्तविक प्रविष्टियों के साथ मैट्रिक्स। होने देना $M^{⁎}M$ इकाई हो $$(k-1)$$-क्षेत्र में $$ \mathbb{R}^k $$, और परिभाषित करें $$\sigma(\mathbf{u}, \mathbf{v}) = \mathbf{u}^\textsf{T} \mathbf{M} \mathbf{v},\ \mathbf{u} \in S^{m-1}, \mathbf{v} \in S^{n-1}.$$ समारोह पर विचार करें $σ$ तक सीमित $MM^{⁎}$. चूंकि दोनों $M^{⁎}M$ और $u^Mv$ कॉम्पैक्ट जगह  सेट हैं, उनका उत्पाद टोपोलॉजी भी कॉम्पैक्ट है। इसके अलावा, चूंकि $σ$ निरंतर है, यह कम से कम एक जोड़ी वैक्टर के लिए सबसे बड़ा मान प्राप्त करता है $u$ और $v$. यह सबसे बड़ा मान निरूपित किया गया है $u$ और संबंधित सदिशों को निरूपित किया जाता है $v$ और $M$. तब से $m × n$ का सबसे बड़ा मान है $S^{k−1}$ यह गैर-ऋणात्मक होना चाहिए। यदि यह ऋणात्मक था, तो दोनों में से किसी का चिह्न बदल रहा है $S^{m−1} × S^{n−1}$ या $S^{m−1}$ इसे सकारात्मक और इसलिए बड़ा बना देगा।

कथन। $S^{n−1}$ के बाएँ और दाएँ-एकवचन सदिश हैं $u ∈ S^{m−1}$ संगत एकवचन मान σ के साथ1.

सबूत। आइगेनवैल्यूज़ मामले के समान, धारणा के अनुसार दो वैक्टर लैग्रेंज गुणक समीकरण को संतुष्ट करते हैं:


 * $$\nabla \sigma = \nabla \mathbf{u}^\textsf{T} \mathbf{M} \mathbf{v} - \lambda_1 \cdot \nabla \mathbf{u}^\textsf{T} \mathbf{u} - \lambda_2 \cdot \nabla \mathbf{v}^\textsf{T} \mathbf{v}$$

कुछ बीजगणित के बाद, यह बन जाता है


 * $$\begin{align}

\mathbf{M} \mathbf{v}_{1} &= 2 \lambda_1 \mathbf{u}_1 + 0 \\ \mathbf{M}^\textsf{T} \mathbf{u}_{1} &= 0 + 2 \lambda_2 \mathbf{v}_1 \end{align}$$ पहले समीकरण को बायें से गुणा करने पर $$\mathbf{u}_1^\textsf{T}$$ और बायें से दूसरा समीकरण $$\mathbf{v}_1^\textsf{T}$$ और ले रहा है $v ∈ S^{n−1}$ खाते में देता है


 * $$\sigma_1 = 2\lambda_1 = 2\lambda_2.$$

इसे उपरोक्त समीकरणों के युग्म में रखकर, हमारे पास है


 * $$\begin{align}

\mathbf{M} \mathbf{v}_1 &= \sigma_1 \mathbf{u}_1\\ \mathbf{M}^\textsf{T} \mathbf{u}_1 &= \sigma_1 \mathbf{v}_1 \end{align}$$ यह कथन सिद्ध करता है।

अधिक से अधिक एकवचन सदिश और एकवचन मान अधिकतम करके प्राप्त किए जा सकते हैं $σ_{1}$ सामान्य से अधिक $u_{1}$ जो ओर्थोगोनल हैं $v_{1}$ और $σ_{1}$, क्रमश।

वास्तविक से जटिल तक का मार्ग eigenvalue केस के समान है।

एसवीडी की गणना
निम्नलिखित अवलोकनों का उपयोग करके एकवचन मूल्य अपघटन की गणना की जा सकती है:
 * के बाएँ-एकवचन सदिश $σ(u, v)$ के ऑर्थोनॉर्मल ईजेनवेक्टर का एक सेट है $u_{1}$.
 * का सही-एकवचन वैक्टर $v_{1}$ के ऑर्थोनॉर्मल ईजेनवेक्टर का एक सेट है $u_{1}, v_{1}$.
 * गैर-शून्य एकवचन मान $M$ (की विकर्ण प्रविष्टियों पर पाया गया $$\mathbf{\Sigma}$$) दोनों के गैर-शून्य eigenvalues ​​​​के वर्गमूल हैं $u = v = 1$ और $σ(u, v)$.

संख्यात्मक दृष्टिकोण
एक मैट्रिक्स का एसवीडी $u, v$ की गणना आमतौर पर दो-चरणीय प्रक्रिया द्वारा की जाती है। पहले चरण में, मैट्रिक्स को बिडायगोनल मैट्रिक्स में घटाया जाता है। यह बिग ओ नोटेशन लेता है (mn2) फ्लोटिंग-पॉइंट ऑपरेशंस (फ्लॉप), यह मानते हुए कि m ≥ n। दूसरा चरण बिडायगोनल मैट्रिक्स के एसवीडी की गणना करना है। यह कदम केवल पुनरावृत्त विधि के साथ किया जा सकता है (जैसा कि eigenvalue एल्गोरिदम के साथ)। हालांकि, व्यवहार में यह मशीन एप्सिलॉन की तरह एक निश्चित सटीकता तक एसवीडी की गणना करने के लिए पर्याप्त है। यदि इस परिशुद्धता को स्थिर माना जाता है, तो दूसरा चरण O(n) पुनरावृत्तियों को लेता है, प्रत्येक की लागत O(n) फ्लॉप होती है। इस प्रकार, पहला चरण अधिक महंगा है, और कुल लागत O(mn2) फ्लॉप.

4mn की लागत से पहला कदम गृहस्थ प्रतिबिंब का उपयोग करके किया जा सकता है2 − 4n3/3 फ्लॉप, यह मानते हुए कि केवल एकवचन मानों की आवश्यकता है न कि एकवचन सदिशों की। यदि m n से बहुत बड़ा है तो पहले मैट्रिक्स को कम करना फायदेमंद होता है $u_{1}$ क्यूआर अपघटन के साथ एक त्रिकोणीय मैट्रिक्स के लिए और फिर मैट्रिक्स को बिडियागोनल रूप में कम करने के लिए हाउसहोल्डर प्रतिबिंबों का उपयोग करें; संयुक्त लागत 2mn हैए   + ए 3 फ्लॉप.

दूसरा चरण eigenvalues ​​​​की गणना के लिए क्यूआर एल्गोरिदम के एक संस्करण द्वारा किया जा सकता है, जिसे पहले वर्णित किया गया था. LAPACK सबरूटीन DBDSQR इस पुनरावृत्त विधि को लागू करता है, कुछ संशोधनों के साथ उस मामले को कवर करने के लिए जहां एकवचन मान बहुत छोटा है. हाउसहोल्डर रिफ्लेक्शंस का उपयोग करने वाले पहले चरण के साथ और, यदि उपयुक्त हो, क्यूआर अपघटन, यह डीजीईएसवीडी बनाता है एकवचन मूल्य अपघटन की गणना के लिए दिनचर्या।

जीएनयू वैज्ञानिक पुस्तकालय (जीएसएल) में एक ही एल्गोरिदम लागू किया गया है। GSL एक वैकल्पिक विधि भी प्रदान करता है जो चरण 2 में एक तरफा जैकोबी ऑर्थोगोनलाइज़ेशन का उपयोग करता है. यह विधि 2 × 2 एसवीडी समस्याओं के अनुक्रम को हल करके बाइडायगोनल मैट्रिक्स के एसवीडी की गणना करती है, इसी तरह जैकोबी ईजेनवेल्यू एल्गोरिथम 2 × 2 ईजेनवेल्यू विधियों के अनुक्रम को हल करता है।. फिर भी चरण 2 के लिए एक अन्य विधि विभाजित और जीत eigenvalue एल्गोरिदम के विचार का उपयोग करती है.

एक वैकल्पिक तरीका है जो स्पष्ट रूप से ईजेनवेल्यू अपघटन का उपयोग नहीं करता है। आमतौर पर एक मैट्रिक्स की विलक्षण मूल्य समस्या $v_{1}$ को समतुल्य सममित ईजेनवेल्यू समस्या में परिवर्तित किया जाता है जैसे $M$, $MM^{⁎}$, या
 * $$ \begin{bmatrix} \mathbf{O} & \mathbf{M} \\ \mathbf{M}^* & \mathbf{O} \end{bmatrix}. $$

ईगेनवैल्यू अपघटन का उपयोग करने वाले दृष्टिकोण क्यूआर एल्गोरिदम पर आधारित होते हैं, जो स्थिर और तेज़ होने के लिए अच्छी तरह से विकसित होते हैं। ध्यान दें कि एकवचन मूल्य वास्तविक हैं और समानता परिवर्तन बनाने के लिए दाएं और बाएं एकवचन वैक्टर की आवश्यकता नहीं है। वास्तविक विकर्ण हर्मिटियन मैट्रिक्स को खोजने के लिए कोई भी क्यूआर अपघटन और एलक्यू अपघटन के बीच वैकल्पिक रूप से वैकल्पिक हो सकता है। क्यूआर अपघटन देता है $M$ और LQ का अपघटन $M^{⁎}M$ देता है $M$. इस प्रकार, प्रत्येक पुनरावृत्ति पर, हमारे पास है $M^{⁎}M$, अद्यतन $MM^{⁎}$ और ऑर्थोगोनलाइजेशन दोहराएं। अंततः, क्यूआर अपघटन और एलक्यू अपघटन के बीच यह पुनरावृति बाएँ और दाएँ-एकात्मक एकवचन मैट्रिक्स का उत्पादन करती है। इस दृष्टिकोण को आसानी से त्वरित नहीं किया जा सकता है, क्योंकि क्यूआर एल्गोरिथ्म वर्णक्रमीय बदलाव या अपस्फीति के साथ हो सकता है। ऐसा इसलिए है क्योंकि समानता परिवर्तनों का उपयोग किए बिना शिफ्ट पद्धति को आसानी से परिभाषित नहीं किया जा सकता है। हालांकि, यह पुनरावृत्त दृष्टिकोण लागू करने के लिए बहुत सरल है, इसलिए जब गति कोई मायने नहीं रखती है तो यह एक अच्छा विकल्प है। यह विधि इस बात की भी जानकारी देती है कि विशुद्ध रूप से ऑर्थोगोनल/एकात्मक परिवर्तन एसवीडी कैसे प्राप्त कर सकते हैं।

2 × 2 एसवीडी
का विश्लेषणात्मक परिणाम 2 × 2 मैट्रिक्स के एकवचन मान विश्लेषणात्मक रूप से पाए जा सकते हैं। मैट्रिक्स रहने दो $$\mathbf{M} = z_0\mathbf{I} + z_1\sigma_1 + z_2\sigma_2 + z_3\sigma_3$$ कहाँ $$z_i \in \mathbb{C}$$ जटिल संख्याएं हैं जो मैट्रिक्स को पैरामीटर करती हैं, $M$ पहचान मैट्रिक्स है, और $$\sigma_i$$ पॉल मैट्रिसेस को निरूपित करें। तब इसके दो एकवचन मान दिए जाते हैं
 * $$\begin{align}

\sigma_\pm &= \sqrt{|z_0|^2 + |z_1|^2 + |z_2|^2 + |z_3|^2 \pm \sqrt{(|z_0|^2 + |z_1|^2 + |z_2|^2 + |z_3|^2)^2 - |z_0^2 - z_1^2 - z_2^2 - z_3^2|^2}} \\ &= \sqrt{|z_0|^2 + |z_1|^2 + |z_2|^2 + |z_3|^2 \pm 2\sqrt{(\operatorname{Re}z_0z_1^*)^2 + (\operatorname{Re}z_0z_2^*)^2 + (\operatorname{Re}z_0z_3^*)^2 + (\operatorname{Im}z_1z_2^*)^2 + (\operatorname{Im}z_2z_3^*)^2 + (\operatorname{Im}z_3z_1^*)^2}} \end{align}$$

कम एसवीडी
[[File:Reduced Singular Value Decompositions.svg|thumb|कम किए गए SVD वेरिएंट का विज़ुअलाइज़ेशन। ऊपर से नीचे: 1: पूर्ण एसवीडी,

2: पतला एसवीडी (यू के कॉलम को हटा दें जो वी * की पंक्तियों के अनुरूप नहीं है),

3: कॉम्पैक्ट एसवीडी (यू और वी* में गायब होने वाले एकवचन मूल्यों और संबंधित कॉलम/पंक्तियों को हटा दें),

4: कटा हुआ एसवीडी (यू और वी * में केवल सबसे बड़ा टी एकवचन मान और संबंधित कॉलम/पंक्तियां रखें)]]अनुप्रयोगों में यह पूर्ण एसवीडी के लिए काफी असामान्य है, जिसमें मैट्रिक्स के शून्य-स्थान के पूर्ण एकात्मक अपघटन की आवश्यकता होती है। इसके बजाय, एसवीडी के एक कम संस्करण की गणना करने के लिए यह अक्सर पर्याप्त (साथ ही तेज, और भंडारण के लिए अधिक किफायती) होता है। रैंक आर के एम × एन मैट्रिक्स एम के लिए निम्नलिखित को अलग किया जा सकता है:

पतली एसवीडी
एक मैट्रिक्स M का पतला, या अर्थव्यवस्था-आकार, SVD द्वारा दिया जाता है
 * $$\mathbf{M} = \mathbf{U}_k \boldsymbol{\Sigma}_k \mathbf{V}^*_k,$$

कहाँ


 * $$k = \operatorname{min}(m, n)$$,

मेट्रिसेस यूk और वीk U और V के केवल पहले k कॉलम और Σ शामिल हैंk Σ से केवल पहले k एकवचन मान शामिल हैं। मैट्रिक्स यूk इस प्रकार एम × के, Σ हैk k × k विकर्ण है, और Vk* के × एन है।

पतला एसवीडी काफी कम स्थान और संगणना समय का उपयोग करता है यदि के ≪ अधिकतम(एम, एन)। इसकी गणना में पहला चरण आमतौर पर एम का एक क्यूआर अपघटन होगा, जो इस मामले में काफी तेज गणना कर सकता है।

कॉम्पैक्ट एसवीडी

 * $$\mathbf{M} = \mathbf{U}_r \boldsymbol{\Sigma}_r \mathbf{V}_r^*$$

यू के केवल आर कॉलम वैक्टर और वी * के आर पंक्ति वैक्टर गैर-शून्य एकवचन मान Σ के अनुरूप हैंr गणना की जाती है। U और V* के शेष सदिशों की गणना नहीं की जाती है। यह पतली एसवीडी की तुलना में तेज़ और अधिक किफायती है यदि r ≪ min(m, n)। मैट्रिक्स यूr इस प्रकार एम × आर, Σ हैr आर × आर विकर्ण है, और वीr* आर × एन है।

कटा हुआ एसवीडी
कई अनुप्रयोगों में गैर-शून्य एकवचन मानों की संख्या आर बड़ी है, जिससे कॉम्पैक्ट एसवीडी भी गणना करने के लिए अव्यावहारिक हो जाता है। ऐसे मामलों में, केवल t ≪ r गैर-शून्य एकवचन मानों की गणना करने के लिए सबसे छोटे एकवचन मानों को छोटा करने की आवश्यकता हो सकती है। छोटा किया गया SVD अब मूल मैट्रिक्स M का सटीक अपघटन नहीं है, बल्कि इष्टतम #निम्न-रैंक मैट्रिक्स सन्निकटन प्रदान करता है|निम्न-रैंक मैट्रिक्स सन्निकटन $$\tilde{\mathbf{M}}$$ निश्चित रैंक टी के किसी भी मैट्रिक्स द्वारा


 * $$\tilde{\mathbf{M}} = \mathbf{U}_t \boldsymbol{\Sigma}_t \mathbf{V}_t^*$$,

जहां मैट्रिक्स यूt एम × टी, एस हैt टी × टी विकर्ण है, और वीt* टी × एन है। यू के केवल टी कॉलम वैक्टर और वी * के टी पंक्ति वैक्टर टी सबसे बड़े एकवचन मूल्यों के अनुरूप हैं Σt गणना की जाती है। यह कॉम्पैक्ट एसवीडी की तुलना में बहुत तेज और अधिक किफायती हो सकता है, लेकिन इसके लिए संख्यात्मक सॉल्वरों के एक पूरी तरह से अलग टूलसेट की आवश्यकता होती है।

उन अनुप्रयोगों में जिन्हें मैट्रिक्स एम के मूर-पेनरोज़ व्युत्क्रम के सन्निकटन की आवश्यकता होती है, एम के सबसे छोटे एकवचन मूल्य रुचि के होते हैं, जो सबसे बड़े लोगों की तुलना में गणना करने के लिए अधिक चुनौतीपूर्ण होते हैं।

ट्रंकेटेड एसवीडी गुप्त सिमेंटिक इंडेक्सिंग में कार्यरत है।

क्यू फैन मानदंड
एम के सबसे बड़े एकवचन मूल्यों का योग एक मैट्रिक्स मानदंड है, एम का क्यू फैन के-मानदंड। Ky फैन मानदंडों में से पहला, Ky फैन 1-मानदंड, K के यूक्लिडियन मानदंडों के संबंध में एक रैखिक ऑपरेटर के रूप में M के ऑपरेटर मानदंड के समान है।मी और केएन. दूसरे शब्दों में, क्यू फैन 1-मानदंड मानक ℓ से प्रेरित ऑपरेटर मानदंड है2 यूक्लिडियन आंतरिक उत्पाद। इस कारण इसे संचालिका 2-मानक भी कहा जाता है। Ky Fan 1-मानक और एकवचन मूल्यों के बीच संबंध को आसानी से सत्यापित किया जा सकता है। हिल्बर्ट रिक्त स्थान पर (संभवतः अनंत-आयामी) परिबद्ध संचालिका M के लिए यह सामान्य रूप से सत्य है


 * $$\| \mathbf{M} \| = \| \mathbf{M}^* \mathbf{M} \|^\frac{1}{2}$$

लेकिन, मैट्रिक्स मामले में, (M* M)1/2 एक सामान्य मैट्रिक्स है, इसलिए ||M* M||1/2 (M* M) का सबसे बड़ा eigenvalue है1/2, यानी एम का सबसे बड़ा एकवचन मान।

क्यू फैन मानदंडों में से अंतिम, सभी विलक्षण मूल्यों का योग, ट्रेस क्लास (जिसे 'परमाणु मानदंड' के रूप में भी जाना जाता है) है, जिसे ||M|| द्वारा परिभाषित किया गया है। = ट्र [(एम * एम)1/2] (M* M के eigenvalues ​​एकवचन मानों के वर्ग हैं)।

हिल्बर्ट-श्मिट मानदंड
एकवचन मान ऑपरेटरों के स्थान पर दूसरे मानदंड से संबंधित हैं। हिल्बर्ट-श्मिट ऑपरेटर पर विचार करें। हिल्बर्ट-श्मिट आंतरिक उत्पाद पर $M$ मैट्रिक्स, द्वारा परिभाषित


 * $$\langle \mathbf{M}, \mathbf{N} \rangle = \operatorname{tr} \left (\mathbf{N}^*\mathbf{M} \right ).$$

तो प्रेरित मानदंड है


 * $$\| \mathbf{M} \| = \sqrt{\langle \mathbf{M}, \mathbf{M}\rangle} = \sqrt{\operatorname{tr} \left (\mathbf{M}^*\mathbf{M} \right )}.$$

चूंकि ट्रेस एकात्मक तुल्यता के तहत अपरिवर्तनीय है, यह दिखाता है


 * $$\| \mathbf{M} \| = \sqrt{\sum_i \sigma_i ^2}$$

कहाँ $σ_{i}$ के विलक्षण मूल्य हैं $M$. इसे फ्रोबेनियस मानदंड, स्कैटेन 2-मानदंड या हिल्बर्ट-श्मिट मानदंड कहा जाता है। $M M^{⁎}$. प्रत्यक्ष गणना से पता चलता है कि फ्रोबेनियस मानदंड $M^{⁎}M$ के साथ मेल खाता है:


 * $$\sqrt{\sum_{ij} | m_{ij} |^2}.$$

इसके अलावा, फ्रोबेनियस मानदंड और ट्रेस मानदंड (परमाणु मानदंड) स्कैटन मानदंड के विशेष मामले हैं।

स्केल-इनवेरिएंट एसवीडी
मैट्रिक्स A के एकवचन मान विशिष्ट रूप से परिभाषित हैं और A के बाएँ और / या दाएँ एकात्मक परिवर्तनों के संबंध में अपरिवर्तनीय हैं। दूसरे शब्दों में, यूएवी के एकवचन मान, एकात्मक U और V के लिए, A के एकवचन मान के बराबर हैं यह अनुप्रयोगों के लिए एक महत्वपूर्ण गुण है जिसमें घूर्णन के संबंध में यूक्लिडियन दूरियों और निश्चरता को संरक्षित करना आवश्यक है।

स्केल-इनवेरिएंट SVD, या SI-SVD, पारंपरिक एसवीडी के अनुरूप है, सिवाय इसके कि इसके विशिष्ट रूप से निर्धारित एकवचन मूल्य ए के विकर्ण परिवर्तनों के संबंध में अपरिवर्तनीय हैं। दूसरे शब्दों में, डीएई के एकवचन मूल्य, व्युत्क्रमणीय विकर्ण मैट्रिसेस डी और ई के लिए, ए के एकवचन मूल्यों के बराबर हैं। यह उन अनुप्रयोगों के लिए एक महत्वपूर्ण संपत्ति है जिसके लिए चर पर इकाइयों की पसंद (जैसे, मीट्रिक बनाम शाही इकाइयां) की आवश्यकता होती है।

हिल्बर्ट रिक्त स्थान पर परिबद्ध ऑपरेटर
गुणनखंडन $M ⇒ Q R$ को अलग किए जा सकने वाले हिल्बर्ट स्पेस H पर एक परिबद्ध संचालिका M तक बढ़ाया जा सकता है। अर्थात्, किसी भी बाउंडेड ऑपरेटर M के लिए, एक आंशिक आइसोमेट्री U, एक एकात्मक V, एक माप स्थान (X, μ), और एक गैर-नकारात्मक मापने योग्य मौजूद होता है च ऐसा है कि


 * $$\mathbf{M} = \mathbf{U} T_f \mathbf{V}^*$$

कहाँ $$T_f$$ L पर गुणन संकारक है2(एक्स, μ).

यह उपरोक्त मैट्रिक मामले के लिए रैखिक बीजगणितीय तर्क की नकल करके दिखाया जा सकता है। वीटीfV*, M*M का अद्वितीय सकारात्मक वर्गमूल है, जैसा कि स्व-संलग्न संचालकों के लिए बोरेल कार्यात्मक कलन द्वारा दिया गया है। यू को एकात्मक नहीं होने का कारण यह है कि परिमित-आयामी मामले के विपरीत, एक आइसोमेट्री यू दिया गया है1 गैर तुच्छ गिरी के साथ, एक उपयुक्त यू2 ऐसा नहीं मिल सकता है


 * $$\begin{bmatrix} U_1 \\ U_2 \end{bmatrix}$$

एकात्मक संचालिका है।

मैट्रिसेस के लिए, एकवचन मूल्य कारक ऑपरेटरों के लिए ध्रुवीय अपघटन के बराबर है: हम बस लिख सकते हैं


 * $$\mathbf{M} = \mathbf{U} \mathbf{V}^* \cdot \mathbf{V} T_f \mathbf{V}^*$$

और ध्यान दें कि U V* अभी भी एक आंशिक आइसोमेट्री है जबकि VTfवी * सकारात्मक है।

एकवचन मूल्य और कॉम्पैक्ट ऑपरेटर
एकवचन मान और बाएँ/दाएँ-एकवचन सदिशों की धारणा को हिल्बर्ट स्पेस पर कॉम्पैक्ट ऑपरेटर तक बढ़ाया जा सकता है क्योंकि उनके पास असतत स्पेक्ट्रम होता है। अगर $T$ कॉम्पैक्ट है, प्रत्येक गैर-शून्य $λ$ इसके स्पेक्ट्रम में एक eigenvalue है। इसके अलावा, एक कॉम्पैक्ट स्व-आसन्न ऑपरेटर को इसके ईजेनवेक्टरों द्वारा विकर्ण किया जा सकता है। अगर $R$ कॉम्पैक्ट है, इसलिए है $R ⇒ L P^{⁎}$. विकर्ण परिणाम को लागू करना, इसके सकारात्मक वर्गमूल की एकात्मक छवि $T_{f}$ में ऑर्थोनॉर्मल ईजेनवेक्टर्स का एक सेट है $M ⇒ Q L P^{⁎}$ सख्ती से सकारात्मक eigenvalues ​​​​के अनुरूप $M ⇐ L$. किसी के लिए $I$,


 * $$\mathbf{M} \psi = \mathbf{U} T_f \mathbf{V}^* \psi = \sum_i \left \langle \mathbf{U} T_f \mathbf{V}^* \psi, \mathbf{U} e_i \right \rangle \mathbf{U} e_i = \sum_i \sigma_i \left \langle \psi, \mathbf{V} e_i \right \rangle \mathbf{U} e_i,$$

जहां श्रृंखला मानक टोपोलॉजी में परिवर्तित होती है $H$. ध्यान दें कि यह कैसे परिमित-आयामी मामले से अभिव्यक्ति जैसा दिखता है। $σ_{i}$ के एकवचन मान कहलाते हैं $n × n$. $M$ (सं. $M$) का बायां-एकवचन (उत्तर दायां-एकवचन) सदिश माना जा सकता है $M = (m_{ij})$.

हिल्बर्ट स्पेस पर कॉम्पैक्ट ऑपरेटर एकसमान ऑपरेटर टोपोलॉजी में परिमित-रैंक ऑपरेटरों के बंद होने हैं। उपरोक्त श्रृंखला अभिव्यक्ति एक स्पष्ट ऐसा प्रतिनिधित्व देती है। इसका एक तात्कालिक परिणाम है:


 * प्रमेय। $M = UΣV^{⁎}$ कॉम्पैक्ट है अगर और केवल अगर $M$ कॉम्पैक्ट है।

इतिहास
विलक्षण मूल्य अपघटन मूल रूप से विभेदक ज्यामिति द्वारा विकसित किया गया था, जो यह निर्धारित करना चाहता था कि क्या एक वास्तविक द्विरेखीय रूप को दो स्थानों के स्वतंत्र ऑर्थोगोनल परिवर्तनों द्वारा दूसरे के बराबर बनाया जा सकता है, जिस पर यह कार्य करता है। यूजेनियो बेल्ट्रामी और केमिली जॉर्डन ने क्रमशः 1873 और 1874 में स्वतंत्र रूप से खोज की, कि बिलिनियर रूपों के एकवचन मूल्य, एक मैट्रिक्स के रूप में प्रतिनिधित्व करते हैं, ऑर्थोगोनल प्रतिस्थापन के तहत बिलिनियर रूपों के लिए इनवेरिएंट (गणित) के इनवेरिएंट का एक पूरा सेट बनाते हैं। जेम्स जोसेफ सिल्वेस्टर भी 1889 में वास्तविक वर्ग मैट्रिसेस के लिए एकवचन मूल्य अपघटन पर पहुंचे, जाहिरा तौर पर बेल्ट्रामी और जॉर्डन दोनों से स्वतंत्र। सिल्वेस्टर ने एकवचन मूल्यों को मैट्रिक्स ए के विहित गुणक कहा। स्वतंत्र रूप से एकवचन मूल्य अपघटन की खोज करने वाले चौथे गणितज्ञ 1915 में लियोन ऑटोन हैं, जो ध्रुवीय अपघटन के माध्यम से इस पर पहुंचे। आयताकार और जटिल आव्यूहों के लिए एकवचन मूल्य अपघटन का पहला प्रमाण 1936 में कार्ल एकार्ट और गेल जे. यंग द्वारा दिया गया प्रतीत होता है; उन्होंने इसे हर्मिटियन मैट्रिक्स के लिए प्रधान अक्ष प्रमेय परिवर्तन के सामान्यीकरण के रूप में देखा।

1907 में, एरहार्ड श्मिट ने अभिन्न संचालिका ों के लिए एकवचन मूल्यों के एक एनालॉग को परिभाषित किया (जो कुछ कमजोर तकनीकी मान्यताओं के तहत कॉम्पैक्ट हैं); ऐसा लगता है कि वह परिमित आव्यूहों के विलक्षण मूल्यों पर समानांतर कार्य से अनभिज्ञ था। इस सिद्धांत को आगे 1910 में एमिल पिकार्ड द्वारा विकसित किया गया था, जो सबसे पहले संख्याओं को कॉल करते हैं $$\sigma_k$$ एकवचन मूल्य (या फ्रेंच में, वैलेर्स सिंगुलिएरेस)।

एसवीडी की गणना के लिए व्यावहारिक विधियाँ 1954-1955 में एरवंड कोगबेट्लिअन्ज़ और 1958 में मैग्नस हेस्टेन्स के समय से चली आ रही हैं। जैकोबी ईजेनवेल्यू एल्गोरिथम के समान है, जो समतल घुमाव या गिवेंस घुमाव का उपयोग करता है। हालाँकि, इन्हें 1965 में प्रकाशित जीन एच. गोलूब और विलियम कहाँ  की पद्धति द्वारा प्रतिस्थापित किया गया था, जो घरेलू परिवर्तन या प्रतिबिंब का उपयोग करता है। 1970 में, गोलूब और क्रिश्चियन रिंसच गोलूब/कहान एल्गोरिदम का एक संस्करण प्रकाशित किया जो आज भी सबसे अधिक उपयोग किया जाता है।

यह भी देखें
• Canonical correlation

• Canonical form

• Correspondence analysis (CA)

• Curse of dimensionality

• Digital signal processing

• Dimensionality reduction

• Eigendecomposition of a matrix

• Empirical orthogonal functions (EOFs)

• Fourier analysis

• Generalized singular value decomposition

• Inequalities about singular values

• K-SVD

• Latent semantic analysis

• Latent semantic indexing

• Linear least squares

• List of Fourier-related transforms

• Locality-sensitive hashing

• Low-rank approximation

• Matrix decomposition

• Multilinear principal component analysis (MPCA)

• Nearest neighbor search

• Non-linear iterative partial least squares

• Polar decomposition

• Principal component analysis (PCA)

• Schmidt decomposition

• Smith normal form

• Singular value

• Time series

• Two-dimensional singular-value decomposition (2DSVD)

• von Neumann's trace inequality

• Wavelet compression

संदर्भ

 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
 * Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data". McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.

बाहरी संबंध

 * Online SVD calculator