एक आव्यूह की समन्वयन

रैखिक बीजगणित में, eigendecomposition एक मैट्रिक्स (गणित) का एक विहित रूप में मैट्रिक्स गुणनखंड है, जिससे मैट्रिक्स को इसके eigenvalues ​​​​और eigenvectors के संदर्भ में दर्शाया जाता है। इस तरह से केवल विकर्ण मैट्रिक्स को कारक बनाया जा सकता है। जब मैट्रिक्स का गुणनखंड एक सामान्य मैट्रिक्स या वास्तविक सममित मैट्रिक्स होता है, तो अपघटन को वर्णक्रमीय अपघटन कहा जाता है, जिसे वर्णक्रमीय प्रमेय से प्राप्त किया जाता है।

मैट्रिक्स eigenvectors और eigenvalues ​​​​का मौलिक सिद्धांत
ए (अशून्य) वेक्टर $v$ आयाम का $N$ वर्ग का आइजनवेक्टर है $N × N$ आव्यूह $A$ यदि यह रूप के एक रेखीय समीकरण को संतुष्ट करता है
 * $$\mathbf{A} \mathbf{v} = \lambda \mathbf{v}$$

कुछ अदिश के लिए $λ$. तब $λ$ को संगत आइगेन मान कहा जाता है $v$. ज्यामितीय रूप से बोलना, के eigenvectors $A$ वे वैक्टर हैं जो $A$ केवल बढ़ता या सिकुड़ता है, और जिस राशि से वे बढ़ते/सिकुड़ते हैं वह आइगेनवेल्यू है। उपरोक्त समीकरण को आइगेनवैल्यू समीकरण या आइगेनवैल्यू समस्या कहा जाता है।

यह eigenvalues ​​के लिए एक समीकरण पैदा करता है
 * $$ p\left(\lambda\right) = \det\left(\mathbf{A} - \lambda \mathbf{I}\right)= 0. $$

हम बुलाते है $p(λ)$ विशेषता बहुपद, और समीकरण, जिसे विशेषता समीकरण कहा जाता है, एक है N}अज्ञात में वें क्रम बहुपद समीकरण $λ$. यह समीकरण होगा $N_{λ}$ अलग समाधान, जहां $1 ≤ N_{λ} ≤ N$. समाधानों के समुच्चय, यानी आइगेनवैल्यूज़ को मैट्रिक्स का स्पेक्ट्रम कहा जाता है $A$. यदि अदिशों का क्षेत्र बीजगणितीय रूप से बंद क्षेत्र है, तो हम गुणनखंडन कर सकते हैं $p$ जैसा
 * $$p\left(\lambda\right) = \left(\lambda - \lambda_1\right)^{n_1}\left(\lambda - \lambda_2\right)^{n_2} \cdots \left(\lambda-\lambda_{N_{\lambda}}\right)^{n_{N_{\lambda}}} = 0. $$

पूर्णांक $n_{i}$ को eigenvalue की बीजगणितीय बहुलता कहा जाता है $λ_{i}$. बीजगणितीय गुणन का योग है $N$: $\sum_{i=1}^{N_\lambda}{n_i} = N.$ प्रत्येक आइगेनवैल्यू के लिए $λ_{i}$, हमारे पास एक विशिष्ट eigenvalue समीकरण है
 * $$\left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v} = 0. $$

वहां $1 ≤ m_{i} ≤ n_{i}$ प्रत्येक eigenvalue समीकरण के लिए रैखिक रूप से स्वतंत्र समाधान। के रैखिक संयोजन $m_{i}$ समाधान (एक को छोड़कर जो शून्य वेक्टर देता है) आइगेनवैल्यू से जुड़े ईजेनवेक्टर हैं $λ_{i}$. पूर्णांक $m_{i}$ की ज्यामितीय बहुलता कहलाती है $λ_{i}$. बीजगणितीय बहुलता को ध्यान में रखना महत्वपूर्ण है $n_{i}$ और ज्यामितीय बहुलता $m_{i}$ बराबर हो भी सकता है और नहीं भी, लेकिन हमारे पास हमेशा होता है $m_{i} ≤ n_{i}$. सबसे सरल मामला बेशक है जब $m_{i} = n_{i} = 1$. रैखिक रूप से स्वतंत्र ईजेनवेक्टरों की कुल संख्या, $N_{v}$, की गणना ज्यामितीय गुणकों के योग द्वारा की जा सकती है
 * $$\sum_{i=1}^{N_{\lambda}}{m_i} = N_{\mathbf{v}}.$$

Eigenvectors को डबल इंडेक्स का उपयोग करके eigenvalues ​​​​द्वारा अनुक्रमित किया जा सकता है $v_{ij}$ किया जा रहा है $j$वें ईजेनवेक्टर के लिए $i$वां आइगेनवैल्यू। एकल सूचकांक के सरल अंकन का उपयोग करके ईजेनवेक्टरों को भी अनुक्रमित किया जा सकता है $v_{k}$, साथ $k = 1, 2, ..., N_{v}$.

एक आव्यूह का ईजेनडीकम्पोज़िशन
होने देना $A$ वर्ग बनो $n × n$ मैट्रिक्स के साथ $n$ रैखिक रूप से स्वतंत्र ईजेनवेक्टर $q_{i}$ (कहाँ $i = 1, ..., n$). तब $A$ के रूप में मैट्रिक्स अपघटन हो सकता है
 * $$\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1} $$

कहाँ $Q$ वर्ग है $n × n$ मैट्रिक्स जिसका $i$वाँ स्तंभ ईजेनवेक्टर है $q_{i}$ का $A$, और $Λ$ विकर्ण मैट्रिक्स है जिसके विकर्ण तत्व संगत eigenvalues ​​​​हैं, $Λ_{ii} = λ_{i}$. ध्यान दें कि इस तरह से केवल विकर्ण मैट्रिक्स को कारक बनाया जा सकता है। उदाहरण के लिए, दोषपूर्ण मैट्रिक्स $$\left[ \begin{smallmatrix} 1 & 1 \\ 0 & 1 \end{smallmatrix} \right]$$ (जो एक कतरनी मैट्रिक्स है) को विकर्ण नहीं किया जा सकता। $n}|n$ ईजेनवेक्टर $q_{i}$ आमतौर पर सामान्यीकृत होते हैं, लेकिन उन्हें होने की आवश्यकता नहीं होती है। का एक गैर-सामान्यीकृत सेट $n$ ईजेनवेक्टर, $v_{i}$ के कॉलम के रूप में भी इस्तेमाल किया जा सकता है $Q$. इसे इस बात से समझा जा सकता है कि ईजेनवेक्टरों का परिमाण $Q$ की उपस्थिति से अपघटन में रद्द हो जाता है $Q^{−1}$. यदि eigenvalues ​​​​में से एक $λ_{i}$ में एक से अधिक रैखिक रूप से स्वतंत्र ईजेनवेक्टर हैं (अर्थात, की ज्यामितीय बहुलता $λ_{i}$ 1 से अधिक है), तो इस eigenvalue के लिए ये eigenvectors $λ_{i}$ पारस्परिक रूप से ऑर्थोगोनल होने के लिए चुना जा सकता है; हालांकि, अगर दो ईजेनवेक्टर दो अलग-अलग ईजेनवैल्यू से संबंधित हैं, तो उनके लिए एक दूसरे के लिए ऑर्थोगोनल होना असंभव हो सकता है (नीचे उदाहरण देखें)। एक विशेष मामला यह है कि अगर $A$ एक सामान्य मैट्रिक्स है, फिर वर्णक्रमीय प्रमेय द्वारा, विकर्ण करना हमेशा संभव होता है $A$ n ऑर्थोनॉर्मल आधार पर ${q_{i} }$.

अपघटन eigenvectors की मौलिक संपत्ति से प्राप्त किया जा सकता है:
 * $$\begin{align}

\mathbf{A} \mathbf{v} &= \lambda \mathbf{v} \\ \mathbf{A} \mathbf{Q} &= \mathbf{Q} \mathbf{\Lambda} \\ \mathbf{A} &= \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}. \end{align}$$ रैखिक रूप से स्वतंत्र ईजेनवेक्टर $q_{i}$ अशून्य eigenvalues ​​​​के साथ सभी संभावित उत्पादों के लिए एक आधार (जरूरी नहीं कि orthonormal) बनाते हैं $Ax$, के लिए $x ∈ C^{n}$, जो संबंधित मैट्रिक्स परिवर्तन की छवि (गणित) (या किसी फ़ंक्शन की श्रेणी) के समान है, और मैट्रिक्स का स्तंभ स्थान भी है $A$. रैखिक रूप से स्वतंत्र ईजेनवेक्टरों की संख्या $q_{i}$ गैर शून्य eigenvalues ​​​​के साथ मैट्रिक्स के रैंक (रैखिक बीजगणित) के बराबर है $A$, और संबंधित मैट्रिक्स परिवर्तन की छवि (या श्रेणी) के आयाम के साथ-साथ इसके स्तंभ स्थान भी।

रैखिक रूप से स्वतंत्र ईजेनवेक्टर $q_{i}$ मैट्रिक्स परिवर्तन के शून्य स्थान (कर्नेल के रूप में भी जाना जाता है) के लिए शून्य फॉर्म के आधार के साथ (जिसे ऑर्थोनॉर्मल चुना जा सकता है) $A$.

उदाहरण
2 × 2 वास्तविक मैट्रिक्स $A$
 * $$\mathbf{A} = \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix}$$

एक गैर-एकवचन मैट्रिक्स के गुणन के माध्यम से एक विकर्ण मैट्रिक्स में विघटित हो सकता है $B$
 * $$\mathbf{B} = \begin{bmatrix}

a & b \\ c & d \end{bmatrix} \in \mathbb{R}^{2\times2}. $$ तब
 * $$\begin{bmatrix}

a & b \\ c & d  \end{bmatrix}^{-1}\begin{bmatrix} 1 & 0 \\   1 & 3  \end{bmatrix}\begin{bmatrix} a & b \\ c & d \end{bmatrix} = \begin{bmatrix} x & 0 \\ 0 & y \end{bmatrix}, $$ कुछ वास्तविक विकर्ण मैट्रिक्स के लिए $$\left[ \begin{smallmatrix} x & 0 \\ 0 & y \end{smallmatrix} \right]$$.

समीकरण के दोनों पक्षों को बायीं ओर से गुणा करने पर $B$:


 * $$\begin{bmatrix} 1 & 0 \\ 1 & 3 \end{bmatrix} \begin{bmatrix} a & b \\ c & d \end{bmatrix} = \begin{bmatrix} a & b \\ c & d \end{bmatrix} \begin{bmatrix} x & 0 \\ 0 & y \end{bmatrix}.$$

उपरोक्त समीकरण को एक साथ दो समीकरणों में विघटित किया जा सकता है:


 * $$ \begin{cases} \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = \begin{bmatrix} ax \\ cx \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = \begin{bmatrix} by \\ dy \end{bmatrix} \end{cases} .$$

eigenvalue का फैक्टरिंग करना $x$ और $y$:
 * $$ \begin{cases} \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = x\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = y\begin{bmatrix} b \\ d \end{bmatrix} \end{cases} $$

दे
 * $$\mathbf{a} = \begin{bmatrix} a \\ c \end{bmatrix}, \quad \mathbf{b} = \begin{bmatrix} b \\ d \end{bmatrix},$$

यह हमें दो सदिश समीकरण देता है:


 * $$ \begin{cases}

\mathbf{A} \mathbf{a} = x \mathbf{a} \\ \mathbf{A} \mathbf{b} = y \mathbf{b} \end{cases}$$ और एक सदिश समीकरण द्वारा प्रतिनिधित्व किया जा सकता है जिसमें दो समाधान शामिल हैं जैसे कि आइगेनवेल्यूज़:
 * $$\mathbf{A} \mathbf{u} = \lambda \mathbf{u}$$

कहाँ $λ$ दो eigenvalues ​​​​का प्रतिनिधित्व करता है $x$ और $y$, और $u$ वैक्टर का प्रतिनिधित्व करता है $a$ और $b$.

स्थानांतरण $λu$ बाएं हाथ की ओर और फैक्टरिंग $u$ बाहर
 * $$(\mathbf{A} - \lambda \mathbf{I}) \mathbf{u} = \mathbf{0}$$

तब से $B$ गैर-एकवचन है, यह आवश्यक है कि $u$ अशून्य है। इसलिए,
 * $$\det(\mathbf{A} - \lambda \mathbf{I}) = 0$$

इस प्रकार
 * $$(1- \lambda)(3 - \lambda) = 0$$

हमें मैट्रिक्स के लिए eigenvalues ​​​​का समाधान दे रहा है $A$ जैसा $λ = 1$ या $λ = 3$, और परिणामी विकर्ण मैट्रिक्स के eigendecomposition से $A$ इस प्रकार है $$\left[ \begin{smallmatrix} 1 & 0 \\ 0 & 3 \end{smallmatrix} \right]$$.

समाधानों को वापस उपरोक्त समकालिक समीकरणों में लाना
 * $$ \begin{cases} \begin{bmatrix} 1 & 0 \\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = 1\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = 3\begin{bmatrix} b \\ d \end{bmatrix} \end{cases} $$

समीकरणों को हल करना, हमारे पास है
 * $$a = -2c \quad\text{and} \quad b = 0, \qquad c,d \in \mathbb{R}.$$

इस प्रकार मैट्रिक्स $B$ के eigendecomposition के लिए आवश्यक है $A$ है
 * $$\mathbf{B} = \begin{bmatrix} -2c & 0 \\ c & d \end{bmatrix},\qquad c, d\in \mathbb{R}, $$

वह है:
 * $$\begin{bmatrix}

-2c & 0 \\ c & d \end{bmatrix}^{-1} \begin{bmatrix} 1 & 0 \\ 1 & 3 \end{bmatrix} \begin{bmatrix} -2c & 0 \\ c & d \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 3 \end{bmatrix},\qquad c, d\in \mathbb{R}$$

eigendecomposition
के माध्यम से मैट्रिक्स व्युत्क्रम

अगर एक मैट्रिक्स $A$ को eigendecompose किया जा सकता है और यदि इसका कोई eigenvalues ​​​​शून्य नहीं है, तो $A$ उलटा मैट्रिक्स है और इसके व्युत्क्रम द्वारा दिया गया है
 * $$\mathbf{A}^{-1} = \mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}$$

अगर $$\mathbf{A}$$ एक सममित मैट्रिक्स है, क्योंकि $$\mathbf{Q}$$ के ईजेनवेक्टर से बनता है $$\mathbf{A}$$, $$\mathbf{Q}$$ इसलिए एक ऑर्थोगोनल मैट्रिक्स होने की गारंटी है $$\mathbf{Q}^{-1} = \mathbf{Q}^\mathrm{T}$$. इसके अलावा, क्योंकि $Λ$ एक विकर्ण मैट्रिक्स है, इसके व्युत्क्रम की गणना करना आसान है:
 * $$\left[\Lambda^{-1}\right]_{ii} = \frac{1}{\lambda_i}$$

व्यावहारिक प्रभाव
जब मापा, वास्तविक आंकड़े के एक मैट्रिक्स पर eigendecomposition का उपयोग किया जाता है, तो उलटा कार्य कम मान्य हो सकता है जब सभी eigenvalues ​​​​उपरोक्त रूप में अपरिवर्तित उपयोग किए जाते हैं। इसका कारण यह है कि जैसे-जैसे ईजेनवेल्यू अपेक्षाकृत छोटे होते जाते हैं, व्युत्क्रम में उनका योगदान बड़ा होता जाता है। शून्य के पास या माप प्रणाली के शोर पर उन पर अनुचित प्रभाव पड़ेगा और व्युत्क्रम का उपयोग करके समाधान (पहचान) में बाधा आ सकती है। दो न्यूनीकरण प्रस्तावित किए गए हैं: छोटे या शून्य eigenvalues ​​को छोटा करना, और इसके नीचे के लोगों के लिए सबसे कम विश्वसनीय eigenvalue का विस्तार करना। Tikhonov नियमितीकरण को एक सांख्यिकीय रूप से प्रेरित लेकिन पक्षपाती विधि के रूप में देखें, क्योंकि वे आइगेनवैल्यूज़ को रोल ऑफ करते हैं क्योंकि वे शोर से प्रभावित हो जाते हैं।

पहली शमन विधि मूल मैट्रिक्स के विरल नमूने के समान है, जो उन घटकों को हटाती है जिन्हें मूल्यवान नहीं माना जाता है। हालाँकि, यदि समाधान या पता लगाने की प्रक्रिया शोर स्तर के पास है, तो ट्रंकटिंग उन घटकों को हटा सकती है जो वांछित समाधान को प्रभावित करते हैं।

दूसरा शमन eigenvalue का विस्तार करता है ताकि कम मूल्यों का व्युत्क्रम पर बहुत कम प्रभाव पड़े, लेकिन फिर भी योगदान करते हैं, जैसे कि शोर के निकट समाधान अभी भी मिलेंगे।

विश्वसनीय eigenvalue यह मानते हुए पाया जा सकता है कि बेहद समान और कम मूल्य के eigenvalues ​​​​माप शोर का एक अच्छा प्रतिनिधित्व है (जो कि अधिकांश प्रणालियों के लिए कम माना जाता है)।

यदि eigenvalues ​​​​मूल्य द्वारा रैंक-सॉर्ट किए जाते हैं, तो विश्वसनीय eigenvalue को सॉर्ट किए गए eigenvalues ​​​​के लाप्लास ऑपरेटर  को कम करके पाया जा सकता है:
 * $$\min\left|\nabla^2 \lambda_\mathrm{s}\right|$$

जहां eigenvalues ​​a के साथ सब्सक्राइब किए गए हैं $s$ सॉर्ट किए जाने को इंगित करने के लिए। न्यूनीकरण की स्थिति सबसे कम विश्वसनीय eigenvalue है। माप प्रणालियों में, इस विश्वसनीय eigenvalue का वर्गमूल सिस्टम के घटकों पर औसत शोर है।

कार्यात्मक पथरी
Eigedecomposition मेट्रिसेस की शक्ति श्रृंखला की बहुत आसान गणना के लिए अनुमति देता है। अगर $f&thinsp;(x)$ द्वारा दिया गया है
 * $$f(x) = a_0 + a_1 x + a_2 x^2 + \cdots$$

तब हम उसे जानते हैं
 * $$f\!\left(\mathbf{A}\right) = \mathbf{Q}\,f\!\left(\mathbf{\Lambda}\right)\mathbf{Q}^{-1}$$

क्योंकि $Λ$ एक विकर्ण मैट्रिक्स है, का कार्य करता है $Λ$ की गणना करना बहुत आसान है:
 * $$\left[f\left(\mathbf{\Lambda}\right)\right]_{ii} = f\left(\lambda_i\right)$$

के ऑफ-विकर्ण तत्व $f&thinsp;(Λ)$ शून्य हैं; वह है, $f&thinsp;(Λ)$ भी एक विकर्ण मैट्रिक्स है। इसलिए गणना कर रहे हैं $f&thinsp;(A)$ प्रत्येक eigenvalues ​​​​पर फ़ंक्शन की गणना करने के लिए कम हो जाता है।

इसी तरह की तकनीक आमतौर पर होलोमॉर्फिक फंक्शनल कैलकुलस  के साथ अधिक काम करती है
 * $$\mathbf{A}^{-1} = \mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}$$


 * 1) Matrix व्युत्क्रम से eigendecomposition के माध्यम से। एक बार फिर, हम पाते हैं
 * $$\left[f\left(\mathbf{\Lambda}\right)\right]_{ii} = f\left(\lambda_i\right)$$

उदाहरण

 * $$\begin{align}

\mathbf{A}^2 &= \left(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}\right)\left(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}\right) = \mathbf{Q}\mathbf{\Lambda}\left(\mathbf{Q}^{-1}\mathbf{Q}\right)\mathbf{\Lambda}\mathbf{Q}^{-1} = \mathbf{Q}\mathbf{\Lambda}^2\mathbf{Q}^{-1} \\ \mathbf{A}^n &= \mathbf{Q}\mathbf{\Lambda}^n\mathbf{Q}^{-1} \\ \exp \mathbf{A} &= \mathbf{Q} \exp(\mathbf{\Lambda}) \mathbf{Q}^{-1} \end{align}$$ जो कार्यों के लिए उदाहरण हैं $$ f(x)=x^2, \; f(x)=x^n, \; f(x)=\exp{x} $$. आगे, $$ \exp{\mathbf{A}} $$ मैट्रिक्स घातीय है।

विशेष मैट्रिक्स के लिए अपघटन


कब $A$ सामान्य या वास्तविक सममित मैट्रिक्स है, अपघटन को वर्णक्रमीय अपघटन कहा जाता है, जो वर्णक्रमीय प्रमेय से प्राप्त होता है।

सामान्य मैट्रिक्स
एक जटिल-मूल्यवान वर्ग मैट्रिक्स $A$ सामान्य है (अर्थ $A^{*}A = AA^{*}$, कहाँ $A^{*}$ संयुग्म संक्रमण है) अगर और केवल अगर इसे विघटित किया जा सकता है


 * $$\mathbf{A} = \mathbf{U}\mathbf{\Lambda}\mathbf{U}^*$$

कहाँ $U$ एक एकात्मक मैट्रिक्स है (अर्थ $U^{*} = U^{−1}$) और $Λ = diag(λ_{1}, ..., λ_{n})$ एक विकर्ण मैट्रिक्स है। कॉलम यू1, ..., मेंn का $U$ एक अलौकिक आधार बनाते हैं और इसके ईजेनवेक्टर हैं $A$ इसी eigenvalues ​​λ के साथ1, ..., एलn.

अगर $A$ हर्मिटियन मैट्रिक्स होने के लिए प्रतिबंधित है ($A = A*$), तब $Λ$ में केवल वास्तविक मूल्यवान प्रविष्टियाँ हैं। अगर $A$ तब एकात्मक मैट्रिक्स तक ही सीमित है $Λ$ अपने सभी मान जटिल इकाई वृत्त पर लेता है, अर्थात, $|λ_{i}| = 1$.

वास्तविक सममित मैट्रिक्स
एक विशेष मामले के रूप में, प्रत्येक के लिए $n × n$ वास्तविक सममित मैट्रिक्स, eigenvalues ​​​​वास्तविक हैं और eigenvectors को वास्तविक और ऑर्थोनॉर्मल चुना जा सकता है। इस प्रकार एक वास्तविक सममित मैट्रिक्स $A$ के रूप में विघटित किया जा सकता है
 * $$\mathbf{A} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^\mathsf{T}$$

कहाँ $Q$ एक ऑर्थोगोनल मैट्रिक्स है जिसके कॉलम वास्तविक, ऑर्थोनॉर्मल ईजेनवेक्टर हैं $A$, और $Λ$ एक विकर्ण मैट्रिक्स है जिसकी प्रविष्टियाँ eigenvalues ​​​​हैं $A$.

eigenvalues ​​​​
के बारे में उपयोगी तथ्य
 * आइगेनवैल्यू का गुणनफल के निर्धारक के बराबर है $A$ $$\det\left(\mathbf{A}\right) = \prod_{i=1}^{N_\lambda}{\lambda_i^{n_i}} $$ ध्यान दें कि प्रत्येक eigenvalue की घात होती है $n_{i}$, बीजगणितीय बहुलता।
 * आइगेनवैल्यू का योग के ट्रेस (रैखिक बीजगणित) के बराबर है $A$ $$ \operatorname{tr}\left(\mathbf{A}\right) = \sum_{i=1}^{N_\lambda}{{n_i}\lambda_i} $$ ध्यान दें कि प्रत्येक eigenvalue से गुणा किया जाता है $n_{i}$, बीजगणितीय बहुलता।
 * यदि के eigenvalues $A$ हैं $λ_{i}$, और $A$ उलटा है, फिर के eigenvalues $A^{−1}$ सरल हैं $λ−1 i$.
 * यदि के eigenvalues $A$ हैं $λ_{i}$, फिर के eigenvalues $f&thinsp;(A)$ सरल हैं $f&thinsp;(λ_{i})$, किसी भी होलोमॉर्फिक फ़ंक्शन के लिए $f$.

ईजेनवेक्टर
के बारे में उपयोगी तथ्य
 * अगर $A$ हर्मिटियन मैट्रिक्स और पूर्ण-रैंक है, ईजेनवेक्टरों के आधार को पारस्परिक रूप से ओर्थोगोनल  चुना जा सकता है। आइगेनवैल्यू वास्तविक हैं।
 * के ईजेनवेक्टर $A^{−1}$ के eigenvectors के समान हैं $A$.
 * Eigenvectors को केवल गुणक स्थिरांक तक परिभाषित किया जाता है। यानी अगर $Av = λv$ तब $cv$ किसी भी अदिश के लिए एक eigenvector भी है $c ≠ 0$. विशेष रूप से, $−v$ और $e^{iθ}v$ (किसी θ के लिए) भी ईजेनवेक्टर हैं।
 * पतित ईजेनवेल्यूज (एक से अधिक ईजेनवेक्टर वाले ईजेनवैल्यू) के मामले में, ईजेनवेक्टरों को रैखिक परिवर्तन की एक अतिरिक्त स्वतंत्रता है, अर्थात, ईजेनवैल्यू साझा करने वाले ईजेनवेक्टरों का कोई भी रैखिक (ऑर्थोनॉर्मल) संयोजन (पतित उप-स्थान में) है स्वयं एक ईजेनवेक्टर (उप-स्थान में)।

ईजेनडीकंपोजीशन
के बारे में उपयोगी तथ्य


 * $A$ eigendecompose किया जा सकता है अगर और केवल अगर रैखिक रूप से स्वतंत्र eigenvectors की संख्या, $N_{v}$, एक eigenvector के आयाम के बराबर है: $N_{v} = N$
 * यदि अदिशों का क्षेत्र बीजगणितीय रूप से बंद है और यदि $p(λ)$ की कोई पुनरावर्तित जड़ें नहीं हैं, अर्थात यदि $$N_\lambda = N,$$ तब $A$ eigendecompose हो सकता है।
 * कथन$A$ eigendecompose किया जा सकता है इसका मतलब यह नहीं है $A$ का व्युत्क्रम होता है क्योंकि कुछ eigenvalues ​​​​शून्य हो सकते हैं, जो व्युत्क्रमणीय नहीं है।
 * कथन$A$ का प्रतिलोम होने का अर्थ यह नहीं है $A$ eigendecompose हो सकता है। एक प्रति उदाहरण है $$\left[ \begin{smallmatrix} 1 & 1 \\ 0 & 1 \end{smallmatrix} \right]$$, जो एक उलटा दोषपूर्ण मैट्रिक्स है।

मैट्रिक्स व्युत्क्रम
के बारे में उपयोगी तथ्य


 * $A$ उलटा जा सकता है अगर और केवल अगर सभी eigenvalues ​​​​अशून्य हैं: $$\lambda_i \ne 0 \quad \forall \,i$$
 * अगर $λ_{i} ≠ 0$ और $N_{v} = N$, व्युत्क्रम द्वारा दिया गया है $$\mathbf{A}^{-1} = \mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}$$

ईगेनवैल्यूज की संख्यात्मक गणना
मान लीजिए कि हम किसी दिए गए मैट्रिक्स के eigenvalues ​​​​की गणना करना चाहते हैं। यदि मैट्रिक्स छोटा है, तो हम विशेषता बहुपद का उपयोग करके प्रतीकात्मक रूप से उनकी गणना कर सकते हैं। हालांकि, बड़े मेट्रिसेस के लिए यह अक्सर असंभव होता है, इस मामले में हमें एक संख्यात्मक विश्लेषण का उपयोग करना चाहिए।

व्यवहार में, बड़े आव्यूहों के eigenvalues ​​की गणना विशेषता बहुपद का उपयोग करके नहीं की जाती है। बहुपद की गणना करना अपने आप में महंगा हो जाता है, और उच्च-स्तरीय बहुपद की सटीक (प्रतीकात्मक) जड़ों की गणना करना और व्यक्त करना मुश्किल हो सकता है: एबेल-रफिनी प्रमेय का तात्पर्य है कि उच्च-डिग्री (5 या ऊपर) बहुपदों की जड़ें सामान्य रूप से नहीं हो सकती हैं। प्रयोग करके व्यक्त किया जा सकता है n}वें जड़ें। इसलिए, eigenvectors और eigenvalues ​​​​खोजने के लिए सामान्य एल्गोरिदम पुनरावृत्त विधि हैं।

बहुपदों की अनुमानित जड़ों के लिए पुनरावृत्त संख्यात्मक एल्गोरिदम मौजूद हैं, जैसे कि न्यूटन की विधि, लेकिन सामान्य तौर पर विशेषता बहुपद की गणना करना और फिर इन विधियों को लागू करना अव्यावहारिक है। एक कारण यह है कि विशेषता बहुपद के गुणांकों में छोटे राउंड-ऑफ त्रुटियां ईगेनवैल्यूज और ईजेनवेक्टरों में बड़ी त्रुटियां पैदा कर सकती हैं: जड़ें गुणांकों का एक अत्यंत बीमार कार्य हैं। एक सरल और सटीक पुनरावृत्ति विधि शक्ति विधि है: एक यादृच्छिक वेक्टर $v$ चुना जाता है और इकाई वेक्टर के अनुक्रम की गणना की जाती है
 * $$\frac{\mathbf{A}\mathbf{v}}{\left\|\mathbf{A}\mathbf{v}\right\|}, \frac{\mathbf{A}^2\mathbf{v}}{\left\|\mathbf{A}^2\mathbf{v}\right\|}, \frac{\mathbf{A}^3\mathbf{v}}{\left\|\mathbf{A}^3\mathbf{v}\right\|}, \ldots$$

यह अनुक्रम लगभग हमेशा एक ईजेनवेक्टर में अभिसरण करेगा जो कि सबसे बड़ी परिमाण के ईजेनवेल्यू के अनुरूप है, बशर्ते कि $v$ में ईजेनवेक्टर के आधार पर इस ईजेनवेक्टर का एक गैर-शून्य घटक है (और यह भी प्रदान किया गया है कि सबसे बड़ी परिमाण का केवल एक ईजेनवेल्यू है)। यह सरल एल्गोरिथ्म कुछ व्यावहारिक अनुप्रयोगों में उपयोगी है; उदाहरण के लिए, Google अपने खोज इंजन में दस्तावेज़ों के पृष्ठ रैंक  की गणना करने के लिए इसका उपयोग करता है। साथ ही, कई अधिक परिष्कृत एल्गोरिदम के लिए पावर विधि शुरुआती बिंदु है। उदाहरण के लिए, अनुक्रम में न केवल अंतिम सदिश को रखते हुए, बल्कि क्रम में सभी सदिशों के रैखिक फैलाव को देखते हुए, ईजेनवेक्टर के लिए एक बेहतर (तेजी से अभिसरण) सन्निकटन प्राप्त कर सकते हैं, और यह विचार आधार है अर्नोल्डी पुनरावृत्ति।  वैकल्पिक रूप से, महत्वपूर्ण क्यूआर एल्गोरिदम भी एक शक्ति पद्धति के सूक्ष्म परिवर्तन पर आधारित है।

ईजेनवेक्टरों की संख्यात्मक गणना
एक बार eigenvalues ​​की गणना हो जाने के बाद, eigenvectors की गणना समीकरण को हल करके की जा सकती है
 * $$\left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}_{i,j} = \mathbf{0} $$

गॉसियन विलोपन या रैखिक समीकरणों की प्रणाली का उपयोग करना # रैखिक समीकरणों की प्रणाली को हल करने के लिए एक रैखिक प्रणाली को हल करना।

हालांकि, व्यावहारिक रूप से बड़े पैमाने पर ईजेनवैल्यू विधियों में, ईजेनवेक्टरों की गणना आमतौर पर अन्य तरीकों से की जाती है, जैसे कि ईजेनवैल्यू संगणना का उपोत्पाद। शक्ति पुनरावृत्ति में, उदाहरण के लिए, eigenvector वास्तव में eigenvalue से पहले गणना की जाती है (जो आमतौर पर eigenvector के Rayleigh भागफल द्वारा गणना की जाती है)। हर्मिटियन मैट्रिक्स (या किसी सामान्य मैट्रिक्स) के लिए क्यूआर एल्गोरिदम में, ऑर्थोनॉर्मल ईजेनवेक्टरों को एक उत्पाद के रूप में प्राप्त किया जाता है $Q$ एल्गोरिथम के चरणों से मैट्रिसेस।  (अधिक सामान्य मैट्रिसेस के लिए, क्यूआर एल्गोरिदम पहले शूर अपघटन उत्पन्न करता है, जिससे ईजेनवेक्टरों को backsubstation प्रक्रिया द्वारा प्राप्त किया जा सकता है। ) हर्मिटियन मेट्रिसेस के लिए, विभाजित और जीत eigenvalue एल्गोरिथ्म क्यूआर एल्गोरिदम की तुलना में अधिक कुशल है यदि ईजेनवेक्टर और ईजेनवैल्यू दोनों वांछित हैं।

सामान्यीकृत ईजेनस्पेस
याद रखें कि एक ईगेनवैल्यू की ज्यामितीय बहुलता को संबद्ध ईजेनस्पेस के आयाम के रूप में वर्णित किया जा सकता है, कर्नेल (रैखिक बीजगणित) $λI − A$. बीजगणितीय बहुलता को एक आयाम के रूप में भी माना जा सकता है: यह संबंधित सामान्यीकृत आइगेनस्पेस (प्रथम भाव) का आयाम है, जो मैट्रिक्स का नलस्पेस है $(λI − A)^{k}$ किसी भी पर्याप्त बड़े के लिए $k$. यही है, यह सामान्यीकृत eigenvectors (प्रथम अर्थ) का स्थान है, जहां एक सामान्यीकृत eigenvector कोई वेक्टर होता है जो अंततः 0 हो जाता है $λI − A$ उस पर क्रमिक रूप से पर्याप्त बार लागू होता है। कोई भी eigenvector एक सामान्यीकृत eigenvector है, और इसलिए प्रत्येक eigenspace संबद्ध सामान्यीकृत eigenspace में समाहित है। यह एक आसान प्रमाण प्रदान करता है कि ज्यामितीय बहुलता हमेशा बीजगणितीय बहुलता से कम या उसके बराबर होती है।

इस प्रयोग को नीचे वर्णित सामान्यीकृत ईगेनवैल्यू समस्या के साथ भ्रमित नहीं होना चाहिए।

संयुग्मी आइजनवेक्टर
एक संयुग्म eigenvector या conjugate eigenvector एक सदिश है जो इसके संयुग्म के एक स्केलर गुणक में परिवर्तन के बाद भेजा जाता है, जहां स्केलर को रैखिक परिवर्तन के संयुग्मित eigenvalue या शंकुवायु कहा जाता है। कोनिजेनवेक्टर और कोनिजेनवैल्यू अनिवार्य रूप से नियमित ईजेनवेक्टर और ईजेनवैल्यू के रूप में समान जानकारी और अर्थ का प्रतिनिधित्व करते हैं, लेकिन तब उत्पन्न होते हैं जब एक वैकल्पिक समन्वय प्रणाली का उपयोग किया जाता है। संगत समीकरण है
 * $$\mathbf{A}\mathbf{v} = \lambda \mathbf{v}^*.$$

उदाहरण के लिए, सुसंगत विद्युत चुम्बकीय प्रकीर्णन सिद्धांत में, रैखिक परिवर्तन $A$ प्रकीर्णन वस्तु द्वारा की गई क्रिया का प्रतिनिधित्व करता है, और ईजेनवेक्टर विद्युत चुम्बकीय तरंग के ध्रुवीकरण राज्यों का प्रतिनिधित्व करते हैं। प्रकाशिकी में, समन्वय प्रणाली को तरंग के दृष्टिकोण से परिभाषित किया जाता है, जिसे फॉरवर्ड स्कैटरिंग एलाइनमेंट (FSA) के रूप में जाना जाता है, और एक नियमित eigenvalue समीकरण को जन्म देता है, जबकि राडार में, समन्वय प्रणाली को रडार के दृष्टिकोण से परिभाषित किया जाता है, जिसे बैक के रूप में जाना जाता बैक स्कैटरिंग एलाइनमेंट (BSA), और एक कोनिगेनवैल्यू समीकरण को जन्म देता है।

सामान्यीकृत ईजेनवेल्यू समस्या
एक सामान्यीकृत eigenvalue समस्या (द्वितीय अर्थ) एक (अशून्य) वेक्टर खोजने की समस्या है $v$ जो पालन करता है
 * $$ \mathbf{A}\mathbf{v} = \lambda \mathbf{B} \mathbf{v}$$

कहाँ $A$ और $B$ आव्यूह हैं। अगर $v$ कुछ के साथ इस समीकरण का पालन करता है $λ$, फिर हम कॉल करते हैं $v$ का सामान्यीकृत ईजेनवेक्टर $A$ और $B$ (दूसरे अर्थ में), और $λ$ का सामान्यीकृत eigenvalue कहा जाता है $A$ और $B$ (दूसरे अर्थ में) जो सामान्यीकृत ईजेनवेक्टर से मेल खाता है $v$. के संभावित मान $λ$ को निम्नलिखित समीकरण का पालन करना चाहिए
 * $$\det(\mathbf{A} - \lambda \mathbf{B})=0. $$

अगर $n$ रैखिक रूप से स्वतंत्र वैक्टर ${v_{1}, …, v_{n}} |undefined$ पाया जा सकता है, जैसे कि प्रत्येक के लिए $i ∈ {1, …, n}$, $Av_{i} = λ_{i}Bv_{i}$, फिर हम मैट्रिसेस को परिभाषित करते हैं $P$ और $D$ ऐसा है कि
 * $$P = \begin{bmatrix}

| & & | \\   \mathbf{v}_1 & \cdots & \mathbf{v}_n \\ | & & |   \end{bmatrix} \equiv \begin{bmatrix} (\mathbf{v}_1)_1 & \cdots & (\mathbf{v}_n)_1 \\ \vdots & & \vdots   \\ (\mathbf{v}_1)_n & \cdots & (\mathbf{v}_n)_n \end{bmatrix} $$
 * $$(D)_{ij} = \begin{cases}

\lambda_i, & \text{if }i = j\\ 0,         & \text{otherwise} \end{cases}$$ फिर निम्नलिखित समानता रखती है
 * $$\mathbf{A} = \mathbf{B}\mathbf{P}\mathbf{D}\mathbf{P}^{-1}$$

और प्रमाण है

\mathbf{A}\mathbf{P}= \mathbf{A} \begin{bmatrix} | & & | \\   \mathbf{v}_1 & \cdots & \mathbf{v}_n   \\ | & & |   \end{bmatrix} = \begin{bmatrix} | & & | \\   A\mathbf{v}_1 & \cdots & A\mathbf{v}_n   \\ | & & |   \end{bmatrix} = \begin{bmatrix} | & & | \\   \lambda_1B\mathbf{v}_1 & \cdots & \lambda_nB\mathbf{v}_n   \\ | & & |   \end{bmatrix} = \begin{bmatrix} | & & | \\   B\mathbf{v}_1 & \cdots & B\mathbf{v}_n   \\ | & & |   \end{bmatrix} \mathbf{D} = \mathbf{B}\mathbf{P}\mathbf{D} $$ और तबसे $P$ व्युत्क्रमणीय है, तो हम उपपत्ति को समाप्त करते हुए समीकरण को दाईं ओर से इसके व्युत्क्रम से गुणा करते हैं।

फॉर्म के मेट्रिसेस का सेट $A − λB$, कहाँ $λ$ एक सम्मिश्र संख्या है, जिसे पेंसिल कहा जाता है; मैट्रिक्स पेंसिल शब्द जोड़ी को भी संदर्भित कर सकता है $(A, B)$ मेट्रिसेस का। अगर $B$ उलटा है, तो मूल समस्या के रूप में लिखा जा सकता है
 * $$\mathbf{B}^{-1}\mathbf{A}\mathbf{v} = \lambda \mathbf{v}$$

जो एक मानक eigenvalue समस्या है। हालांकि, ज्यादातर स्थितियों में उलटा प्रदर्शन नहीं करना बेहतर होता है, बल्कि मूल रूप से बताई गई सामान्यीकृत ईगेनवैल्यू समस्या को हल करना बेहतर होता है। यह विशेष रूप से महत्वपूर्ण है अगर $A$ और $B$ हर्मिटियन मेट्रिसेस हैं, क्योंकि इस मामले में $B^{−1}A$ आमतौर पर हर्मिटियन नहीं है और समाधान के महत्वपूर्ण गुण अब स्पष्ट नहीं हैं।

अगर $A$ और $B$ दोनों सममित या हर्मिटियन हैं, और $B$ भी एक सकारात्मक-निश्चित मैट्रिक्स है, eigenvalues $λ_{i}$ वास्तविक और ईजेनवेक्टर हैं $v_{1}$ और $v_{2}$ अलग-अलग eigenvalues ​​​​के साथ हैं $B$-ऑर्थोगोनल ($v_{1}^{*}Bv_{2} = 0$). इस मामले में, eigenvectors को चुना जा सकता है ताकि मैट्रिक्स $P$ ऊपर परिभाषित संतुष्ट करता है


 * $$\mathbf{P}^* \mathbf B \mathbf{P} = \mathbf{I}$$ या $$\mathbf{P}\mathbf{P}^*\mathbf B  = \mathbf{I}$$,

और सामान्यीकृत ईजेनवेक्टरों का एक आधार (रैखिक बीजगणित) मौजूद है (यह एक दोषपूर्ण मैट्रिक्स समस्या नहीं है)। इस मामले को कभी-कभी हर्मिटियन निश्चित पेंसिल या निश्चित पेंसिल कहा जाता है।

यह भी देखें

 * आइगेनवैल्यू गड़बड़ी
 * फ्रोबेनियस सहसंयोजक
 * गृहस्थ परिवर्तन
 * जॉर्डन सामान्य रूप
 * मैट्रिसेस की सूची
 * मैट्रिक्स अपघटन
 * विलक्षण मान अपघटन
 * सिल्वेस्टर का सूत्र

बाहरी संबंध

 * Interactive program & tutorial of Spectral Decomposition.