मैट्रिक्स कैलकुलस

गणित में, मैट्रिक्स कैलकुलस, विशेष रूप से मैट्रिक्स (गणित) के रिक्त स्थान पर बहुभिन्नरूपी कैलकुलस करने के लिए एक विशेष संकेतन है। यह कई चर (गणित) के संबंध में एक एकल फ़ंक्शन (गणित) के विभिन्न आंशिक डेरिवेटिव, और / या एक एकल चर के संबंध में एक बहुभिन्नरूपी फ़ंक्शन को वेक्टर (गणित और भौतिकी) और मैट्रिसेस में एकत्रित करता है जिसे इस रूप में माना जा सकता है एकल संस्थाएँ। यह संचालन को बहुत सरल करता है जैसे कि बहुभिन्नरूपी फ़ंक्शन का अधिकतम या न्यूनतम पता लगाना और अंतर समीकरणों की प्रणाली को हल करना। यहाँ प्रयुक्त अंकन आमतौर पर सांख्यिकी और अभियांत्रिकी  में उपयोग किया जाता है, जबकि भौतिकी में टेन्सर इंडेक्स संकेतन को प्राथमिकता दी जाती है।

दो प्रतिस्पर्धी नोटेशनल कन्वेंशन मैट्रिक्स कैलकुलस के क्षेत्र को दो अलग-अलग समूहों में विभाजित करते हैं। दो समूहों को इस बात से अलग किया जा सकता है कि क्या वे एक पंक्ति और स्तंभ वैक्टर के रूप में एक वेक्टर के संबंध में एक स्केलर (गणित) के व्युत्पन्न लिखते हैं। ये दोनों सम्मेलन तब भी संभव हैं जब आम धारणा बनाई जाती है कि मैट्रिक्स के साथ संयुक्त होने पर वैक्टर को स्तंभ वैक्टर के रूप में माना जाना चाहिए (पंक्ति वैक्टर के बजाय)। एक एकल सम्मेलन एक एकल क्षेत्र में कुछ हद तक मानक हो सकता है जो आमतौर पर मैट्रिक्स कैलकुलस (जैसे अर्थमिति, सांख्यिकी, अनुमान सिद्धांत और यंत्र अधिगम ) का उपयोग करता है। हालाँकि, किसी दिए गए क्षेत्र के भीतर भी विभिन्न लेखकों को प्रतिस्पर्धी सम्मेलनों का उपयोग करते हुए पाया जा सकता है। दोनों समूहों के लेखक अक्सर लिखते हैं जैसे कि उनका विशिष्ट सम्मेलन मानक था। विभिन्न लेखकों के परिणामों को ध्यान से सत्यापित किए बिना कि संगत नोटेशन का उपयोग किया गया है, गंभीर गलतियाँ हो सकती हैं। इन दो सम्मेलनों की परिभाषाएँ और उनके बीच तुलना #लेआउट सम्मेलनों के अनुभाग में एकत्र की जाती है।

दायरा
मैट्रिक्स गणना कई अलग-अलग नोटेशन को संदर्भित करता है जो स्वतंत्र चर के प्रत्येक घटक के संबंध में निर्भर चर के प्रत्येक घटक के व्युत्पन्न एकत्र करने के लिए मैट्रिक्स और वैक्टर का उपयोग करता है। सामान्य तौर पर, स्वतंत्र चर एक अदिश, एक सदिश या एक मैट्रिक्स हो सकता है जबकि आश्रित चर इनमें से कोई भी हो सकता है। शब्द के व्यापक अर्थ का उपयोग करते हुए, प्रत्येक अलग स्थिति नियमों के एक अलग सेट या एक अलग कलन की ओर ले जाएगी। मैट्रिक्स संकेतन एक संगठित तरीके से कई डेरिवेटिव को इकट्ठा करने का एक सुविधाजनक तरीका है।

पहले उदाहरण के रूप में, वेक्टर पथरी से ग्रेडियेंट  पर विचार करें। तीन स्वतंत्र चरों के एक अदिश फलन के लिए, $$f(x_1, x_2, x_3)$$, ग्रेडिएंट वेक्टर समीकरण द्वारा दिया जाता है
 * $$\nabla f = \frac{\partial f}{\partial x_1} \hat{x}_1 + \frac{\partial f}{\partial x_2} \hat{x}_2 + \frac{\partial f}{\partial x_3} \hat{x}_3$$,

कहाँ $$\hat{x}_i$$ में एक इकाई वेक्टर का प्रतिनिधित्व करता है $$x_i$$ के लिए दिशा $$1\le i \le 3$$. इस प्रकार के सामान्यीकृत व्युत्पन्न को वेक्टर के संबंध में एक स्केलर, एफ के व्युत्पन्न के रूप में देखा जा सकता है, $$\mathbf{x}$$, और इसका परिणाम वेक्टर रूप में आसानी से एकत्र किया जा सकता है।
 * $$\nabla f = \left( \frac{\partial f}{\partial \mathbf{x}} \right)^{\mathsf{T}} =

\begin{bmatrix} \frac{\partial f}{\partial x_1} & \frac{\partial f}{\partial x_2} & \frac{\partial f}{\partial x_3} \\ \end{bmatrix}^\textsf{T}. $$ अधिक जटिल उदाहरणों में एक मैट्रिक्स के संबंध में एक स्केलर फ़ंक्शन का व्युत्पन्न शामिल है, जिसे मेट्रिसेस के साथ #डेरिवेटिव्स के रूप में जाना जाता है, जो परिणामी मैट्रिक्स में संबंधित स्थिति में प्रत्येक मैट्रिक्स तत्व के संबंध में व्युत्पन्न एकत्र करता है। उस स्थिति में स्केलर मैट्रिक्स में प्रत्येक स्वतंत्र चर का एक कार्य होना चाहिए। एक अन्य उदाहरण के रूप में, यदि हमारे पास स्वतंत्र चर के निर्भर चर, या कार्यों का एन-वेक्टर है, तो हम स्वतंत्र वेक्टर के संबंध में निर्भर वेक्टर के व्युत्पन्न पर विचार कर सकते हैं। परिणाम एक एम × एन मैट्रिक्स में एकत्र किया जा सकता है जिसमें सभी संभावित व्युत्पन्न संयोजन शामिल हैं।

स्केलर, वैक्टर और मैट्रिसेस का उपयोग करने की कुल नौ संभावनाएँ हैं। ध्यान दें कि जैसा कि हम प्रत्येक स्वतंत्र और आश्रित चर में घटकों की उच्च संख्या पर विचार करते हैं, हम बहुत बड़ी संख्या में संभावनाओं के साथ रह सकते हैं। छह प्रकार के डेरिवेटिव जिन्हें मैट्रिक्स रूप में सबसे अच्छी तरह से व्यवस्थित किया जा सकता है, उन्हें निम्न तालिका में एकत्र किया गया है।

यहां, हमने मैट्रिक्स शब्द का उपयोग इसके सबसे सामान्य अर्थ में किया है, यह पहचानते हुए कि वैक्टर और स्केलर क्रमशः एक कॉलम और एक पंक्ति के साथ मैट्रिसेस हैं। इसके अलावा, हमने मैट्रिक्स के लिए बोल्ड अक्षरों और बोल्ड कैपिटल अक्षरों को इंगित करने के लिए बोल्ड अक्षरों का उपयोग किया है। इस संकेतन का प्रयोग सर्वत्र किया जाता है।

ध्यान दें कि हम एक मैट्रिक्स के संबंध में एक सदिश के व्युत्पन्न के बारे में भी बात कर सकते हैं, या हमारी तालिका में किसी भी अन्य अपूर्ण कोशिकाओं के बारे में बात कर सकते हैं। हालांकि, ये डेरिवेटिव सबसे स्वाभाविक रूप से 2 से अधिक रैंक के टेन्सर  में व्यवस्थित होते हैं, ताकि वे मैट्रिक्स में बड़े करीने से फिट न हों। निम्नलिखित तीन भागों में हम इनमें से प्रत्येक अवकलज को परिभाषित करेंगे और उन्हें गणित की अन्य शाखाओं से संबंधित करेंगे। अधिक विस्तृत तालिका के लिए #लेआउट कन्वेंशन अनुभाग देखें।

अन्य डेरिवेटिव से संबंध
गणना करने के लिए आंशिक डेरिवेटिव का ट्रैक रखने के लिए मैट्रिक्स डेरिवेटिव एक सुविधाजनक संकेतन है। वैक्टर के संबंध में डेरिवेटिव लेने के लिए कार्यात्मक विश्लेषण की सेटिंग में फ्रेचेट व्युत्पन्न मानक तरीका है। इस मामले में कि मैट्रिक्स का एक मैट्रिक्स फ़ंक्शन फ़्रेचेट अलग-अलग है, दो डेरिवेटिव नोटेशन के अनुवाद के लिए सहमत होंगे। जैसा कि सामान्य रूप से आंशिक डेरिवेटिव के मामले में होता है, कुछ सूत्र कमजोर विश्लेषणात्मक स्थितियों के तहत डेरिवेटिव के अस्तित्व की तुलना में अनुमानित रैखिक मानचित्रण के रूप में विस्तारित हो सकते हैं।

उपयोग
इष्टतम स्टोचैस्टिक अनुमानक प्राप्त करने के लिए मैट्रिक्स कैलकुलस का उपयोग किया जाता है, जिसमें अक्सर लैग्रेंज गुणक का उपयोग शामिल होता है। इसमें निम्न की व्युत्पत्ति शामिल है:
 * कलमन फिल्टर
 * विनीज़ फ़िल्टर
 * अपेक्षा-अधिकतमीकरण एल्गोरिथ्म#गाऊसी मिश्रण|गाऊसी मिश्रण के लिए अपेक्षा-अधिकतमकरण एल्गोरिथ्म
 * ढतला हुआ वंश

नोटेशन
बड़ी संख्या में चर का प्रतिनिधित्व करने के लिए एकल चर का उपयोग करते हुए, मैट्रिक्स संकेतन का पूरा लाभ उठाने के लिए अनुभागों में प्रस्तुत वेक्टर और मैट्रिक्स डेरिवेटिव। इसके बाद हम स्केलर, वैक्टर और मैट्रिसेस को उनके टाइपफेस द्वारा अलग करेंगे। हम एम (एन, एम) को एन पंक्तियों और एम कॉलम के साथ वास्तविक संख्या एन × एम मैट्रिक्स अंकन स्थान को इंगित करेंगे। इस तरह के मैट्रिसेस को बोल्ड कैपिटल लेटर्स: 'ए', 'एक्स', 'वाई', आदि का उपयोग करके दर्शाया जाएगा। एम (एन, 1) का एक तत्व, जो एक कॉलम वेक्टर है, को बोल्डफेस लोअरकेस लेटर के साथ दर्शाया गया है: ' ए', 'एक्स', 'वाई', आदि। एम (1,1) का एक तत्व एक स्केलर है, जिसे लोअरकेस इटैलिक टाइपफेस के साथ दर्शाया गया है: ए, टी, एक्स, आदि। 'एक्स'T मैट्रिक्स खिसकाना को दर्शाता है, tr(X) ट्रेस (रैखिक बीजगणित) है, और det(X) या |X है। सभी कार्यों को अवकलनीयता वर्ग सी का माना जाता है1 जब तक अन्यथा नोट न किया गया हो। आम तौर पर वर्णमाला के पहले भाग (ए, बी, सी, ...) के अक्षरों का उपयोग स्थिरांक को दर्शाने के लिए किया जाएगा, और दूसरी छमाही (टी, एक्स, वाई, ...) से चर को दर्शाने के लिए।

नोट: जैसा कि ऊपर उल्लेख किया गया है, वेक्टर और मैट्रिसेस में आंशिक डेरिवेटिव की प्रणालियों को निर्धारित करने के लिए प्रतिस्पर्धी अंकन हैं, और अभी तक कोई मानक उभरता हुआ प्रतीत नहीं होता है। चर्चा को अत्यधिक जटिल बनाने से बचने के लिए, अगले दो परिचयात्मक खंड केवल सुविधा के प्रयोजनों के लिए #लेआउट सम्मेलनों का उपयोग करते हैं। उनके बाद का खंड #लेआउट सम्मेलनों पर अधिक विस्तार से चर्चा करता है। निम्नलिखित को समझना महत्वपूर्ण है:
 * 1) गणक लेआउट और भाजक लेआउट शब्दों के उपयोग के बावजूद, वास्तव में दो से अधिक संभावित नोटेशनल विकल्प शामिल हैं। इसका कारण यह है कि अदिश-दर-सदिश, सदिश-दर-अदिश, सदिश-दर-सदिश, और अदिश-दर-सदिश के लिए अंश बनाम भाजक (या कुछ स्थितियों में, अंश बनाम मिश्रित) का चुनाव स्वतंत्र रूप से किया जा सकता है। मैट्रिक्स डेरिवेटिव, और कई लेखक विभिन्न तरीकों से अपने लेआउट विकल्पों को मिलाते हैं और मेल खाते हैं।
 * 2) नीचे दिए गए परिचयात्मक खंडों में अंश लेआउट का विकल्प यह नहीं दर्शाता है कि यह सही या बेहतर विकल्प है। विभिन्न लेआउट प्रकारों के फायदे और नुकसान हैं। अलग-अलग लेआउट में लिखे गए फ़ार्मुलों को लापरवाही से संयोजित करने से गंभीर गलतियाँ हो सकती हैं, और त्रुटियों से बचने के लिए एक लेआउट से दूसरे में परिवर्तित करने के लिए देखभाल की आवश्यकता होती है। परिणामस्वरूप, मौजूदा फ़ार्मुलों के साथ काम करते समय सबसे अच्छी नीति यह है कि सभी स्थितियों में समान लेआउट का उपयोग करने का प्रयास करने के बजाय किसी भी लेआउट का उपयोग किया जाए और उसके साथ निरंतरता बनाए रखी जाए।

विकल्प
इसके आइंस्टीन सारांश सम्मेलन के साथ टेंसर इंडेक्स नोटेशन मैट्रिक्स कैलकुस के समान ही है, सिवाय इसके कि एक समय में केवल एक ही घटक लिखता है। इसका लाभ यह है कि मनमाने ढंग से उच्च कोटि के टेंसरों में आसानी से हेरफेर किया जा सकता है, जबकि दो से अधिक रैंक के टेंसर मैट्रिक्स संकेतन के साथ काफी बोझिल होते हैं। एकल-चर मैट्रिक्स संकेतन के उपयोग के बिना इस अंकन में यहां सभी कार्य किए जा सकते हैं। हालांकि, आकलन सिद्धांत और अनुप्रयुक्त गणित के अन्य क्षेत्रों में कई समस्याओं के परिणामस्वरूप उन क्षेत्रों में मैट्रिक्स कैलकुलस के पक्ष में इंगित करते हुए ठीक से ट्रैक रखने के लिए बहुत सारे सूचकांक होंगे। इसके अलावा, आइंस्टीन योग विशिष्ट तत्व संकेतन के विकल्प के रूप में यहां प्रस्तुत पहचानों को साबित करने में बहुत उपयोगी हो सकता है (रिक्की कैलकुलस # डिफरेंशिएशन पर अनुभाग देखें), जो स्पष्ट योगों के चारों ओर ले जाने पर बोझिल हो सकता है। ध्यान दें कि एक मैट्रिक्स को कोटि दो का टेन्सर माना जा सकता है।

वैक्टर के साथ डेरिवेटिव्स
क्योंकि सदिश केवल एक स्तंभ वाले आव्यूह होते हैं, सरलतम आव्यूह व्युत्पन्न सदिश अवकलज होते हैं।

यहां विकसित अंकन यूक्लिडियन अंतरिक्ष 'आर' के साथ एन-वैक्टरों के अंतरिक्ष एम (एन, 1) की पहचान करके वेक्टर कैलकुस के सामान्य संचालन को समायोजित कर सकते हैं।n, और अदिश M(1,1) की पहचान 'R' से की जाती है। सदिश कलन से संबंधित अवधारणा प्रत्येक उपधारा के अंत में इंगित की गई है।

'टिप्पणी': इस खंड में चर्चा शैक्षणिक उद्देश्यों के लिए #लेआउट सम्मेलनों को मानती है। कुछ लेखक विभिन्न सम्मेलनों का उपयोग करते हैं। #लेआउट सम्मेलनों पर अनुभाग इस मुद्दे पर अधिक विस्तार से चर्चा करता है। नीचे दी गई पहचानों को उन रूपों में प्रस्तुत किया जाता है जिनका उपयोग सभी सामान्य लेआउट सम्मेलनों के संयोजन में किया जा सकता है।

वेक्टर-बाय-स्केलर
एक यूक्लिडियन वेक्टर का व्युत्पन्न $$ \mathbf{y} = \begin{bmatrix} y_1 & y_2 & \cdots & y_m \end{bmatrix}^\mathsf{T} $$, एक अदिश (गणित) द्वारा x को (#लेआउट परिपाटियों में) के रूप में लिखा जाता है


 * $$\frac{\partial \mathbf{y}}{\partial x} =

\begin{bmatrix} \frac{\partial y_1}{\partial x}\\ \frac{\partial y_2}{\partial x}\\ \vdots\\ \frac{\partial y_m}{\partial x}\\ \end{bmatrix}. $$ सदिश कलन में एक अदिश x के संबंध में एक सदिश y के व्युत्पन्न को सदिश y के स्पर्शरेखा सदिश के रूप में जाना जाता है, $$\frac{\partial \mathbf{y}}{\partial x}$$. यहाँ ध्यान दें कि y: R1 → आरमी.

'उदाहरण' इसके सरल उदाहरणों में यूक्लिडियन अंतरिक्ष में वेग वेक्टर शामिल है, जो स्थिति (वेक्टर) वेक्टर (समय के कार्य के रूप में माना जाता है) का स्पर्शरेखा वेक्टर है। साथ ही, त्वरण वेग का स्पर्शरेखा सदिश है।

स्केलर-बाय-वेक्टर
सदिश द्वारा अदिश (गणित) y का व्युत्पन्न $$ \mathbf{x} = \begin{bmatrix} x_1 & x_2 & \cdots & x_n \end{bmatrix}^\mathsf{T} $$, लिखा है (#लेआउट सम्मेलनों में) के रूप में


 * $$\frac{\partial y}{\partial \mathbf{x}} =

\begin{bmatrix} \frac{\partial y}{\partial x_1} & \frac{\partial y}{\partial x_2} & \cdots & \frac{\partial y}{\partial x_n} \end{bmatrix}. $$ सदिश कलन में, अंतरिक्ष 'R' में एक अदिश क्षेत्र f की प्रवणताn (जिसके स्वतंत्र निर्देशांक 'x' के घटक हैं) एक सदिश द्वारा एक अदिश के व्युत्पन्न का स्थानान्तरण है।


 * $$\nabla f = \begin{bmatrix}\frac{\partial f}{\partial x_1} \\ \vdots \\ \frac{\partial f}{\partial x_n} \end{bmatrix} = \left( \frac{\partial f}{\partial \mathbf{x}} \right)^{\mathsf{T}}$$

उदाहरण के लिए, भौतिकी में, विद्युत क्षेत्र विद्युत क्षमता का ऋणात्मक सदिश प्रवणता है।

स्पेस वेक्टर 'x' के स्केलर फंक्शन f('x') का दिशात्मक व्युत्पन्न  यूनिट वेक्टर 'u' (इस मामले में कॉलम वेक्टर के रूप में दर्शाया गया है) की दिशा में ग्रेडिएंट का उपयोग करके परिभाषित किया गया है।
 * $$\nabla_{\mathbf{u}}{f}(\mathbf{x}) = \nabla f(\mathbf{x}) \cdot \mathbf{u}$$

एक वेक्टर के संबंध में एक स्केलर के व्युत्पन्न के लिए परिभाषित नोटेशन का उपयोग करके हम दिशात्मक व्युत्पन्न को फिर से लिख सकते हैं $$\nabla_\mathbf{u} f = \frac{\partial f}{\partial \mathbf{x}} \mathbf{u}.$$ उत्पाद नियमों और श्रृंखला नियमों को साबित करते समय इस प्रकार का अंकन अच्छा होगा जो स्केलर डेरिवेटिव के लिए हम परिचित हैं।

वेक्टर-दर-वेक्टर
पिछले दो मामलों में से प्रत्येक को एक वेक्टर के संबंध में एक वेक्टर के व्युत्पन्न के एक आवेदन के रूप में माना जा सकता है, एक आकार के वेक्टर का उचित उपयोग करके। इसी तरह हम पाएंगे कि मैट्रिसेस वाले डेरिवेटिव एक समान तरीके से वैक्टर से जुड़े डेरिवेटिव में कम हो जाएंगे।

सदिश फलन का व्युत्पन्न (एक सदिश जिसके घटक फलन हैं) $$ \mathbf{y} = \begin{bmatrix} y_1 & y_2 & \cdots & y_m \end{bmatrix}^\mathsf{T} $$, एक इनपुट वेक्टर के संबंध में, $$ \mathbf{x} = \begin{bmatrix} x_1 & x_2 & \cdots & x_n \end{bmatrix}^\mathsf{T} $$, लिखा है (#लेआउट सम्मेलनों में) के रूप में


 * $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}} =

\begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \frac{\partial y_1}{\partial x_2} & \cdots & \frac{\partial y_1}{\partial x_n}\\ \frac{\partial y_2}{\partial x_1} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_2}{\partial x_n}\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial y_m}{\partial x_1} & \frac{\partial y_m}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_n}\\ \end{bmatrix}. $$ सदिश कैलकुलस में, सदिश x के संबंध में एक सदिश फलन y का व्युत्पन्न, जिसके घटक एक स्थान का प्रतिनिधित्व करते हैं, पुशफॉरवर्ड (डिफरेंशियल)|पुशफॉरवर्ड (या डिफरेंशियल) या जैकबियन मैट्रिक्स  के रूप में जाना जाता है।

R में वेक्टर v के संबंध में एक वेक्टर फ़ंक्शन f के साथ पुशफ़ॉरवर्डn द्वारा दिया गया है $$ d\,\mathbf{f}(\mathbf{v}) = \frac{\partial \mathbf{f}}{\partial \mathbf{v}} d\,\mathbf{v}. $$

मेट्रिसेस के साथ डेरिवेटिव्स
मैट्रिसेस के साथ दो प्रकार के डेरिवेटिव हैं जिन्हें समान आकार के मैट्रिक्स में व्यवस्थित किया जा सकता है। ये एक अदिश द्वारा एक मैट्रिक्स के व्युत्पन्न और एक मैट्रिक्स द्वारा एक अदिश के व्युत्पन्न हैं। ये लागू गणित के कई क्षेत्रों में पाई जाने वाली न्यूनीकरण समस्याओं में उपयोगी हो सकते हैं और सदिशों के लिए उनके अनुरूपों के बाद क्रमशः स्पर्शरेखा मैट्रिक्स और ढाल मैट्रिक्स नामों को अपनाया है।

नोट: इस खंड में चर्चा शैक्षणिक उद्देश्यों के लिए #लेआउट सम्मेलनों को मानती है। कुछ लेखक विभिन्न सम्मेलनों का उपयोग करते हैं। #लेआउट सम्मेलनों पर अनुभाग इस मुद्दे पर अधिक विस्तार से चर्चा करता है। नीचे दी गई पहचानों को उन रूपों में प्रस्तुत किया जाता है जिनका उपयोग सभी सामान्य लेआउट सम्मेलनों के संयोजन में किया जा सकता है।

मैट्रिक्स-बाय-स्केलर
एक अदिश x द्वारा एक मैट्रिक्स फ़ंक्शन Y के व्युत्पन्न को स्पर्शरेखा मैट्रिक्स के रूप में जाना जाता है और इसे (#लेआउट सम्मेलनों में) द्वारा दिया जाता है



\frac{\partial \mathbf{Y}}{\partial x} = \begin{bmatrix} \frac{\partial y_{11}}{\partial x} & \frac{\partial y_{12}}{\partial x} & \cdots & \frac{\partial y_{1n}}{\partial x}\\ \frac{\partial y_{21}}{\partial x} & \frac{\partial y_{22}}{\partial x} & \cdots & \frac{\partial y_{2n}}{\partial x}\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial y_{m1}}{\partial x} & \frac{\partial y_{m2}}{\partial x} & \cdots & \frac{\partial y_{mn}}{\partial x}\\ \end{bmatrix}. $$

अदिश-दर-मैट्रिक्स
मैट्रिक्स 'एक्स' के संबंध में स्वतंत्र चर के पी × क्यू मैट्रिक्स 'एक्स' के स्केलर वाई फ़ंक्शन का व्युत्पन्न (#लेआउट सम्मेलनों में) द्वारा दिया जाता है



\frac{\partial y}{\partial \mathbf{X}} = \begin{bmatrix} \frac{\partial y}{\partial x_{11}} & \frac{\partial y}{\partial x_{21}} & \cdots & \frac{\partial y}{\partial x_{p1}}\\ \frac{\partial y}{\partial x_{12}} & \frac{\partial y}{\partial x_{22}} & \cdots & \frac{\partial y}{\partial x_{p2}}\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial y}{\partial x_{1q}} & \frac{\partial y}{\partial x_{2q}} & \cdots & \frac{\partial y}{\partial x_{pq}}\\ \end{bmatrix}. $$ मैट्रिसेस के स्केलर फ़ंक्शंस के महत्वपूर्ण उदाहरणों में मैट्रिक्स का ट्रेस (रैखिक बीजगणित) और निर्धारक शामिल हैं।

वेक्टर कलन के अनुरूप इस व्युत्पन्न को अक्सर निम्नलिखित के रूप में लिखा जाता है।

\nabla_\mathbf{X} y(\mathbf{X}) = \frac{\partial y(\mathbf{X})}{\partial \mathbf{X}} $$ सदिश कलन के अनुरूप भी, मैट्रिक्स Y की दिशा में एक मैट्रिक्स X के अदिश f(X) का दिशात्मक व्युत्पन्न द्वारा दिया जाता है
 * $$\nabla_\mathbf{Y} f = \operatorname{tr} \left(\frac{\partial f}{\partial \mathbf{X}} \mathbf{Y}\right).$$

यह ग्रेडिएंट मैट्रिक्स है, विशेष रूप से, जो अनुमान सिद्धांत में न्यूनीकरण की समस्याओं में कई उपयोग पाता है, विशेष रूप से कलमन फ़िल्टर # कलमैन फ़िल्टर एल्गोरिथम की व्युत्पत्ति, जो इस क्षेत्र में बहुत महत्वपूर्ण है।

अन्य मैट्रिक्स डेरिवेटिव
जिन तीन प्रकार के डेरिवेटिव पर विचार नहीं किया गया है, वे वे हैं जिनमें वैक्टर-बाय-मैट्रिसेस, मैट्रिसेस-बाय-वैक्टर और मैट्रिसेस-बाय-मैट्रिसेस शामिल हैं। इन्हें व्यापक रूप से नहीं माना जाता है और एक संकेतन पर व्यापक रूप से सहमति नहीं है।

लेआउट कन्वेंशन
यह खंड मैट्रिक्स कैलकुलस का लाभ उठाने वाले विभिन्न क्षेत्रों में उपयोग किए जाने वाले सांकेतिक सम्मेलनों के बीच समानता और अंतर पर चर्चा करता है। हालांकि मोटे तौर पर दो सुसंगत परिपाटियां हैं, कुछ लेखकों को दो परिपाटियों को उन रूपों में मिलाना सुविधाजनक लगता है जिनकी चर्चा नीचे की गई है। इस खंड के बाद, समीकरणों को दोनों प्रतिस्पर्धी रूपों में अलग-अलग सूचीबद्ध किया जाएगा।

मूलभूत मुद्दा यह है कि वेक्टर के संबंध में वेक्टर का व्युत्पन्न, यानी $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}}$$, अक्सर दो प्रतिस्पर्धी तरीकों से लिखा जाता है। यदि अंश y का आकार m और भाजक x का आकार n है, तो परिणाम को m×n मैट्रिक्स या n×m के रूप में रखा जा सकता है। मैट्रिक्स, यानी y के तत्व स्तंभों में रखे गए हैं और x के तत्व पंक्तियों में रखे गए हैं, या इसके विपरीत। यह निम्नलिखित संभावनाओं की ओर जाता है:
 * 1) न्यूमरेटर लेआउट, यानी y और x के हिसाब से लेआउटटी (अर्थात् x के विपरीत)। इसे कभी-कभी 'जैकोबियन सूत्रीकरण' के रूप में जाना जाता है। यह पिछले उदाहरण में m×n लेआउट से संबंधित है।
 * 2) डीनॉमिनेटर लेआउट, यानी वाई के हिसाब से लेआउटT और x (यानी y के विपरीत)। इसे कभी-कभी 'हेस्सियन सूत्रीकरण' के रूप में जाना जाता है। कुछ लेखक इस लेआउट को जैकोबियन (अंकीय लेआउट) के भेद में ग्रेडिएंट कहते हैं, जो इसका स्थानान्तरण है। (हालांकि, ढाल का अर्थ आमतौर पर व्युत्पन्न होता है $$\frac{\partial y}{\partial \mathbf{x}},$$ लेआउट की परवाह किए बिना।) यह पिछले उदाहरण में n×m लेआउट से संबंधित है।
 * 3) कभी-कभी दिखाई देने वाली तीसरी संभावना यह है कि डेरिवेटिव को इस रूप में लिखने पर जोर दिया जाए $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}'},$$ (अर्थात व्युत्पन्न x के स्थानान्तरण के संबंध में लिया गया है) और अंश लेआउट का पालन करें। इससे यह दावा करना संभव हो जाता है कि मैट्रिक्स को अंश और भाजक दोनों के अनुसार रखा गया है। व्यवहार में यह अंश लेआउट के समान परिणाम उत्पन्न करता है।

ढाल को संभालते समय $$\frac{\partial y}{\partial \mathbf{x}}$$ और विपरीत मामला $$\frac{\partial \mathbf{y}}{\partial x},$$ हमारे पास समान मुद्दे हैं। सुसंगत होने के लिए, हमें निम्नलिखित में से एक करना चाहिए:
 * 1) अगर हम न्यूमरेटर लेआउट चुनते हैं $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}},$$ हमें ग्रेडिएंट रखना चाहिए $$\frac{\partial y}{\partial \mathbf{x}}$$ एक पंक्ति वेक्टर के रूप में, और $$\frac{\partial \mathbf{y}}{\partial x}$$ एक स्तंभ वेक्टर के रूप में।
 * 2) अगर हम डिनॉमिनेटर लेआउट चुनते हैं $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}},$$ हमें ग्रेडिएंट रखना चाहिए $$\frac{\partial y}{\partial \mathbf{x}}$$ एक स्तंभ वेक्टर के रूप में, और $$\frac{\partial \mathbf{y}}{\partial x}$$ एक पंक्ति वेक्टर के रूप में।
 * 3) ऊपर तीसरी संभावना में हम लिखते हैं $$\frac{\partial y}{\partial \mathbf{x}'}$$ और $$\frac{\partial \mathbf{y}}{\partial x},$$ और न्यूमरेटर लेआउट का उपयोग करें।

गणित की सभी पाठ्यपुस्तकें और पेपर इस संबंध में सुसंगत नहीं हैं। यही है, कभी-कभी एक ही किताब या पेपर के भीतर अलग-अलग संदर्भों में अलग-अलग परंपराओं का इस्तेमाल किया जाता है। उदाहरण के लिए, कुछ लोग ग्रेडिएंट्स के लिए डिनोमिनेटर लेआउट चुनते हैं (उन्हें कॉलम वैक्टर के रूप में रखना), लेकिन वेक्टर-बाय-वेक्टर डेरिवेटिव के लिए न्यूमरेटर लेआउट $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}}.$$ इसी तरह, जब स्केलर-बाय-मैट्रिक्स डेरिवेटिव की बात आती है $$\frac{\partial y}{\partial \mathbf{X}}$$ और मैट्रिक्स-बाय-स्केलर डेरिवेटिव $$\frac{\partial \mathbf{Y}}{\partial x},$$ फिर वाई और एक्स के अनुसार लगातार न्यूमरेटर लेआउट देता हैT, जबकि सुसंगत भाजक लेआउट Y के अनुसार निर्धारित होता हैT और X. व्यवहार में, हालांकि, के लिए एक भाजक लेआउट का पालन करना $$\frac{\partial \mathbf{Y}}{\partial x},$$ और Y के अनुसार परिणाम देनाटी, शायद ही कभी देखा जाता है क्योंकि यह बदसूरत सूत्रों के लिए बनाता है जो स्केलर सूत्रों के अनुरूप नहीं होते हैं। नतीजतन, निम्नलिखित लेआउट अक्सर पाए जा सकते हैं:
 * 1) Consistent अंश लेआउट, जो बताता है $$\frac{\partial \mathbf{Y}}{\partial x}$$ वाई और के अनुसार $$\frac{\partial y}{\partial \mathbf{X}}$$ एक्स के अनुसार टी.
 * 2) मिश्रित लेआउट, जो बताता है $$\frac{\partial \mathbf{Y}}{\partial x}$$ वाई और के अनुसार $$\frac{\partial y}{\partial \mathbf{X}}$$ एक्स के अनुसार
 * 3) नोटेशन का प्रयोग करें $$\frac{\partial y}{\partial \mathbf{X}'},$$ परिणामों के साथ संगत अंश लेआउट के समान।

निम्नलिखित सूत्रों में, हम पाँच संभावित संयोजनों को संभालते हैं $$\frac{\partial y}{\partial \mathbf{x}}, \frac{\partial \mathbf{y}}{\partial x}, \frac{\partial \mathbf{y}}{\partial \mathbf{x}}, \frac{\partial y}{\partial \mathbf{X}}$$ और $$\frac{\partial \mathbf{Y}}{\partial x}$$ अलग से। हम स्केलर-बाय-स्केलर डेरिवेटिव के मामलों को भी संभालते हैं जिसमें मध्यवर्ती वेक्टर या मैट्रिक्स शामिल होता है। (यह उत्पन्न हो सकता है, उदाहरण के लिए, यदि एक बहु-आयामी पैरामीट्रिक वक्र को स्केलर चर के संदर्भ में परिभाषित किया गया है, और फिर वक्र के स्केलर फ़ंक्शन का व्युत्पन्न उस स्केलर के संबंध में लिया जाता है जो वक्र को पैरामीटर करता है।) प्रत्येक के लिए विभिन्न संयोजनों में, हम अंश-लेआउट और हर-लेआउट परिणाम देते हैं, ऊपर दिए गए मामलों को छोड़कर जहां डिनोमिनेटर लेआउट शायद ही कभी होता है। मैट्रिक्स से जुड़े मामलों में जहां यह समझ में आता है, हम अंश-लेआउट और मिश्रित-लेआउट परिणाम देते हैं। जैसा कि ऊपर उल्लेख किया गया है, ऐसे मामले जहां वेक्टर और मैट्रिक्स डिनॉमिनेटर ट्रांसपोज़ नोटेशन में लिखे गए हैं, वे न्यूमरेटर लेआउट के बराबर हैं, जिसमें ट्रांसपोज़ के बिना लिखे गए डिनोमिनेटर हैं।

ध्यान रखें कि विभिन्न लेखक विभिन्न प्रकार के डेरिवेटिव के लिए अंश और भाजक लेआउट के विभिन्न संयोजनों का उपयोग करते हैं, और इस बात की कोई गारंटी नहीं है कि एक लेखक सभी प्रकार के लिए अंश या भाजक लेआउट का लगातार उपयोग करेगा। उस विशेष प्रकार के डेरिवेटिव के लिए उपयोग किए गए लेआउट को निर्धारित करने के लिए स्रोत में उद्धृत सूत्रों के साथ नीचे दिए गए फ़ार्मुलों का मिलान करें, लेकिन सावधान रहें कि यह न मानें कि अन्य प्रकार के डेरिवेटिव आवश्यक रूप से उसी प्रकार के लेआउट का पालन करते हैं।

योग का अधिकतम या न्यूनतम पता लगाने के लिए समुच्चय (वेक्टर या मैट्रिक्स) भाजक के साथ डेरिवेटिव लेते समय, यह ध्यान में रखा जाना चाहिए कि अंश लेआउट का उपयोग करने से ऐसे परिणाम प्राप्त होंगे जो समुच्चय के संबंध में स्थानांतरित किए गए हैं। उदाहरण के लिए, मैट्रिक्स कैलकुलस का उपयोग करके एक बहुभिन्नरूपी सामान्य वितरण की अधिकतम संभावना का अनुमान लगाने के प्रयास में, यदि डोमेन एक k×1 कॉलम वेक्टर है, तो अंश लेआउट का उपयोग करने वाला परिणाम 1×k पंक्ति वेक्टर के रूप में होगा। इस प्रकार, या तो परिणामों को अंत में स्थानांतरित किया जाना चाहिए या भाजक लेआउट (या मिश्रित लेआउट) का उपयोग किया जाना चाहिए।


 * {|class="wikitable"

! colspan=2 rowspan=2 | ! colspan=2 | Scalar y ! colspan=2 | Column vector y (size m×1) ! colspan=2 | Matrix Y (size m×n) ! Notation !! Type ! Notation !! Type ! Notation !! Type ! rowspan=2 | Scalar x ! Numerator ! Denominator ! rowspan=2 | Column vector x (size n×1) ! Numerator ! Denominator ! rowspan=2 | Matrix X (size p×q) ! Numerator ! Denominator अंश-लेआउट और हर-लेआउट नोटेशन के बीच स्विच करने पर संचालन के परिणाम स्थानांतरित हो जाएंगे।
 * + Result of differentiating various kinds of aggregates with other kinds of aggregates
 * rowspan=2 style="text-align:center;" | $$\frac{\partial y}{\partial x}$$
 * rowspan=2 | Scalar
 * rowspan=2 style="text-align:center;" | $$\frac{\partial \mathbf{y}}{\partial x}$$
 * Size-m column vector
 * rowspan=2 style="text-align:center;" | $$\frac{\partial \mathbf{Y}}{\partial x}$$
 * m×n matrix
 * Size-m row vector
 * rowspan=2 style="text-align:center;" | $$\frac{\partial y}{\partial \mathbf{x}}$$
 * Size-n row vector
 * rowspan=2 style="text-align:center;" | $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}}$$
 * m×n matrix
 * rowspan=2 style="text-align:center;" | $$\frac{\partial \mathbf{Y}}{\partial \mathbf{x}}$$
 * rowspan=2 |
 * Size-n column vector
 * n×m matrix
 * rowspan=2 style="text-align:center;" | $$\frac{\partial y}{\partial \mathbf{X}}$$
 * q×p matrix
 * rowspan=2 style="text-align:center;" | $$\frac{\partial \mathbf{y}}{\partial \mathbf{X}}$$
 * rowspan=2 |
 * rowspan=2 style="text-align:center;" | $$\frac{\partial \mathbf{Y}}{\partial \mathbf{X}}$$
 * rowspan=2 |
 * p×q matrix
 * }

न्यूमरेटर-लेआउट नोटेशन
अंश-लेआउट संकेतन का उपयोग करते हुए, हमारे पास:
 * $$\begin{align}

\frac{\partial y}{\partial \mathbf{x}} &= \begin{bmatrix} \frac{\partial y}{\partial x_1} & \frac{\partial y}{\partial x_2} & \cdots                         & \frac{\partial y}{\partial x_n} \end{bmatrix}. \\ \frac{\partial \mathbf{y}}{\partial x} &= \begin{bmatrix} \frac{\partial y_1}{\partial x} \\ \frac{\partial y_2}{\partial x} \\ \vdots                         \\ \frac{\partial y_m}{\partial x} \\ \end{bmatrix}. \\ \frac{\partial \mathbf{y}}{\partial \mathbf{x}} &= \begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \frac{\partial y_1}{\partial x_2} & \cdots & \frac{\partial y_1}{\partial x_n} \\ \frac{\partial y_2}{\partial x_1} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_2}{\partial x_n} \\ \vdots                           & \vdots                            & \ddots & \vdots \\ \frac{\partial y_m}{\partial x_1} & \frac{\partial y_m}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_n} \\ \end{bmatrix}. \\ \frac{\partial y}{\partial \mathbf{X}} &= \begin{bmatrix} \frac{\partial y}{\partial x_{11}} & \frac{\partial y}{\partial x_{21}} & \cdots & \frac{\partial y}{\partial x_{p1}} \\ \frac{\partial y}{\partial x_{12}} & \frac{\partial y}{\partial x_{22}} & \cdots & \frac{\partial y}{\partial x_{p2}} \\ \vdots                            & \vdots                             & \ddots & \vdots \\ \frac{\partial y}{\partial x_{1q}} & \frac{\partial y}{\partial x_{2q}} & \cdots & \frac{\partial y}{\partial x_{pq}} \\ \end{bmatrix}. \end{align}$$ निम्नलिखित परिभाषाएँ केवल अंश-लेआउट संकेतन में प्रदान की जाती हैं:


 * $$\begin{align}

\frac{\partial \mathbf{Y}}{\partial x} &= \begin{bmatrix} \frac{\partial y_{11}}{\partial x} & \frac{\partial y_{12}}{\partial x} & \cdots & \frac{\partial y_{1n}}{\partial x} \\ \frac{\partial y_{21}}{\partial x} & \frac{\partial y_{22}}{\partial x} & \cdots & \frac{\partial y_{2n}}{\partial x} \\ \vdots                            & \vdots                             & \ddots & \vdots \\ \frac{\partial y_{m1}}{\partial x} & \frac{\partial y_{m2}}{\partial x} & \cdots & \frac{\partial y_{mn}}{\partial x} \\ \end{bmatrix}. \\ d\mathbf{X} &= \begin{bmatrix} dx_{11} & dx_{12} & \cdots & dx_{1n} \\ dx_{21} & dx_{22} & \cdots & dx_{2n} \\ \vdots & \vdots  & \ddots & \vdots \\ dx_{m1} & dx_{m2} & \cdots & dx_{mn} \\ \end{bmatrix}. \end{align}$$

भाजक-लेआउट संकेतन
भाजक-लेआउट संकेतन का उपयोग करते हुए, हमारे पास:
 * $$\begin{align}

\frac{\partial y}{\partial \mathbf{x}} &= \begin{bmatrix} \frac{\partial y}{\partial x_1}\\ \frac{\partial y}{\partial x_2}\\ \vdots\\ \frac{\partial y}{\partial x_n}\\ \end{bmatrix}. \\ \frac{\partial \mathbf{y}}{\partial x} &= \begin{bmatrix} \frac{\partial y_1}{\partial x} & \frac{\partial y_2}{\partial x} & \cdots & \frac{\partial y_m}{\partial x} \end{bmatrix}. \\ \frac{\partial \mathbf{y}}{\partial \mathbf{x}} &= \begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \frac{\partial y_2}{\partial x_1} & \cdots & \frac{\partial y_m}{\partial x_1} \\ \frac{\partial y_1}{\partial x_2} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_2} \\ \vdots                           & \vdots                            & \ddots & \vdots \\ \frac{\partial y_1}{\partial x_n} & \frac{\partial y_2}{\partial x_n} & \cdots & \frac{\partial y_m}{\partial x_n}\\ \end{bmatrix}. \\ \frac{\partial y}{\partial \mathbf{X}} &= \begin{bmatrix} \frac{\partial y}{\partial x_{11}} & \frac{\partial y}{\partial x_{12}} & \cdots & \frac{\partial y}{\partial x_{1q}}\\ \frac{\partial y}{\partial x_{21}} & \frac{\partial y}{\partial x_{22}} & \cdots & \frac{\partial y}{\partial x_{2q}}\\ \vdots                            & \vdots                             & \ddots & \vdots\\ \frac{\partial y}{\partial x_{p1}} & \frac{\partial y}{\partial x_{p2}} & \cdots & \frac{\partial y}{\partial x_{pq}}\\ \end{bmatrix}. \end{align}$$

पहचान
जैसा कि ऊपर उल्लेख किया गया है, सामान्य तौर पर, अंश-लेआउट और भाजक-लेआउट नोटेशन के बीच स्विच करने पर संचालन के परिणाम स्थानांतरित हो जाएंगे।

नीचे दी गई सभी सर्वसमिकाओं को समझने में मदद के लिए, सबसे महत्वपूर्ण नियमों को ध्यान में रखें: श्रृंखला नियम, उत्पाद नियम और विभेदन में योग नियम। योग नियम सार्वभौमिक रूप से लागू होता है, और उत्पाद नियम नीचे दिए गए अधिकांश मामलों में लागू होता है, बशर्ते कि मैट्रिक्स उत्पादों का क्रम बनाए रखा जाए, क्योंकि मैट्रिक्स उत्पाद क्रमविनिमेय नहीं होते हैं। श्रृंखला नियम कुछ मामलों में लागू होता है, लेकिन दुर्भाग्य से मैट्रिक्स-बाय-स्केलर डेरिवेटिव या स्केलर-बाय-मैट्रिक्स डेरिवेटिव में लागू नहीं होता है (बाद वाले मामले में, ज्यादातर मैट्रिक्स पर लागू ट्रेस (रैखिक बीजगणित) ऑपरेटर शामिल होता है)। बाद के मामले में, उत्पाद नियम को सीधे तौर पर लागू नहीं किया जा सकता है, लेकिन अंतर पहचान का उपयोग करके समकक्ष को थोड़ा और काम किया जा सकता है।

निम्नलिखित पहचान निम्नलिखित सम्मेलनों को अपनाती हैं:
 * स्केलर, ए, बी, सी, डी, और ई के संबंध में स्थिर हैं, और स्केलर, यू, और वी एक्स, 'एक्स', या 'एक्स' में से किसी एक के कार्य हैं;
 * वैक्टर, 'ए', 'बी', 'सी', 'डी', और 'ई' के संबंध में स्थिर हैं, और वैक्टर, 'यू', और 'वी' एक्स में से एक के कार्य हैं, ' एक्स', या 'एक्स';
 * मैट्रिक्स, 'ए', 'बी', 'सी', 'डी', और 'ई' के संबंध में स्थिर हैं, और मैट्रिक्स, 'यू' और 'वी' एक्स, 'एक्स' में से एक के कार्य हैं ', या 'एक्स'।

वेक्टर-दर-वेक्टर पहचान
इसे सबसे पहले प्रस्तुत किया गया है क्योंकि वेक्टर-बाय-वेक्टर भेदभाव पर लागू होने वाले सभी ऑपरेशन सीधे वेक्टर-बाय-स्केलर या स्केलर-बाय-वेक्टर भेदभाव पर लागू होते हैं, बस अंश में उचित वेक्टर को कम करके या एक स्केलर में भाजक को कम करके।


 * {|class="wikitable" style="text-align: center;"

! scope="col" width="150" | Condition ! scope="col" width="10" | Expression ! scope="col" width="100" | Numerator layout, i.e. by y and xT ! scope="col" width="100" | Denominator layout, i.e. by yT and x u = u(x) || $$\frac{\partial a\mathbf{u}}{\partial\, \mathbf{x}} =$$ a is not a function of x|| $$\frac{\partial v\mathbf{a}}{\partial \mathbf{x}} =$$ || $$\mathbf{a}\frac{\partial v}{\partial \mathbf{x}} $$ || $$\frac{\partial v}{\partial \mathbf{x}} \mathbf{a}^\top$$ u = u(x) || $$\frac{\partial \mathbf{A}\mathbf{u}}{\partial \mathbf{x}} =$$ || $$\mathbf{A}\frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$ || $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}\mathbf{A}^\top$$
 * + Identities: vector-by-vector $$\frac{\partial \mathbf{y}}{\partial \mathbf{x}}$$
 * a is not a function of x || $$\frac{\partial \mathbf{a}}{\partial \mathbf{x}} =$$ ||colspan=2| $$\mathbf{0}$$
 * || $$\frac{\partial \mathbf{x}}{\partial \mathbf{x}} =$$ || colspan=2|$$\mathbf{I}$$
 * A is not a function of x || $$\frac{\partial \mathbf{A}\mathbf{x}}{\partial \mathbf{x}} =$$ || $$\mathbf{A}$$ || $$\mathbf{A}^\top$$
 * A is not a function of x || $$\frac{\partial \mathbf{x}^\top \mathbf{A}}{\partial \mathbf{x}} =$$ || $$\mathbf{A}^\top$$ || $$\mathbf{A}$$
 * a is not a function of x,
 * A is not a function of x || $$\frac{\partial \mathbf{A}\mathbf{x}}{\partial \mathbf{x}} =$$ || $$\mathbf{A}$$ || $$\mathbf{A}^\top$$
 * A is not a function of x || $$\frac{\partial \mathbf{x}^\top \mathbf{A}}{\partial \mathbf{x}} =$$ || $$\mathbf{A}^\top$$ || $$\mathbf{A}$$
 * a is not a function of x,
 * a is not a function of x,
 * a is not a function of x,
 * colspan=2|$$a\frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$
 * v = v(x),
 * v = v(x),
 * v = v(x), u = u(x) || $$\frac{\partial v\mathbf{u}}{\partial \mathbf{x}} =$$ || $$v \frac{\partial \mathbf{u}}{\partial \mathbf{x}} + \mathbf{u}\frac{\partial v}{\partial \mathbf{x}} $$ || $$v\frac{\partial \mathbf{u}}{\partial \mathbf{x}}  +  \frac{\partial v}{\partial \mathbf{x}} \mathbf{u}^\top$$
 * A is not a function of x,
 * A is not a function of x,
 * A is not a function of x,
 * u = u(x), v = v(x) || $$\frac{\partial (\mathbf{u} + \mathbf{v})}{\partial \mathbf{x}}  =$$
 * colspan=2|$$\frac{\partial \mathbf{u}}{\partial \mathbf{x}} + \frac{\partial \mathbf{v}}{\partial \mathbf{x}}$$
 * u = u(x) || $$\frac{\partial \mathbf{g(u)}}{\partial \mathbf{x}} =$$ || $$\frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$ || $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}}$$
 * u = u(x) || $$\frac{\partial \mathbf{f(g(u))}}{\partial \mathbf{x}} =$$ || $$\frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$ || $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}}$$
 * }
 * u = u(x) || $$\frac{\partial \mathbf{f(g(u))}}{\partial \mathbf{x}} =$$ || $$\frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$ || $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}}$$
 * }
 * }

स्केलर-बाय-वेक्टर पहचान
मौलिक पहचान मोटी काली रेखा के ऊपर रखी गई है।


 * {|class="wikitable" style="text-align: center;"

! scope="col" width="150" | Condition ! scope="col" width="200" | Expression ! scope="col" width="200" | Numerator layout, i.e. by xT; result is row vector ! scope="col" width="200" | Denominator layout, i.e. by x; result is column vector u = u(x) || $$\frac{\partial au}{\partial \mathbf{x}} =$$ $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}, \frac{\partial \mathbf{v}}{\partial \mathbf{x}}$$ in numerator layout $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}, \frac{\partial \mathbf{v}}{\partial \mathbf{x}}$$ in denominator layout A is not a function of x $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}, \frac{\partial \mathbf{v}}{\partial \mathbf{x}}$$ in numerator layout $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}, \frac{\partial \mathbf{v}}{\partial \mathbf{x}}$$ in denominator layout
 * + Identities: scalar-by-vector $$\frac{\partial y}{\partial \mathbf{x}} = \nabla_\mathbf{x} y$$
 * a is not a function of x || $$\frac{\partial a}{\partial \mathbf{x}} =$$
 * $$\mathbf{0}^\top$$ ||$$\mathbf{0}$$
 * a is not a function of x,
 * a is not a function of x,
 * a is not a function of x,
 * colspan=2|$$a\frac{\partial u}{\partial \mathbf{x}}$$
 * u = u(x), v = v(x) || $$\frac{\partial (u+v)}{\partial \mathbf{x}} =$$
 * colspan=2|$$\frac{\partial u}{\partial \mathbf{x}} + \frac{\partial v}{\partial \mathbf{x}} $$
 * u = u(x), v = v(x) || $$\frac{\partial uv}{\partial \mathbf{x}} =$$
 * colspan=2|$$u\frac{\partial v}{\partial \mathbf{x}} + v\frac{\partial u}{\partial \mathbf{x}} $$
 * u = u(x) || $$\frac{\partial g(u)}{\partial \mathbf{x}} =$$
 * colspan=2|$$\frac{\partial g(u)}{\partial u} \frac{\partial u}{\partial \mathbf{x}} $$
 * u = u(x) || $$\frac{\partial f(g(u))}{\partial \mathbf{x}} =$$
 * colspan=2|$$\frac{\partial f(g)}{\partial g} \frac{\partial g(u)}{\partial u} \frac{\partial u}{\partial \mathbf{x}} $$
 * u = u(x), v = v(x)
 * $$\frac{\partial (\mathbf{u} \cdot \mathbf{v})}{\partial \mathbf{x}} = \frac{\partial \mathbf{u}^\top \mathbf{v}}{\partial \mathbf{x}} =$$
 * $$\mathbf{u}^\top\frac{\partial \mathbf{v}}{\partial \mathbf{x}} + \mathbf{v}^\top\frac{\partial \mathbf{u}}{\partial \mathbf{x}} $$
 * colspan=2|$$\frac{\partial f(g)}{\partial g} \frac{\partial g(u)}{\partial u} \frac{\partial u}{\partial \mathbf{x}} $$
 * u = u(x), v = v(x)
 * $$\frac{\partial (\mathbf{u} \cdot \mathbf{v})}{\partial \mathbf{x}} = \frac{\partial \mathbf{u}^\top \mathbf{v}}{\partial \mathbf{x}} =$$
 * $$\mathbf{u}^\top\frac{\partial \mathbf{v}}{\partial \mathbf{x}} + \mathbf{v}^\top\frac{\partial \mathbf{u}}{\partial \mathbf{x}} $$
 * $$\mathbf{u}^\top\frac{\partial \mathbf{v}}{\partial \mathbf{x}} + \mathbf{v}^\top\frac{\partial \mathbf{u}}{\partial \mathbf{x}} $$
 * $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}\mathbf{v} + \frac{\partial \mathbf{v}}{\partial \mathbf{x}}\mathbf{u}$$
 * u = u(x), v = v(x),
 * u = u(x), v = v(x),
 * $$\frac{\partial (\mathbf{u} \cdot \mathbf{A}\mathbf{v})}{\partial \mathbf{x}} = \frac{\partial \mathbf{u}^\top\mathbf{A}\mathbf{v}}{\partial \mathbf{x}} =$$
 * $$\mathbf{u}^\top\mathbf{A}\frac{\partial \mathbf{v}}{\partial \mathbf{x}} + \mathbf{v}^\top \mathbf{A}^\top\frac{\partial \mathbf{u}}{\partial \mathbf{x}} $$
 * $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}\mathbf{A}\mathbf{v} + \frac{\partial \mathbf{v}}{\partial \mathbf{x}}\mathbf{A}^\top\mathbf{u}$$
 * $$\frac{\partial^2 f}{\partial\mathbf{x} \partial\mathbf{x}^\top} =$$
 * $$\mathbf{H}^\top$$
 * $$\mathbf{H}$$, the Hessian matrix
 * - style="border-top: 3px solid;"
 * a is not a function of x || $$\frac{\partial (\mathbf{a}\cdot\mathbf{x})}{\partial \mathbf{x}} = \frac{\partial (\mathbf{x}\cdot\mathbf{a})}{\partial \mathbf{x}} =$$
 * - style="border-top: 3px solid;"
 * a is not a function of x || $$\frac{\partial (\mathbf{a}\cdot\mathbf{x})}{\partial \mathbf{x}} = \frac{\partial (\mathbf{x}\cdot\mathbf{a})}{\partial \mathbf{x}} =$$

$$\frac{\partial \mathbf{a}^\top\mathbf{x}}{\partial \mathbf{x}} = \frac{\partial \mathbf{x}^\top\mathbf{a}}{\partial \mathbf{x}} =$$ || $$\mathbf{a}^\top$$ || $$\mathbf{a}$$ b is not a function of x || $$\frac{\partial \mathbf{b}^\top\mathbf{A}\mathbf{x}}{\partial \mathbf{x}} =$$ || $$\mathbf{b}^\top\mathbf{A}$$ || $$\mathbf{A}^\top\mathbf{b}$$ A is symmetric || $$\frac{\partial \mathbf{x}^\top\mathbf{A}\mathbf{x}}{\partial \mathbf{x}} =$$ || $$2\mathbf{x}^\top\mathbf{A}$$ || $$2\mathbf{A}\mathbf{x}$$ A is symmetric || $$\frac{\partial^2 \mathbf{x}^\top\mathbf{A}\mathbf{x}}{\partial\mathbf{x} \partial\mathbf{x}^\top} =$$ || colspan=2|$$2\mathbf{A}$$ u = u(x) $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$ in numerator layout $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$ in denominator layout
 * A is not a function of x
 * A is not a function of x
 * A is not a function of x || $$\frac{\partial \mathbf{x}^\top\mathbf{A}\mathbf{x}}{\partial \mathbf{x}} =$$ || $$\mathbf{x}^\top\left(\mathbf{A} + \mathbf{A}^\top\right)$$ || $$\left(\mathbf{A} + \mathbf{A}^\top\right)\mathbf{x}$$
 * A is not a function of x
 * A is not a function of x
 * A is not a function of x
 * A is not a function of x || $$\frac{\partial^2 \mathbf{x}^\top\mathbf{A}\mathbf{x}}{\partial\mathbf{x} \partial\mathbf{x}^\top} =$$ || colspan=2|$$\mathbf{A} + \mathbf{A}^\top$$
 * A is not a function of x
 * A is not a function of x
 * A is not a function of x
 * || $$\frac{\partial (\mathbf{x} \cdot \mathbf{x})}{\partial \mathbf{x}} = \frac{\partial \mathbf{x}^\top\mathbf{x}}{\partial \mathbf{x}} = \frac{\partial \left\Vert \mathbf{x} \right\Vert^2}{\partial \mathbf{x}} =$$ || $$2\mathbf{x}^\top $$ || $$2\mathbf{x}$$
 * a is not a function of x,
 * a is not a function of x,
 * a is not a function of x,
 * $$\frac{\partial (\mathbf{a} \cdot \mathbf{u})}{\partial \mathbf{x}} = \frac{\partial \mathbf{a}^\top\mathbf{u}}{\partial \mathbf{x}} =$$
 * $$\mathbf{a}^\top\frac{\partial \mathbf{u}}{\partial \mathbf{x}}$$
 * $$\frac{\partial \mathbf{u}}{\partial \mathbf{x}}\mathbf{a}$$
 * a, b are not functions of x || $$\frac{\partial \; \textbf{a}^\top\textbf{x}\textbf{x}^\top\textbf{b}}{\partial \; \textbf{x}} = $$ || $$\textbf{x}^\top\left(\textbf{a}\textbf{b}^\top + \textbf{b}\textbf{a}^\top\right)$$ || $$\left(\textbf{a}\textbf{b}^\top + \textbf{b}\textbf{a}^\top\right)\textbf{x}$$
 * A, b, C, D, e are not functions of x || $$\frac{\partial \; (\textbf{A}\textbf{x} + \textbf{b})^\top \textbf{C} (\textbf{D}\textbf{x} + \textbf{e})}{\partial \; \textbf{x}} = $$ || $$(\textbf{D}\textbf{x} + \textbf{e})^\top \textbf{C}^\top \textbf{A} + (\textbf{A}\textbf{x} + \textbf{b})^\top \textbf{C} \textbf{D}$$ || $$ \textbf{D}^\top \textbf{C}^\top (\textbf{A}\textbf{x} + \textbf{b}) + \textbf{A}^\top\textbf{C}(\textbf{D}\textbf{x} + \textbf{e})$$
 * a is not a function of x || $$\frac{\partial \; \|\mathbf{x} - \mathbf{a}\|}{\आंशिक \; \mathbf{x}} = $$ || गणित>\frac{(\mathbf{x} - \mathbf{a})^\top}{\|\mathbf{x} - \mathbf{a}\|} ||$$\frac{\mathbf{x} - \mathbf{a}}{\|\mathbf{x} - \mathbf{a}\|}$$
 * }
 * a is not a function of x || $$\frac{\partial \; \|\mathbf{x} - \mathbf{a}\|}{\आंशिक \; \mathbf{x}} = $$ || गणित>\frac{(\mathbf{x} - \mathbf{a})^\top}{\|\mathbf{x} - \mathbf{a}\|} ||$$\frac{\mathbf{x} - \mathbf{a}}{\|\mathbf{x} - \mathbf{a}\|}$$
 * }
 * }

वेक्टर-बाय-स्केलर पहचान

 * {|class="wikitable" style="text-align: center;"

! scope="col" width="150" | Condition ! scope="col" width="100" | Expression ! scope="col" width="100" | Numerator layout, i.e. by y, result is column vector ! scope="col" width="100" | Denominator layout, i.e. by yT, result is row vector u = u(x) || $$\frac{\partial a\mathbf{u}}{\partial x} =$$ u = u(x) || $$\frac{\partial \mathbf{A}\mathbf{u}}{\partial x} =$$ || $$\mathbf{A}\frac{\partial \mathbf{u}}{\partial x}$$ || $$\frac{\partial \mathbf{u}}{\partial x}\mathbf{A}^\top$$ नोट: वेक्टर-बाय-वेक्टर डेरिवेटिव वाले सूत्र $$\frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}}$$ और $$\frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}}$$ (जिनके आउटपुट मेट्रिसेस हैं) मान लें कि मेट्रिसेस को वेक्टर लेआउट के अनुरूप रखा गया है, यानी न्यूमरेटर-लेआउट मैट्रिक्स जब न्यूमरेटर-लेआउट वेक्टर और इसके विपरीत; अन्यथा, वेक्टर-दर-वेक्टर डेरिवेटिव को स्थानांतरित करें।
 * + Identities: vector-by-scalar $$\frac{\partial \mathbf{y}}{\partial x}$$
 * a is not a function of x || $$\frac{\partial \mathbf{a}}{\partial x} =$$ ||colspan=2| $$\mathbf{0}$$
 * a is not a function of x,
 * a is not a function of x,
 * a is not a function of x,
 * colspan=2|$$a\frac{\partial \mathbf{u}}{\partial x}$$
 * A is not a function of x,
 * A is not a function of x,
 * u = u(x) || $$\frac{\partial \mathbf{u}^\top}{\partial x} =$$
 * colspan=2|$$\left(\frac{\partial \mathbf{u}}{\partial x}\right)^\top$$
 * u = u(x), v = v(x) || $$\frac{\partial (\mathbf{u} + \mathbf{v})}{\partial x} =$$
 * colspan=2|$$\frac{\partial \mathbf{u}}{\partial x} + \frac{\partial \mathbf{v}}{\partial x}$$
 * u = u(x), v = v(x) || $$\frac{\partial (\mathbf{u}^\top \times \mathbf{v})}{\partial x} =$$
 * $$\left(\frac{\partial \mathbf{u}}{\partial x}\right)^\top \times \mathbf{v} + \mathbf{u}^\top \times \frac{\partial \mathbf{v}}{\partial x}$$
 * $$\frac{\partial \mathbf{u}}{\partial x} \times \mathbf{v} + \mathbf{u}^\top \times \left(\frac{\partial \mathbf{v}}{\partial x}\right)^\top$$
 * rowspan=2|u = u(x) || rowspan=2|$$\frac{\partial \mathbf{g(u)}}{\partial x} =$$ || $$\frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{u}}{\partial x}$$ || $$\frac{\partial \mathbf{u}}{\partial x} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}}$$
 * colspan=2|Assumes consistent matrix layout; see below.
 * rowspan=2|u = u(x) || rowspan=2|$$\frac{\partial \mathbf{f(g(u))}}{\partial x} =$$ || $$\frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{u}}{\partial x}$$ || $$\frac{\partial \mathbf{u}}{\partial x} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}}$$
 * colspan=2|Assumes consistent matrix layout; see below.
 * U = U(x), v = v(x) || $$\frac{\partial (\mathbf{U} \times \mathbf{v})}{\partial x} =$$
 * $$\frac{\partial \mathbf{U}}{\partial x} \times \mathbf{v} + \mathbf{U} \times \frac{\partial \mathbf{v}}{\partial x}$$
 * $$\mathbf{v}^\top \times \left(\frac{\partial \mathbf{U}}{\partial x}\right) + \frac{\partial \mathbf{v}}{\partial x} \times \mathbf{U}^\top$$
 * }
 * rowspan=2|u = u(x) || rowspan=2|$$\frac{\partial \mathbf{f(g(u))}}{\partial x} =$$ || $$\frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{u}}{\partial x}$$ || $$\frac{\partial \mathbf{u}}{\partial x} \frac{\partial \mathbf{g(u)}}{\partial \mathbf{u}} \frac{\partial \mathbf{f(g)}}{\partial \mathbf{g}}$$
 * colspan=2|Assumes consistent matrix layout; see below.
 * U = U(x), v = v(x) || $$\frac{\partial (\mathbf{U} \times \mathbf{v})}{\partial x} =$$
 * $$\frac{\partial \mathbf{U}}{\partial x} \times \mathbf{v} + \mathbf{U} \times \frac{\partial \mathbf{v}}{\partial x}$$
 * $$\mathbf{v}^\top \times \left(\frac{\partial \mathbf{U}}{\partial x}\right) + \frac{\partial \mathbf{v}}{\partial x} \times \mathbf{U}^\top$$
 * }
 * $$\mathbf{v}^\top \times \left(\frac{\partial \mathbf{U}}{\partial x}\right) + \frac{\partial \mathbf{v}}{\partial x} \times \mathbf{U}^\top$$
 * }

स्केलर-दर-मैट्रिक्स पहचान
ध्यान दें कि मैट्रिक्स के मैट्रिक्स-मूल्यवान कार्यों पर लागू होने पर स्केलर उत्पाद नियम और श्रृंखला नियम के सटीक समकक्ष मौजूद नहीं होते हैं। हालांकि, इस प्रकार का उत्पाद नियम अंतर रूप (नीचे देखें) पर लागू होता है, और यह ट्रेस (रैखिक बीजगणित) फ़ंक्शन को शामिल करने वाली कई पहचानों को प्राप्त करने का तरीका है, इस तथ्य के साथ संयुक्त है कि ट्रेस फ़ंक्शन ट्रांसपोज़िंग की अनुमति देता है और चक्रीय क्रमचय, यानी:
 * $$\begin{align}

\operatorname{tr}(\mathbf{A}) &= \operatorname{tr}\left(\mathbf{A^\top}\right) \\ \operatorname{tr}(\mathbf{ABCD}) &= \operatorname{tr}(\mathbf{BCDA}) = \operatorname{tr}(\mathbf{CDAB}) = \operatorname{tr}(\mathbf{DABC}) \end{align}$$ उदाहरण के लिए, गणना करने के लिए $$\frac{\partial \operatorname{tr}(\mathbf{AXBX^\top C})}{\partial \mathbf{X}}:$$
 * $$\begin{align}

d\operatorname{tr}(\mathbf{AXBX^\top C}) &= d\operatorname{tr}\left(\mathbf{CAXBX^\top}\right) = \operatorname{tr}\left(d\left(\mathbf{CAXBX^\top}\right)\right) \\ &= \operatorname{tr}\left(\mathbf{CAX} d(\mathbf{BX^\top}\right) + d\left(\mathbf{CAX})\mathbf{BX^\top}\right) \\ &= \operatorname{tr}\left(\mathbf{CAX} d\left(\mathbf{BX^\top}\right)\right) + \operatorname{tr}\left(d(\mathbf{CAX})\mathbf{BX^\top}\right) \\ &= \operatorname{tr}\left(\mathbf{CAXB} d\left(\mathbf{X^\top}\right)\right) + \operatorname{tr}\left(\mathbf{CA}(d\mathbf{X})\mathbf{BX^\top}\right) \\ &= \operatorname{tr}\left(\mathbf{CAXB} (d\mathbf{X})^\top\right) + \operatorname{tr}(\mathbf{CA}\left(d\mathbf{X})\mathbf{BX^\top}\right) \\ &= \operatorname{tr}\left(\left(\mathbf{CAXB} (d\mathbf{X})^\top\right)^\top\right) + \operatorname{tr}\left(\mathbf{CA}(d\mathbf{X})\mathbf{BX^\top}\right) \\ &= \operatorname{tr}\left((d\mathbf{X})\mathbf{B^\top X^\top A^\top C^\top}\right) + \operatorname{tr}\left(\mathbf{CA}(d\mathbf{X})\mathbf{BX^\top}\right) \\ &= \operatorname{tr}\left(\mathbf{B^\top X^\top A^\top C^\top}(d\mathbf{X})\right) + \operatorname{tr}\left(\mathbf{BX^\top}\mathbf{CA}(d\mathbf{X})\right) \\ &= \operatorname{tr}\left(\left(\mathbf{B^\top X^\top A^\top C^\top} + \mathbf{BX^\top}\mathbf{CA}\right)d\mathbf{X}\right) \\ &= \operatorname{tr}\left(\left(\mathbf{C A X B} + \mathbf{A^\top C^\top X B^\top }\right)^\top d\mathbf{X}\right) \end{align}$$ इसलिए,


 * $$\frac{\partial \operatorname{tr}\left(\mathbf{AXBX^\top C}\right)}{\partial \mathbf{X}} = \mathbf{C A X B} + \mathbf{A^\top C^\top X B^\top } .$$ (अंकीय लेआउट)

(अंतिम चरण के लिए, #convert_differential_derivative अनुभाग देखें।)


 * {|class="wikitable" style="text-align: center;"

! scope="col" width="175" | Condition ! scope="col" width="10" | Expression ! scope="col" width="100" | Numerator layout, i.e. by XT ! scope="col" width="100" | Denominator layout, i.e. by X
 * + Identities: scalar-by-matrix $$\frac{\partial y}{\partial \mathbf{X}}$$
 * a is not a function of X || $$\frac{\partial a}{\partial \mathbf{X}} =$$
 * $$\mathbf{0}^\top$$ ||$$\mathbf{0}$$
 * a is not a function of X, u = u(X) || $$\frac{\partial au}{\partial \mathbf{X}} =$$
 * colspan=2|$$a\frac{\partial u}{\partial \mathbf{X}}$$
 * u = u(X), v = v(X) || $$\frac{\partial (u+v)}{\partial \mathbf{X}} =$$
 * colspan=2|$$\frac{\partial u}{\partial \mathbf{X}} + \frac{\partial v}{\partial \mathbf{X}} $$
 * u = u(X), v = v(X) || $$\frac{\partial uv}{\partial \mathbf{X}} =$$
 * colspan=2|$$u\frac{\partial v}{\partial \mathbf{X}} + v\frac{\partial u}{\partial \mathbf{X}} $$
 * u = u(X) || $$\frac{\partial g(u)}{\partial \mathbf{X}} =$$
 * colspan=2|$$\frac{\partial g(u)}{\partial u} \frac{\partial u}{\partial \mathbf{X}} $$
 * u = u(X) || $$\frac{\partial f(g(u))}{\partial \mathbf{X}} =$$
 * colspan=2|$$\frac{\partial f(g)}{\partial g} \frac{\partial g(u)}{\partial u} \frac{\partial u}{\partial \mathbf{X}} $$
 * rowspan=2|U = U(X) || rowspan=2|   $$\frac{\partial g(\mathbf{U})}{\partial X_{ij}} =$$
 * $$\operatorname{tr}\left( \frac{\partial g(\mathbf{U})}{\partial \mathbf{U}} \frac{\partial \mathbf{U}}{\partial X_{ij}}\right)$$
 * $$\operatorname{tr}\left( \left(\frac{\partial g(\mathbf{U})}{\partial \mathbf{U}}\right)^\top \frac{\partial \mathbf{U}}{\partial X_{ij}}\right)$$
 * colspan=2|Both forms assume numerator layout for $$\frac{\partial \mathbf{U}}{\partial X_{ij}},$$
 * u = u(X) || $$\frac{\partial f(g(u))}{\partial \mathbf{X}} =$$
 * colspan=2|$$\frac{\partial f(g)}{\partial g} \frac{\partial g(u)}{\partial u} \frac{\partial u}{\partial \mathbf{X}} $$
 * rowspan=2|U = U(X) || rowspan=2|   $$\frac{\partial g(\mathbf{U})}{\partial X_{ij}} =$$
 * $$\operatorname{tr}\left( \frac{\partial g(\mathbf{U})}{\partial \mathbf{U}} \frac{\partial \mathbf{U}}{\partial X_{ij}}\right)$$
 * $$\operatorname{tr}\left( \left(\frac{\partial g(\mathbf{U})}{\partial \mathbf{U}}\right)^\top \frac{\partial \mathbf{U}}{\partial X_{ij}}\right)$$
 * colspan=2|Both forms assume numerator layout for $$\frac{\partial \mathbf{U}}{\partial X_{ij}},$$
 * colspan=2|Both forms assume numerator layout for $$\frac{\partial \mathbf{U}}{\partial X_{ij}},$$
 * colspan=2|Both forms assume numerator layout for $$\frac{\partial \mathbf{U}}{\partial X_{ij}},$$

i.e. mixed layout if denominator layout for X is being used. U = U(X) || $$\frac{\partial \operatorname{tr}(a\mathbf{U})}{\partial \mathbf{X}} =$$ || colspan=2|$$a\frac{\partial \operatorname{tr}(\mathbf{U})}{\partial \mathbf{X}}$$ n is a positive integer ||   $$\frac{\partial \operatorname{tr}\left(\mathbf{A}\mathbf{X}^n\right)}{\partial \mathbf{X}} =$$ || $$\sum_{i=0}^{n-1} \mathbf{X}^i\mathbf{A}\mathbf{X}^{n-i-1}$$ || $$\sum_{i=0}^{n-1} \left(\mathbf{X}^i\mathbf{A}\mathbf{X}^{n-i-1}\right)^\top$$
 * - style="border-top: 3px solid;"
 * a and b are not functions of X ||$$\frac{\partial \mathbf{a}^\top\mathbf{X}\mathbf{b}}{\partial \mathbf{X}} =$$
 * $$\mathbf{b}\mathbf{a}^\top$$||$$\mathbf{a}\mathbf{b}^\top$$
 * a and b are not functions of X ||$$\frac{\partial \mathbf{a}^\top \mathbf{X}^\top \mathbf{b}}{\partial \mathbf{X}} =$$
 * $$\mathbf{a}\mathbf{b}^\top$$||$$\mathbf{b}\mathbf{a}^\top$$
 * a, b and C are not functions of X ||$$\frac{\partial (\mathbf{X}\mathbf{a} + \mathbf{b})^\top \mathbf{C}(\mathbf{X} \mathbf{a} + \mathbf{b})}{\partial \mathbf{X}} =$$
 * $$\left(\left(\mathbf{C} + \mathbf{C}^\top\right)(\mathbf{X} \mathbf{a} + \mathbf{b})\mathbf{a}^\top\right)^\top$$||$$\left(\mathbf{C} + \mathbf{C}^\top\right)(\mathbf{X} \mathbf{a} + \mathbf{b})\mathbf{a}^\top$$
 * a, b and C are not functions of X ||$$\frac{\partial (\mathbf{X}\mathbf{a})^\top \mathbf{C}(\mathbf{X}\mathbf{b})}{\partial \mathbf{X}} =$$
 * $$\left(\mathbf{C}\mathbf{X}\mathbf{b}\mathbf{a}^\top + \mathbf{C}^\top\mathbf{X}\mathbf{a}\mathbf{b}^\top\right)^\top$$||$$\mathbf{C}\mathbf{X}\mathbf{b}\mathbf{a}^\top + \mathbf{C}^\top\mathbf{X}\mathbf{a}\mathbf{b}^\top$$
 * - style="border-top: 3px solid;"
 * || $$\frac{\partial \operatorname{tr}(\mathbf{X})}{\partial \mathbf{X}} =$$ || colspan=2|$$\mathbf{I}$$
 * U = U(X), V = V(X) || $$\frac{\partial \operatorname{tr}(\mathbf{U} + \mathbf{V})}{\partial \mathbf{X}} =$$ || colspan=2|$$\frac{\partial \operatorname{tr}(\mathbf{U})}{\partial \mathbf{X}} + \frac{\partial \operatorname{tr}(\mathbf{V})}{\partial \mathbf{X}}$$
 * a is not a function of X,
 * || $$\frac{\partial \operatorname{tr}(\mathbf{X})}{\partial \mathbf{X}} =$$ || colspan=2|$$\mathbf{I}$$
 * U = U(X), V = V(X) || $$\frac{\partial \operatorname{tr}(\mathbf{U} + \mathbf{V})}{\partial \mathbf{X}} =$$ || colspan=2|$$\frac{\partial \operatorname{tr}(\mathbf{U})}{\partial \mathbf{X}} + \frac{\partial \operatorname{tr}(\mathbf{V})}{\partial \mathbf{X}}$$
 * a is not a function of X,
 * a is not a function of X,
 * a is not a function of X,
 * g(X) is any polynomial with scalar coefficients, or any matrix function defined by an infinite polynomial series (e.g. eX, sin(X), cos(X), ln(X), etc. using a Taylor series); g(x) is the equivalent scalar function, g &prime; (x) is its derivative, and g &prime; (X) is the corresponding matrix function || $$\frac{\partial \operatorname{tr}(\mathbf{g(X)})}{\partial \mathbf{X}} =$$ || $$\mathbf{g}'(\mathbf{X})$$ || $$\left(\mathbf{g}'(\mathbf{X})\right)^\top$$
 * A is not a function of X ||   $$\frac{\partial \operatorname{tr}(\mathbf{AX})}{\partial \mathbf{X}} = \frac{\partial \operatorname{tr}(\mathbf{XA})}{\partial \mathbf{X}} =$$ || $$\mathbf{A}$$ || $$\mathbf{A}^\top$$
 * A is not a function of X ||   $$\frac{\partial \operatorname{tr}\left(\mathbf{AX^\top}\right)}{\partial \mathbf{X}} = \frac{\partial \operatorname{tr}\left(\mathbf{X^\top A}\right)}{\partial \mathbf{X}} =$$ || $$\mathbf{A}^\top$$ || $$\mathbf{A}$$
 * A is not a function of X ||   $$\frac{\partial \operatorname{tr}\left(\mathbf{X^\top AX}\right)}{\partial \mathbf{X}} =$$ || $$\mathbf{X}^\top\left(\mathbf{A} + \mathbf{A}^\top\right)$$ || $$\left(\mathbf{A} + \mathbf{A}^\top\right)\mathbf{X}$$
 * A is not a function of X ||   $$\frac{\partial \operatorname{tr}(\mathbf{X^{-1}A})}{\partial \mathbf{X}} =$$ || $$-\mathbf{X}^{-1}\mathbf{A}\mathbf{X}^{-1}$$ || $$-\left(\mathbf{X}^{-1}\right)^\top\mathbf{A}^\top\left(\mathbf{X}^{-1}\right)^\top$$
 * A, B are not functions of X || $$\frac{\partial \operatorname{tr}(\mathbf{AXB})}{\partial \mathbf{X}} = \frac{\partial \operatorname{tr}(\mathbf{BAX})}{\partial \mathbf{X}} =$$ || $$\mathbf{BA}$$ || $$\mathbf{A^\top B^\top}$$
 * A, B, C are not functions of X || $$\frac{\partial \operatorname{tr}\left(\mathbf{AXBX^\top C}\right)}{\partial \mathbf{X}} = $$ || $$\mathbf{BX^\top CA} + \mathbf{B^\top X^\top A^\top C^\top}$$ || $$\mathbf{A^\top C^\top XB^\top} + \mathbf{CAXB}$$
 * n is a positive integer ||   $$\frac{\partial \operatorname{tr}\left(\mathbf{X}^n\right)}{\partial \mathbf{X}} =$$ || $$n\mathbf{X}^{n-1}$$ || $$n\left(\mathbf{X}^{n-1}\right)^\top$$
 * A is not a function of X,
 * A is not a function of X ||   $$\frac{\partial \operatorname{tr}(\mathbf{X^{-1}A})}{\partial \mathbf{X}} =$$ || $$-\mathbf{X}^{-1}\mathbf{A}\mathbf{X}^{-1}$$ || $$-\left(\mathbf{X}^{-1}\right)^\top\mathbf{A}^\top\left(\mathbf{X}^{-1}\right)^\top$$
 * A, B are not functions of X || $$\frac{\partial \operatorname{tr}(\mathbf{AXB})}{\partial \mathbf{X}} = \frac{\partial \operatorname{tr}(\mathbf{BAX})}{\partial \mathbf{X}} =$$ || $$\mathbf{BA}$$ || $$\mathbf{A^\top B^\top}$$
 * A, B, C are not functions of X || $$\frac{\partial \operatorname{tr}\left(\mathbf{AXBX^\top C}\right)}{\partial \mathbf{X}} = $$ || $$\mathbf{BX^\top CA} + \mathbf{B^\top X^\top A^\top C^\top}$$ || $$\mathbf{A^\top C^\top XB^\top} + \mathbf{CAXB}$$
 * n is a positive integer ||   $$\frac{\partial \operatorname{tr}\left(\mathbf{X}^n\right)}{\partial \mathbf{X}} =$$ || $$n\mathbf{X}^{n-1}$$ || $$n\left(\mathbf{X}^{n-1}\right)^\top$$
 * A is not a function of X,
 * n is a positive integer ||   $$\frac{\partial \operatorname{tr}\left(\mathbf{X}^n\right)}{\partial \mathbf{X}} =$$ || $$n\mathbf{X}^{n-1}$$ || $$n\left(\mathbf{X}^{n-1}\right)^\top$$
 * A is not a function of X,
 * A is not a function of X,
 * A is not a function of X,
 * ||   $$\frac{\partial \operatorname{tr}\left(e^\mathbf{X}\right)}{\partial \mathbf{X}} =$$ || $$e^\mathbf{X}$$ || $$\left(e^\mathbf{X}\right)^\top$$
 * ||   $$\frac{\partial \operatorname{tr}(\sin(\mathbf{X}))}{\partial \mathbf{X}} =$$ || $$\cos(\mathbf{X})$$ || $$(\cos(\mathbf{X}))^\top$$
 * - style="border-top: 3px solid;"
 * ||   $$\frac{\partial |\mathbf{X}|}{\आंशिक \mathbf{X}} =$$ ||  गणित>\ऑपरेटरनाम {सहकारक}(एक्स)^\शीर्ष = |\mathbf{X}|\mathbf{X}^{-1} || गणित>\operatorname{cofactor}(X) = |\mathbf{X}|\left(\mathbf{X}^{-1}\right)^\top
 * a 'X' का फलन नहीं है || $$\frac{\partial \ln |a\mathbf{X}|}{\partial \mathbf{X}} =$$
 * ||   $$\frac{\partial |\mathbf{X}|}{\आंशिक \mathbf{X}} =$$ ||  गणित>\ऑपरेटरनाम {सहकारक}(एक्स)^\शीर्ष = |\mathbf{X}|\mathbf{X}^{-1} || गणित>\operatorname{cofactor}(X) = |\mathbf{X}|\left(\mathbf{X}^{-1}\right)^\top
 * a 'X' का फलन नहीं है || $$\frac{\partial \ln |a\mathbf{X}|}{\partial \mathbf{X}} =$$
 * a 'X' का फलन नहीं है || $$\frac{\partial \ln |a\mathbf{X}|}{\partial \mathbf{X}} =$$

X वर्गाकार और उलटा है || $$\frac{\partial \left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right|}{\partial \mathbf{X}} =$$ || $$2\left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right|\mathbf{X}^{-1} = 2\left|\mathbf{X^\top}\right||\mathbf{A}||\mathbf{X}|\mathbf{X}^{-1}$$ || $$2\left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right|\left(\mathbf{X}^{-1}\right)^\top$$ X गैर-वर्गाकार है, A सममित है || $$\frac{\partial \left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right|}{\partial \mathbf{X}} =$$ || $$2\left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right|\left(\mathbf{X^\top A^\top X}\right)^{-1}\mathbf{X^\top A^\top}$$ || $$2\left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right|\mathbf{AX}\left(\mathbf{X^\top AX}\right)^{-1}$$ X वर्गाकार नहीं है, A असममित नहीं है || $$\frac{\partial |\mathbf{X^\top}\mathbf{A}\mathbf{X}|}{\partial \mathbf{X}} =$$ \left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right| \Big(&\left(\mathbf{X^\top AX}\right)^{-1}\mathbf{X^\top A} + {} \\        &\left(\mathbf{X^\top A^\top X}\right)^{-1}\mathbf{X^\top A^\top}\Big) \end{align}$$ \left|\mathbf{X^\top}\mathbf{A}\mathbf{X}\right| \Big(&\mathbf{AX}\left(\mathbf{X^\top AX}\right)^{-1} + {} \\        &\mathbf{A^\top X}\left(\mathbf{X^\top A^\top X}\right)^{-1}\Big) \end{align}$$
 * $$\mathbf{X}^{-1}$$ ||$$\left(\mathbf{X}^{-1}\right)^\top$$
 * A, B, X || के फलन नहीं हैं      $$\frac{\partial |\mathbf{AXB}|}{\partial \mathbf{X}} =$$ || $$|\mathbf{AXB}|\mathbf{X}^{-1}$$ ||$$|\mathbf{AXB}|\left(\mathbf{X}^{-1}\right)^\top$$
 * n एक धनात्मक पूर्णांक है ||     $$\frac{\partial \left|\mathbf{X}^n\right|}{\partial \mathbf{X}} =$$ || $$n\left|\mathbf{X}^n\right|\mathbf{X}^{-1}$$ ||$$n\left|\mathbf{X}^n\right|\left(\mathbf{X}^{-1}\right)^\top$$
 * (छद्म उलटा देखें) ||      $$\frac{\partial \ln \left|\mathbf{X}^\top\mathbf{X}\right|}{\partial \mathbf{X}} =$$ || $$2\mathbf{X}^{+}$$ ||$$2\left(\mathbf{X}^{+}\right)^\top$$
 * (छद्म उलटा देखें) ||      $$\frac{\partial \ln \left|\mathbf{X}^\top\mathbf{X}\right|}{\partial \mathbf{X}^{+}} =$$ || $$-2\mathbf{X}$$ || $$-2\mathbf{X}^\top$$
 * A, X का फलन नहीं है,
 * (छद्म उलटा देखें) ||      $$\frac{\partial \ln \left|\mathbf{X}^\top\mathbf{X}\right|}{\partial \mathbf{X}} =$$ || $$2\mathbf{X}^{+}$$ ||$$2\left(\mathbf{X}^{+}\right)^\top$$
 * (छद्म उलटा देखें) ||      $$\frac{\partial \ln \left|\mathbf{X}^\top\mathbf{X}\right|}{\partial \mathbf{X}^{+}} =$$ || $$-2\mathbf{X}$$ || $$-2\mathbf{X}^\top$$
 * A, X का फलन नहीं है,
 * A, X का फलन नहीं है,
 * A, X का फलन नहीं है,
 * A, X का फलन नहीं है,
 * A, X का फलन नहीं है,
 * A, X का फलन नहीं है,
 * A, X का फलन नहीं है,
 * $$\begin{align}
 * $$\begin{align}
 * }

मैट्रिक्स-बाय-स्केलर पहचान

 * {|class="wikitable" style="text-align: center;"

! scope="col" width="175" | Condition ! scope="col" width="100" | Expression ! scope="col" width="100" | Numerator layout, i.e. by Y U = U(x) || $$\frac{\partial \mathbf{AUB}}{\partial x} =$$ || $$\mathbf{A}\frac{\partial \mathbf{U}}{\partial x}\mathbf{B}$$ आगे घातीय मानचित्र का व्युत्पन्न देखें।
 * + Identities: matrix-by-scalar $$\frac{\partial \mathbf{Y}}{\partial x}$$
 * U = U(x) || $$\frac{\partial a\mathbf{U}}{\partial x} =$$ || $$a\frac{\partial \mathbf{U}}{\partial x}$$
 * A, B are not functions of x,
 * A, B are not functions of x,
 * A, B are not functions of x,
 * U = U(x), V = V(x) || $$\frac{\partial (\mathbf{U}+\mathbf{V})}{\partial x} =$$ || $$\frac{\partial \mathbf{U}}{\partial x} + \frac{\partial \mathbf{V}}{\partial x}$$
 * U = U(x), V = V(x) || $$\frac{\partial (\mathbf{U}\mathbf{V})}{\partial x} =$$ || $$\mathbf{U}\frac{\partial \mathbf{V}}{\partial x} + \frac{\partial \mathbf{U}}{\partial x}\mathbf{V}$$
 * U = U(x), V = V(x) || $$\frac{\partial (\mathbf{U} \otimes \mathbf{V})}{\partial x} =$$ || $$\mathbf{U} \otimes \frac{\partial \mathbf{V}}{\partial x} + \frac{\partial \mathbf{U}}{\partial x} \otimes \mathbf{V}$$
 * U = U(x), V = V(x) || $$\frac{\partial (\mathbf{U} \circ \mathbf{V})}{\partial x} =$$ || $$\mathbf{U} \circ \frac{\partial \mathbf{V}}{\partial x} + \frac{\partial \mathbf{U}}{\partial x} \circ \mathbf{V}$$
 * U = U(x) || $$\frac{\partial \mathbf{U}^{-1}}{\partial x} =$$ || $$-\mathbf{U}^{-1} \frac{\partial \mathbf{U}}{\partial x}\mathbf{U}^{-1}$$
 * U = U(x,y) || $$\frac{\partial^2 \mathbf{U}^{-1}}{\partial x \partial y} =$$ || $$\mathbf{U}^{-1}\left(\frac{\partial \mathbf{U}}{\partial x}\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial y} - \frac{\partial^2 \mathbf{U}}{\partial x \partial y} + \frac{\partial \mathbf{U}}{\partial y}\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial x}\right)\mathbf{U}^{-1}$$
 * A is not a function of x, g(X) is any polynomial with scalar coefficients, or any matrix function defined by an infinite polynomial series (e.g. eX, sin(X), cos(X), ln(X), etc.); g(x) is the equivalent scalar function, g &prime; (x) is its derivative, and g &prime; (X) is the corresponding matrix function || $$\frac{\partial \, \mathbf{g}(x\mathbf{A})}{\partial x} =$$ || colspan=2|$$\mathbf{A}\mathbf{g}'(x\mathbf{A}) = \mathbf{g}'(x\mathbf{A})\mathbf{A}$$
 * A is not a function of x || $$\frac{\partial e^{x\mathbf{A}}}{\partial x} =$$ || $$\mathbf{A}e^{x\mathbf{A}} = e^{x\mathbf{A}}\mathbf{A}$$
 * }
 * U = U(x) || $$\frac{\partial \mathbf{U}^{-1}}{\partial x} =$$ || $$-\mathbf{U}^{-1} \frac{\partial \mathbf{U}}{\partial x}\mathbf{U}^{-1}$$
 * U = U(x,y) || $$\frac{\partial^2 \mathbf{U}^{-1}}{\partial x \partial y} =$$ || $$\mathbf{U}^{-1}\left(\frac{\partial \mathbf{U}}{\partial x}\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial y} - \frac{\partial^2 \mathbf{U}}{\partial x \partial y} + \frac{\partial \mathbf{U}}{\partial y}\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial x}\right)\mathbf{U}^{-1}$$
 * A is not a function of x, g(X) is any polynomial with scalar coefficients, or any matrix function defined by an infinite polynomial series (e.g. eX, sin(X), cos(X), ln(X), etc.); g(x) is the equivalent scalar function, g &prime; (x) is its derivative, and g &prime; (X) is the corresponding matrix function || $$\frac{\partial \, \mathbf{g}(x\mathbf{A})}{\partial x} =$$ || colspan=2|$$\mathbf{A}\mathbf{g}'(x\mathbf{A}) = \mathbf{g}'(x\mathbf{A})\mathbf{A}$$
 * A is not a function of x || $$\frac{\partial e^{x\mathbf{A}}}{\partial x} =$$ || $$\mathbf{A}e^{x\mathbf{A}} = e^{x\mathbf{A}}\mathbf{A}$$
 * }
 * A is not a function of x || $$\frac{\partial e^{x\mathbf{A}}}{\partial x} =$$ || $$\mathbf{A}e^{x\mathbf{A}} = e^{x\mathbf{A}}\mathbf{A}$$
 * }
 * }

शामिल वैक्टर के साथ

 * {|class="wikitable" style="text-align: center;"

! scope="col" width="150" | Condition ! scope="col" width="10" | Expression ! scope="col" width="150" | Any layout (assumes dot product ignores row vs. column layout)
 * + Identities: scalar-by-scalar, with vectors involved
 * u = u(x) || $$\frac{\partial g(\mathbf{u})}{\partial x} =$$ || $$\frac{\partial g(\mathbf{u})}{\partial \mathbf{u}} \cdot \frac{\partial \mathbf{u}}{\partial x}$$
 * u = u(x), v = v(x) || $$\frac{\partial (\mathbf{u} \cdot \mathbf{v})}{\partial x} =$$
 * colspan=2|$$\mathbf{u} \cdot \frac{\partial \mathbf{v}}{\partial x} + \frac{\partial \mathbf{u}}{\partial x} \cdot \mathbf{v} $$
 * }
 * colspan=2|$$\mathbf{u} \cdot \frac{\partial \mathbf{v}}{\partial x} + \frac{\partial \mathbf{u}}{\partial x} \cdot \mathbf{v} $$
 * }

शामिल मैट्रिसेस के साथ

 * {|class="wikitable" style="text-align: center;"

! scope="col" width="175" | Condition ! scope="col" width="100" | Expression ! scope="col" width="100" | Consistent numerator layout, i.e. by Y and XT ! scope="col" width="100" | Mixed layout, i.e. by Y and X गणित>\frac{\partial \ln|\mathbf{U}|}{\partial x} = || कोलस्पैन=2| गणित>\operatorname{tr}\बाएं (\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial x}\right) गणित>\frac{\partial^2 |\mathbf{U}|}{\partial x^2} = गणित>|\mathbf{यू}|\बाएं[ \operatorname{tr}\left(\mathbf{U}^{-1}\frac{\partial^2 \mathbf{U}}{\partial x^2}\right) + \operatorname{tr}^2\left(\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial x}\right) - \operatorname{tr}\left(\बाएं (\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial x}\right)^2\right) \दाएं] गणित>\frac{\partial g(\mathbf{U})}{\partial x} = || गणित>\operatorname{tr}\बाएं( \frac{\partial g(\mathbf{U})}{\partial \mathbf{U}} \frac{\partial \mathbf{U}}{\partial x}\ सही)  गणित>\operatorname{tr}\बाएं( \बाएं(\frac{\partial g(\mathbf{U})}{\partial \mathbf{U}}\right)^\top \frac{\partial \mathbf{ U}}{\partial x}\right)
 * +Identities: scalar-by-scalar, with matrices involved
 * U = U(x) || $$\frac{\partial |\mathbf{U}|}{\आंशिक x} = || कोलस्पैन=2| गणित>|\mathbf{यू}|\ऑपरेटरनाम{tr}\बाएं (\mathbf{U}^{-1}\frac{\partial \mathbf{U}}{\partial x}\right)$$
 * यू = यू(एक्स) ||
 * यू = यू(एक्स) ||
 * यू = यू(एक्स) ||
 * यू = यू(एक्स) ||
 * यू = यू(एक्स) ||
 * कोलस्पैन=2 |
 * यू = यू(एक्स) ||
 * यू = यू(एक्स) ||
 * A x का कोई फलन नहीं है, g(X) अदिश गुणांकों वाला कोई बहुपद है, या अनंत बहुपद श्रृंखला द्वारा परिभाषित कोई मैट्रिक्स फलन है (उदा.X, sin(X), cos(X), ln(X), आदि); g(x) समकक्ष स्केलर फ़ंक्शन है, g ′ (x) इसका व्युत्पन्न है, और g ′(X) संबंधित मैट्रिक्स फ़ंक्शन है। || $$\frac{\partial \operatorname{tr}(\mathbf{g}(x\mathbf{A}))}{\partial x} =$$ || कोलस्पैन=2|$$\operatorname{tr}\left(\mathbf{A}\mathbf{g}'(x\mathbf{A})\right)$$
 * A x || का फलन नहीं है $$\frac{\partial \operatorname{tr}\left(e^{x\mathbf{A}}\right)}{\partial x} =$$ || कोलस्पैन=2|$$\operatorname{tr}\left(\mathbf{A}e^{x\mathbf{A}}\right)$$
 * }
 * A x || का फलन नहीं है $$\frac{\partial \operatorname{tr}\left(e^{x\mathbf{A}}\right)}{\partial x} =$$ || कोलस्पैन=2|$$\operatorname{tr}\left(\mathbf{A}e^{x\mathbf{A}}\right)$$
 * }

विभेदक रूप में पहचान
डिफरेंशियल फॉर्म में काम करना और फिर वापस सामान्य डेरिवेटिव में बदलना आसान होता है। यह केवल अंश लेआउट का उपयोग करके अच्छी तरह से काम करता है। इन नियमों में, एक अदिश राशि है।


 * {|class="wikitable" style="text-align: center;"

! Condition !! Expression !! Result (numerator layout)
 * + Differential identities: scalar involving matrix
 * || $$d(\operatorname{tr}(\mathbf{X})) =$$ || $$\operatorname{tr}(d\mathbf{X})$$
 * || $$d(|\mathbf{X}|) =$$ || $$|\mathbf{X}|\operatorname{tr}\left(\mathbf{X}^{-1}d\mathbf{X}\right) = \operatorname{tr}(\operatorname{adj}(\mathbf{X})d\mathbf{X})$$
 * || $$d(\ln|\mathbf{X}|) =$$ || $$\operatorname{tr}\left(\mathbf{X}^{-1}d\mathbf{X}\right)$$
 * }
 * {|class="wikitable" style="text-align: center;"
 * || $$d(\ln|\mathbf{X}|) =$$ || $$\operatorname{tr}\left(\mathbf{X}^{-1}d\mathbf{X}\right)$$
 * }
 * {|class="wikitable" style="text-align: center;"

! Condition !! Expression !! Result (numerator layout) $$\mathbf{P}_i \mathbf{P}_j = \delta_{ij} \mathbf{P}_i $$ f is differentiable at every eigenvalue $$\lambda_i$$ f'(\lambda_i) & \lambda_i = \lambda_j \\ \frac{f(\lambda_i) - f(\lambda_j)}{\lambda_i - \lambda_j} & \lambda_i \neq \lambda_j \end{cases} $$ अंतिम पंक्ति में, $$\delta_{ij}$$ क्रोनकर डेल्टा है और $$(\mathbf{P}_k)_{ij} = (\mathbf{Q})_{ik} (\mathbf{Q}^{-1})_{kj}$$ ऑर्थोगोनल प्रोजेक्शन ऑपरेटरों का सेट है जो 'एक्स' के के-वें ईजेनवेक्टर पर प्रोजेक्ट करता है। 'क्यू' मैट्रिक्स के ईजेनडीकंपोजीशन का मैट्रिक्स है#के मैट्रिक्स का ईजेनडीकंपोजीशन $$\mathbf{X} = \mathbf{Q} \mathbf{\Lambda} \mathbf{Q}^{-1}$$, और $$(\mathbf{\Lambda})_{ii} = \lambda_i$$ आइगेनवैल्यू हैं। मैट्रिक्स फ़ंक्शन $$f(\mathbf{X})$$ एक मैट्रिक्स का Eigedecomposition#कार्यात्मक कलन है $$f(x)$$ द्वारा विकर्णीय मेट्रिसेस के लिए $$f(\mathbf{X}) = \sum_i f(\lambda_i) \mathbf{P}_i $$ कहाँ $$\mathbf{X} = \sum_i \lambda_i \mathbf{P}_i$$ साथ $$\mathbf{P}_i \mathbf{P}_j = \delta_{ij} \mathbf{P}_i $$.
 * + Differential identities: matrix
 * A is not a function of X || $$d(\mathbf{A}) =$$ || $$0$$
 * a is not a function of X || $$d(a\mathbf{X}) =$$ || $$a\,d\mathbf{X}$$
 * || $$d(\mathbf{X} + \mathbf{Y}) =$$ || $$d\mathbf{X} + d\mathbf{Y}$$
 * || $$d(\mathbf{X}\mathbf{Y}) =$$ || $$(d\mathbf{X})\mathbf{Y} + \mathbf{X}(d\mathbf{Y})$$
 * (Kronecker product) || $$d(\mathbf{X} \otimes \mathbf{Y}) =$$ || $$(d\mathbf{X})\otimes\mathbf{Y} + \mathbf{X}\otimes(d\mathbf{Y})$$
 * (Hadamard product) || $$d(\mathbf{X} \circ \mathbf{Y}) =$$ || $$(d\mathbf{X})\circ\mathbf{Y} + \mathbf{X}\circ(d\mathbf{Y})$$
 * || $$d\left(\mathbf{X}^\top\right) =$$ || $$(d\mathbf{X})^\top$$
 * $$d\left(\mathbf{X}^{-1}\right) =$$
 * $$-\mathbf{X}^{-1}\left(d\mathbf{X}\right)\mathbf{X}^{-1}$$
 * (conjugate transpose) || $$d\left(\mathbf{X}^{\rm H}\right) =$$ || $$(d\mathbf{X})^{\rm H}$$
 * n is a positive integer || $$d\left(\mathbf{X}^n\right) =$$ || $$\sum_{i=0}^{n-1} \mathbf{X}^i (d\mathbf{X})\mathbf{X}^{n-i-1}$$
 * $$d \left(e^\mathbf{X}\right) =$$
 * $$ \int_0^1 e^{a\mathbf{X}} (d\mathbf{X}) e^{(1-a)\mathbf{X}} \, da $$
 * $$d \left(\log{X}\right) =$$
 * $$ \int_0^\infty (\mathbf{X}+z \, \mathbf{I})^{-1} (d\mathbf{X}) (\mathbf{X}+z \, \mathbf{I})^{-1} \, dz $$
 * $$\mathbf{X} = \sum_i \lambda_i \mathbf{P}_i$$ is diagonalizable
 * $$d\left(\mathbf{X}^{-1}\right) =$$
 * $$-\mathbf{X}^{-1}\left(d\mathbf{X}\right)\mathbf{X}^{-1}$$
 * (conjugate transpose) || $$d\left(\mathbf{X}^{\rm H}\right) =$$ || $$(d\mathbf{X})^{\rm H}$$
 * n is a positive integer || $$d\left(\mathbf{X}^n\right) =$$ || $$\sum_{i=0}^{n-1} \mathbf{X}^i (d\mathbf{X})\mathbf{X}^{n-i-1}$$
 * $$d \left(e^\mathbf{X}\right) =$$
 * $$ \int_0^1 e^{a\mathbf{X}} (d\mathbf{X}) e^{(1-a)\mathbf{X}} \, da $$
 * $$d \left(\log{X}\right) =$$
 * $$ \int_0^\infty (\mathbf{X}+z \, \mathbf{I})^{-1} (d\mathbf{X}) (\mathbf{X}+z \, \mathbf{I})^{-1} \, dz $$
 * $$\mathbf{X} = \sum_i \lambda_i \mathbf{P}_i$$ is diagonalizable
 * $$ \int_0^1 e^{a\mathbf{X}} (d\mathbf{X}) e^{(1-a)\mathbf{X}} \, da $$
 * $$d \left(\log{X}\right) =$$
 * $$ \int_0^\infty (\mathbf{X}+z \, \mathbf{I})^{-1} (d\mathbf{X}) (\mathbf{X}+z \, \mathbf{I})^{-1} \, dz $$
 * $$\mathbf{X} = \sum_i \lambda_i \mathbf{P}_i$$ is diagonalizable
 * $$ \int_0^\infty (\mathbf{X}+z \, \mathbf{I})^{-1} (d\mathbf{X}) (\mathbf{X}+z \, \mathbf{I})^{-1} \, dz $$
 * $$\mathbf{X} = \sum_i \lambda_i \mathbf{P}_i$$ is diagonalizable
 * $$\mathbf{X} = \sum_i \lambda_i \mathbf{P}_i$$ is diagonalizable
 * $$d \left(f(\mathbf{X})\right) =$$
 * $$\sum_{ij} \mathbf{P}_i (d\mathbf{X}) \mathbf{P}_j \begin{cases}
 * }

सामान्य व्युत्पन्न रूप में परिवर्तित करने के लिए, पहले इसे निम्नलिखित प्रामाणिक रूपों में से एक में परिवर्तित करें, और फिर इन सर्वसमिकाओं का उपयोग करें:


 * {|class="wikitable" style="text-align: center;"

! Canonical differential form !! Equivalent derivative form (numerator layout)
 * + Conversion from differential to derivative form
 * $$dy = a\,dx$$ || $$\frac{dy}{dx} = a$$
 * $$dy = \mathbf{a}^\top d\mathbf{x}$$ || $$\frac{dy}{d\mathbf{x}} = \mathbf{a}^\top$$
 * $$dy = \operatorname{tr}(\mathbf{A}\,d\mathbf{X})$$ || $$\frac{dy}{d\mathbf{X}} = \mathbf{A}$$
 * $$d\mathbf{y} = \mathbf{a}\,dx$$ || $$\frac{d\mathbf{y}}{dx} = \mathbf{a}$$
 * $$d\mathbf{y} = \mathbf{A}\,d\mathbf{x}$$ || $$\frac{d\mathbf{y}}{d\mathbf{x}} = \mathbf{A}$$
 * $$d\mathbf{Y} = \mathbf{A}\,dx$$ || $$\frac{d\mathbf{Y}}{dx} = \mathbf{A}$$
 * }
 * $$d\mathbf{y} = \mathbf{a}\,dx$$ || $$\frac{d\mathbf{y}}{dx} = \mathbf{a}$$
 * $$d\mathbf{y} = \mathbf{A}\,d\mathbf{x}$$ || $$\frac{d\mathbf{y}}{d\mathbf{x}} = \mathbf{A}$$
 * $$d\mathbf{Y} = \mathbf{A}\,dx$$ || $$\frac{d\mathbf{Y}}{dx} = \mathbf{A}$$
 * }
 * $$d\mathbf{Y} = \mathbf{A}\,dx$$ || $$\frac{d\mathbf{Y}}{dx} = \mathbf{A}$$
 * }

अनुप्रयोग
मैट्रिक्स डिफरेंशियल कैलकुलस का उपयोग सांख्यिकी और अर्थमिति में किया जाता है, विशेष रूप से बहुभिन्नरूपी वितरण के सांख्यिकीय विश्लेषण के लिए, विशेष रूप से बहुभिन्नरूपी सामान्य वितरण और अन्य अण्डाकार वितरण। इसका उपयोग प्रतिगमन विश्लेषण में गणना करने के लिए किया जाता है, उदाहरण के लिए, रैखिक कम से कम वर्ग (गणित) # एकाधिक व्याख्यात्मक चर के मामले के लिए सामान्य समस्या। इसका उपयोग स्थानीय संवेदनशीलता और सांख्यिकीय निदान में भी किया जाता है।

यह भी देखें

 * व्युत्पन्न (सामान्यीकरण)
 * उत्पाद अभिन्न
 * रिक्की कैलकुलस#भेदभाव

अग्रिम पठन

 * . Note that this Wikipedia article has been nearly completely revised from the version criticized in this article.
 * . Note that this Wikipedia article has been nearly completely revised from the version criticized in this article.
 * . Note that this Wikipedia article has been nearly completely revised from the version criticized in this article.

सॉफ्टवेयर

 * MatrixCalculus.org, सांकेतिक रूप से मैट्रिक्स कैलकुलस एक्सप्रेशंस के मूल्यांकन के लिए एक वेबसाइट
 * NCAlgebra, एक ओपन-सोर्स मेथेमेटिका  पैकेज जिसमें कुछ मैट्रिक्स कैलकुलस कार्यक्षमता है
 * SymPy अपने मैट्रिक्स एक्सप्रेशन मॉड्यूल में प्रतीकात्मक मैट्रिक्स डेरिवेटिव का समर्थन करता है, साथ ही इसके में प्रतीकात्मक टेंसर डेरिवेटिव। संगठन/नवीनतम/मॉड्यूल/टेंसर/array_expressions.html सरणी अभिव्यक्ति मॉड्यूल।

जानकारी

 * मैट्रिक्स संदर्भ मैनुअल, माइक ब्रुक्स, इंपीरियल कॉलेज लंदन।
 * मैट्रिक्स विभेदीकरण (और कुछ अन्य सामग्री), रैंडल जे. बार्न्स, सिविल इंजीनियरिंग विभाग, मिनेसोटा विश्वविद्यालय।
 * मैट्रिक्स कैलकुलस पर नोट्स, पॉल एल. फैकलर, उत्तरी कैरोलिना स्टेट यूनिवर्सिटी ।
 * मैट्रिक्स डिफरेंशियल कैलकुलस (स्लाइड प्रस्तुति), झांग ले, एडिनबर्ग विश्वविद्यालय।
 * वेक्टर और मैट्रिक्स विभेदन का परिचय (मैट्रिक्स विभेदन पर नोट्स, इकोनोमेट्रिक्स के संदर्भ में), हीनो बोह्न नीलसन।
 * ए नोट ऑन डिफरेंशियेटिंग मेट्रिसेस (नोट्स ऑन मैट्रिक्स डिफरेंशिएशन), पावेल कोवल, म्यूनिख पर्सनल रेपेक आर्काइव से।
 * वेक्टर/मैट्रिक्स कैलकुलस मैट्रिक्स विभेदन पर अधिक नोट्स।
 * मैट्रिक्स आइडेंटिटीज (मैट्रिक्स डिफरेंशिएशन पर नोट्स), सैम रोविस।

श्रेणी:मैट्रिक्स सिद्धांत श्रेणी:रैखिक बीजगणित श्रेणी:बहुपरिवर्तनीय कलन