कारक विश्लेषण

कारक विश्लेषण सांख्यिकी पद्धति है जिसका उपयोग प्रेक्षित, सहसंबद्ध वेरिएबल (गणित) के मध्य विचरण का वर्णन करने के लिए संभावित रूप से कम संख्या में न देखे गए वेरिएबल के संदर्भ में किया जाता है जिन्हें कारक कहा जाता है। उदाहरण के लिए, यह संभव है कि छह देखे गए वेरिएबलों में भिन्नताएं मुख्य रूप से दो न देखे गए (अंतर्निहित) वेरिएबलों में भिन्नताएं दर्शाती हैं। कारक विश्लेषण न देखे गए अव्यक्त वेरिएबलों की प्रतिक्रिया में ऐसी संयुक्त विविधताओं की खोज करता है। इसको देखे गए वेरिएबल के आंकड़ों के संदर्भ में संभावित कारकों और त्रुटियों और अवशेषों के रैखिक संयोजन के रूप में तैयार किया गया है, इसलिए कारक विश्लेषण को वेरिएबल-में-त्रुटि मॉडल के विशेष स्तिथियों के रूप में माना जा सकता है। सीधे शब्दों में कहेंतब, किसी वेरिएबल का कारक लोडिंग उस सीमा को निर्धारित करता है, जिस सीमा तक वेरिएबल किसी दिए गए कारक से संबंधित होता है।

कारक विश्लेषणात्मक विधियों के पीछे सामान्य तर्क यह है कि देखे गए वेरिएबल के मध्य अन्योन्याश्रितताओं के बारे में प्राप्त जानकारी का उपयोग और इसके पश्चात में डेटासमुच्चय में वेरिएबल के समुच्चय को कम करने के लिए किया जा सकता है। कारक विश्लेषण का उपयोग सामान्यतः साइकोमेट्रिक्स, व्यक्तित्व मनोविज्ञान, जीव विज्ञान, विपणन, उत्पाद प्रबंधन, संचालन अनुसंधान, वित्त और यंत्र अधिगम में किया जाता है। यह उन डेटा समुच्चयों से निपटने में सहायता कर सकता है जहां बड़ी संख्या में देखे गए वेरिएबल हैं जो अंतर्निहित/अव्यक्त वेरिएबल की लघु संख्या को प्रतिबिंबित करते हैं। यह सबसे अधिक उपयोग की जाने वाली अंतर-निर्भरता तकनीकों में से है और इसका उपयोग तब किया जाता है जब वेरिएबल का प्रासंगिक समुच्चय व्यवस्थित अंतर-निर्भरता दिखाता है और इसका उद्देश्य उन अव्यक्त कारकों का पता लगाना है जो समानता बनाते हैं।

परिभाषा
मॉडल प्रत्येक $$n$$ व्यक्तियों में $$k$$ सामान्य कारकों $$f_{i,j}$$ के समुच्चय के साथ $$p$$ अवलोकनों के समुच्चय को समझाने का प्रयास करता है, जहां प्रति इकाई अवलोकनों की तुलना में प्रति इकाई कम कारक $$k<p$$ होते हैं। प्रत्येक व्यक्ति के समीप अपने स्वयं के सामान्य कारक $$k$$ होते हैं, और ये एकल अवलोकन के लिए, कारक लोडिंग आव्युह $$L \in \mathbb{R}^{p \times k}$$ के माध्यम से अवलोकनों से संबंधित होते हैं।


 * $$x_{i,m} - \mu_{i} = l_{i,1} f_{1,m} + \dots + l_{i,k} f_{k,m} + \varepsilon_{i,m} $$

जहाँ
 * $$x_{i,m}$$ $$m$$वें व्यक्ति के $$i$$वें अवलोकन का मान है,
 * $$\mu_i$$ $$i$$वें अवलोकन के लिए अवलोकन माध्य है,
 * $$l_{i,j}$$ $$j$$वें कारक के $$i$$वें अवलोकन के लिए लोडिंग है,
 * $$f_{j,m}$$ $$m$$वें व्यक्ति के $$j$$वें कारक का मान है, और
 * $$\varepsilon_{i,m} $$ माध्य शून्य और परिमित विचरण के साथ $$(i,m)$$वां अवलोकित स्टोकेस्टिक त्रुटि शब्द है।

आव्युह नोटेशन में


 * $$X - \Mu = L F + \varepsilon$$

जहां अवलोकन आव्यूह $$X \in \mathbb{R}^{p \times n}$$, लोडिंग आव्यूह $$L \in \mathbb{R}^{p \times k}$$, कारक आव्यूह $$F \in \mathbb{R}^{k \times n}$$, त्रुटि टर्म आव्यूह $$\varepsilon \in \mathbb{R}^{p \times n}$$ और माध्य आव्यूह $$\Mu \in \mathbb{R}^{p \times n}$$ है, जिससे $$(i,m)$$वां अवयव सिर्फ $$\Mu_{i,m}=\mu_i$$ है।

इसके अतिरिक्त हम $$F$$ निम्नलिखित धारणाएँ भी प्रयुक्त करेंगे :


 * 1) $$F$$ और $$\varepsilon$$ स्वतंत्र हैं.
 * 2) $$\mathrm{E}(F) = 0$$; जहां $$\mathrm E$$ अपेक्षा है
 * 3) $$\mathrm{Cov}(F)=I$$ जहाँ $$\mathrm{Cov}$$ सहप्रसरण आव्युह है, यह सुनिश्चित करने के लिए कि कारक असंबंधित हैं, और $$I$$ पहचान आव्युह है.

कल्पना करना $$\mathrm{Cov}(X - \Mu)=\Sigma$$. तब


 * $$\Sigma=\mathrm{Cov}(X - \Mu)=\mathrm{Cov}(LF + \varepsilon),\,$$

और इसलिए, लगाई गई शर्तों 1 और 2 से $$F$$ ऊपर, $$E[LF]=LE[F]=0$$ और $$Cov(LF+\epsilon)=Cov(LF)+Cov(\epsilon)$$, देना


 * $$\Sigma = L \mathrm{Cov}(F) L^T + \mathrm{Cov}(\varepsilon),\,$$

या, समुच्चयिंग $$\Psi:=\mathrm{Cov}(\varepsilon)$$,


 * $$\Sigma = LL^T + \Psi.\,$$

ध्यान दें कि किसी भी ऑर्थोगोनल आव्युह $$Q$$ के लिए,यदि $$L^\prime=\ LQ$$ और $$F^\prime=Q^T F$$ और हम अगर हम समुच्चय करते हैं तब कारक और कारक लोडिंग के मानदंड अभी भी दृढ़ हैं। इसलिए कारकों और कारक लोडिंग का समुच्चय केवल ऑर्थोगोनल परिवर्तन तक अद्वितीय है।

उदाहरण
मान लीजिए कि मनोवैज्ञानिक की परिकल्पना है कि बुद्धि (विशेषता) दो प्रकार की होती है, मौखिक बुद्धि और गणितीय बुद्धि, जिनमें से कोई भी प्रत्यक्ष रूप से नहीं देखी जाती है। इसमें 1000 छात्रों के 10 भिन्न-भिन्न शैक्षणिक क्षेत्रों में से प्रत्येक के परीक्षा अंकों में परिकल्पना के साक्ष्य मांगे गए हैं। यदि प्रत्येक छात्र को बड़ी आपश्चाती (सांख्यिकी) से यादृच्छिक रूप से चुना जाता है,तब प्रत्येक छात्र के 10 अंक यादृच्छिक वेरिएबल होते हैं। मनोवैज्ञानिक की परिकल्पना कह सकती है कि 10 अकादमिक क्षेत्रों में से प्रत्येक के लिए, उन सभी छात्रों के समूह पर औसत स्कोर जो मौखिक और गणितीय बुद्धि के लिए मानों की कुछ सामान्य जोड़ी साझा करते हैं, कुछ स्थिरांक (गणित) उनकी मौखिक बुद्धि के स्तर का यह अनेक गुना होता है और अन्य स्थिरांक उनके गणितीय बुद्धि के स्तर का अनेक गुना है, अथार्त, यह उन दो कारकों का रैखिक संयोजन है। किसी विशेष विषय के लिए संख्याएँ होती हैं, जिनके द्वारा अपेक्षित स्कोर प्राप्त करने के लिए दो प्रकार की बुद्धिमत्ता को गुणा किया जाता है, परिकल्पना द्वारा सभी बुद्धिमत्ता स्तर के जोड़े के लिए समान मानी जाती हैं, और इस विषय के लिए कारक लोडिंग कहलाती हैं। उदाहरण के लिए, परिकल्पना यह मान सकती है कि खगोल विज्ञान के क्षेत्र में अनुमानित औसत छात्र की योग्यता है


 * {10 × छात्र की मौखिक बुद्धि} + {6 × छात्र की गणितीय बुद्धि}।

संख्या 10 और 6 खगोल विज्ञान से जुड़े कारक लोडिंग हैं। अन्य शैक्षणिक विषयों में भिन्न-भिन्न कारक लोड हो सकते हैं।

ऐसा माना जाता है कि मौखिक और गणितीय बुद्धि की समान डिग्री वाले दो छात्रों की खगोल विज्ञान में भिन्न-भिन्न मापी गई योग्यताएं हो सकती हैं क्योंकि व्यक्तिगत योग्यताएं औसत योग्यताओं (ऊपर अनुमानित) से भिन्न होती हैं और इसमें माप त्रुटि के कारण ही भिन्न होती हैं। इस प्रकार के मतभेदों को सामूहिक रूप से त्रुटि कहा जाता है - सांख्यिकीय शब्द जिसका अर्थ है वह मात्रा जिसके द्वारा किसी व्यक्ति को मापा जाता है, जो उसकी बुद्धिमत्ता के स्तर के लिए औसत या अनुमानित से भिन्न होता है (आंकड़ों में त्रुटियां और अवशेष देखें)।

कारक विश्लेषण में जाने वाला अवलोकन योग्य डेटा 1000 छात्रों में से प्रत्येक के 10 अंक, कुल 10,000 नंबर होंते हैं। डेटा से प्रत्येक छात्र की दो प्रकार की बुद्धि के कारक लोडिंग और स्तर का अनुमान लगाया जाना चाहिए।

उसी उदाहरण का गणितीय मॉडल
निम्नलिखित में, आव्युह को अनुक्रमित वेरिएबल द्वारा दर्शाया जाएगा। "विषय" सूचकांकों को अक्षर $$a$$, $$b$$ और $$c$$,का उपयोग करके दर्शाया जाएगा, जिसमें मान $$1$$से $$p$$ तक चलेंगे जो उपरोक्त उदाहरण में $$10$$ के सामान्य है। "कारक" सूचकांकों को अक्षर $$p$$, $$q$$ और $$r$$ का उपयोग करके दर्शाया जाएगा, जिसका मान $$1$$ से $$k$$ तक होगा जो उपरोक्त उदाहरण में $$2$$ के सामान्य है। "उदाहरण" या "प्रतिरूप" सूचकांकों को $$i$$, $$j$$ और $$k$$ अक्षरों का उपयोग करके दर्शाया जाएगा, जिसमें मान $$1$$ से $$N$$ तक चलेंगे। उपरोक्त उदाहरण में, यदि $$N=1000$$ छात्रों के प्रतिरूप ने $$p=10$$ परीक्षाओं में भाग लिया, तब $$i$$ $$a$$ परीक्षा के लिए छात्र का स्कोर $$x_{ai}$$ द्वारा दिया गया है। कारक विश्लेषण का उद्देश्य चर $$x_a$$ के मध्य सहसंबंधों को चिह्नित करना है, जिनमें से $$x_{ai}$$ विशेष उदाहरण, या अवलोकनों का समुच्चय है। वेरिएबलों को समान स्तर पर रखने के लिए, उन्हें मानक स्कोर $$z$$ में सामान्यीकरण (सांख्यिकी किया जाता है |
 * $$z_{ai}=\frac{x_{ai}-\hat\mu_a}{\hat\sigma_a}$$

जहां प्रतिरूप माध्य है:
 * $$\hat\mu_a=\tfrac{1}{N}\sum_i x_{ai}$$

और प्रतिरूप विचरण इस प्रकार दिया गया है:
 * $$\hat\sigma_a^2=\tfrac{1}{N-1}\sum_i (x_{ai}-\mu_a)^2$$

इस विशेष प्रतिरूप के लिए कारक विश्लेषण मॉडल तब है:
 * $$\begin{matrix}z_{1,i} & = & \ell_{1,1}F_{1,i} & + & \ell_{1,2}F_{2,i} & + & \varepsilon_{1,i} \\

\vdots & & \vdots & & \vdots & & \vdots \\ z_{10,i} & = & \ell_{10,1}F_{1,i} & + & \ell_{10,2}F_{2,i} & + & \varepsilon_{10,i} \end{matrix}$$ या, अधिक संक्षेप में:

z_{ai}=\sum_p \ell_{ap}F_{pi}+\varepsilon_{ai} $$ जहाँ
 * $$F_{1i}$$,$$i$$वें छात्र की मौखिक बुद्धि है,
 * $$F_{2i}$$,$$i$$वें छात्र की गणितीय बुद्धि हैं,
 * $$\ell_{ap}$$,$$a$$वें विषय, के लिए $$p=1,2$$ के लिए कारक लोडिंग हैं।

आव्युह (गणित) नोटेशन में, हमारे समीप है
 * $$Z=LF+\varepsilon$$

उस मापदंड को दोगुना करके देखें जिस पर मौखिक बुद्धिमत्ता $$F$$- प्रत्येक कॉलम में पहला घटक है मापा जाता है, और साथ ही मौखिक बुद्धिमत्ता के लिए कारक लोडिंग को आधा करने से मॉडल पर कोई भिन्नता नहीं दिखाई पड़ती है। इस प्रकार, यह मानने से कोई व्यापकता नहीं खोती है कि मौखिक बुद्धि के लिए कारकों का मानक विचलन $$1$$ है | इसी प्रकार गणितीय बुद्धि के लिए भी हैं इसके अतिरिक्त, समान कारणों से, यह मानने से कोई व्यापकता विलुप्त नहीं है कि दोनों कारक एक-दूसरे से असंबद्ध होते हैं। दूसरे शब्दों में:
 * $$\sum_i F_{pi}F_{qi}=\delta_{pq}$$

जहाँ $$\delta_{pq}$$ क्रोनकर डेल्टा है और ($$0$$ जब $$p \ne q$$ और $$1$$ जब $$p=q$$).त्रुटियों को कारकों से स्वतंत्र माना जाता है:
 * $$\sum_i F_{pi}\varepsilon_{ai}=0$$

ध्यान दें, चूँकि किसी समाधान का कोई आवर्तन भी समाधान है, इससे कारकों की व्याख्या करना कठिन हो जाता है। नीचे हानि देखें. इस विशेष उदाहरण में, यदि हम पूर्व से नहीं जानते हैं कि दो प्रकार की बुद्धि असंबद्ध हैं,तब हम दो कारकों की दो भिन्न-भिन्न प्रकार की बुद्धि के रूप में व्याख्या नहीं कर सकते हैं। तथापि वह इससे असंबंधित होते हैं, हम बिना किसी बाहरी तर्क के यह नहीं बता सकते कि कौन सा कारक मौखिक बुद्धि से मेल खाता है और कौन सा गणितीय बुद्धि से मेल खाता है।

लोडिंग का मान $$L$$, औसत $$\mu$$, और त्रुटियों की भिन्नताएँ $$\varepsilon$$ प्रेक्षित डेटा को देखते हुए अनुमान लगाया जाना चाहिए कि $$X$$ और $$F$$ (कारकों के स्तर के बारे में धारणा किसी दिए गए $$F$$ के लिए प्रयुक्त की गई है | मौलिक प्रमेय उपरोक्त शर्तों से प्राप्त किया जा सकता है |
 * $$\sum_i z_{ai}z_{bi}=\sum_j \ell_{aj}\ell_{bj}+\sum_i \varepsilon_{ai}\varepsilon_{bi}$$

बाईं ओर का शब्द सहसंबंध आव्युह का $$(a,b)$$-अवलोकन है (ए $$p \times p$$ आव्युह जो देखे गए डेटा के मानकीकृत अवलोकनों के आव्युह के उत्पाद के रूप में प्राप्त होता है) और इसका $$p$$ विकर्ण तत्व $$1$$ s होंगे। दाईं ओर दूसरा पद विकर्ण आव्युह होता हैं जिसमें इकाई से कम पद होते हैं। दाईं ओर पहला पद "कम सहसंबंध आव्युह" है और इसके विकर्ण मानों को छोड़कर सहसंबंध आव्युह के सामान्य होगा जो एकता से कम होगा। कम सहसंबंध आव्युह के इन विकर्ण अवयवो को "सामुदायिकताएं" कहा जाता है (जो कारकों द्वारा देखे गए वेरिएबल में भिन्नता के अंश का प्रतिनिधित्व करते हैं):

h_a^2=1-\psi_a=\sum_j \ell_{aj}\ell_{aj} $$ प्रतिरूप डेटा $$z_{ai}$$ प्रतिरूपकरण त्रुटियों, मॉडल की अपर्याप्तता आदि के कारण ऊपर दिए गए मौलिक समीकरण का सम्पूर्ण रूप में पालन नहीं किया जाएगा। उपरोक्त मॉडल के किसी भी विश्लेषण का लक्ष्य कारकों का पता लगाना है | इसमें $$F_{pi}$$ और लोडिंग $$\ell_{ap}$$ जो डेटा को सर्वोत्तम रूप से फिट करता है। और इस कारक विश्लेषण में, सर्वोत्तम फिट को सहसंबंध आव्युह के ऑफ-विकर्ण अवशेषों में न्यूनतम माध्य वर्ग त्रुटि के रूप में परिभाषित किया गया है:
 * $$\varepsilon^2 = \sum_{a\ne b} \left[\sum_i z_{ai}z_{bi}-\sum_j \ell_{aj}\ell_{bj}\right]^2$$

यह त्रुटि सहप्रसरण के ऑफ-विकर्ण घटकों को कम करने के सामान्य है, जिसमें मॉडल समीकरणों में शून्य के अपेक्षित मान होते हैं। इसकी तुलना प्रमुख घटक विश्लेषण से की जानी चाहिए जो सभी अवशेषों की माध्य वर्ग त्रुटि को कम करने का प्रयास करता है। इसमें हाई-स्पीड कंप्यूटर के आगमन से पूर्व, समस्या के अनुमानित समाधान खोजने के लिए अधिक प्रयास किए गए थे, विशेष रूप से अन्य विधियों से सांप्रदायिकताओं का अनुमान लगाने में होता हैं, जो तब ज्ञात कम सहसंबंध आव्युह उत्पन्न करके समस्या को अधिक सरल बनाता है। इसके पश्चात कारकों और लोडिंग का अनुमान लगाने के लिए इसका उपयोग किया गया हैं। हाई-स्पीड कंप्यूटर के आगमन के साथ, न्यूनतमकरण की समस्या को पर्याप्त गति के साथ पुनरावृत्त रूप से समाधान किया जा सकता है, और सामुदायिकताओं की गणना पूर्व से आवश्यक होने के अतिरिक्त प्रक्रिया में की जाती है। सामान्यीकृत न्यूनतम अवशिष्ट विधि एल्गोरिथ्म इस समस्या के लिए विशेष रूप से उपयुक्त है, किन्तु समाधान खोजने का संभवतः यह एकमात्र पुनरावृत्त साधन है।

यदि समाधान कारकों को सहसंबंधित करने की अनुमति दी जाती है | इस प्रकार (उदाहरण के लिए 'ओब्लिमिन' रोटेशन में) होता हैं,तब यह संबंधित गणितीय मॉडल ऑर्थोगोनल निर्देशांक के अतिरिक्त स्कू निर्देशांक का उपयोग करता है।

ज्यामितीय व्याख्या


कारक विश्लेषण के मापदंडों और चर को ज्यामितीय व्याख्या दी जा सकती है। इसमें डेटा ($$z_{ai}$$), कारक ($$F_{pi}$$) और त्रुटियों ($$\varepsilon_{ai}$$) को $$N$$-आयामी यूक्लिडियन स्पेस (प्रतिरूप स्थान) में सदिश के रूप में देखा जा सकता है, जिसे क्रमशः $$\mathbf{z}_a$$, $$\mathbf{F}_p$$ और $$\boldsymbol{\varepsilon}_a$$ के रूप में दर्शाया जाता है। चूंकि डेटा मानकीकृत है, इसमें डेटा सदिश इकाई लंबाई $$||\mathbf{z}_a||=1$$ के सामान्य हैं। कारक सदिश इस स्थान में $$k$$-आयामी रैखिक उप-स्थान (अथार्त यह हाइपरप्लेन) को परिभाषित करते हैं, जिस पर डेटा सदिश ऑर्थोगोनल रूप से प्रक्षेपित होते हैं। यह मॉडल समीकरण से निम्नानुसार है
 * $$\mathbf{z}_a=\sum_p \ell_{ap} \mathbf{F}_p+\boldsymbol{\varepsilon}_a$$

और कारकों और त्रुटियों की स्वतंत्रता: $$\mathbf{F}_p\cdot\boldsymbol{\varepsilon}_a=0$$ होता हैं. उपरोक्त उदाहरण में, हाइपरप्लेन केवल दो कारक सदिश द्वारा परिभाषित 2-आयामी प्लेन है। हाइपरप्लेन पर डेटा सदिश का प्रक्षेपण इसके द्वारा दिया गया है


 * $$\hat{\mathbf{z}}_a=\sum_p \ell_{ap}\mathbf{F}_p$$

और त्रुटियाँ उस अनुमानित बिंदु से डेटा बिंदु सीमा तक सदिश हैं और यह हाइपरप्लेन के लंबवत होता हैं। कारक विश्लेषण का लक्ष्य हाइपरप्लेन ढूंढना है जो कुछ अर्थों में डेटा के लिए सबसे उपयुक्त होता है, इसलिए इसमें कोई भिन्नता दिखाई नहीं पड़ती हैं कि इस हाइपरप्लेन को परिभाषित करने वाले कारक सदिश को कैसे चुना जाता है, जब तक कि वह स्वतंत्र हैं और हाइपरप्लेन में स्थित हैं। इसमें हाइपरप्लेन व्यापकता की हानि के बिना उन्हें ऑर्थोगोनल और सामान्य ($$\mathbf{F}_p\cdot \mathbf{F}_q=\delta_{pq}$$) दोनों के रूप में निर्दिष्ट करने के लिए स्वतंत्र हैं। इसमें कारकों का उपयुक्त समुच्चय पाए जाने के पश्चात, उन्हें हाइपरप्लेन के अंदर अनेैतिक रूप से परिवर्तित किया जा सकता है, जिससे कि कारक सदिश का कोई भी परिवर्तन उसी हाइपरप्लेन को परिभाषित करेगा, और उसका समाधान भी होगा।इसके परिणामस्वरूप, उपरोक्त उदाहरण में, जिसमें फिटिंग हाइपरप्लेन दो आयामी है, यदि हम पूर्व से नहीं जानते हैं कि दो प्रकार की बुद्धि असंबंधित होती हैं,तब हम दो कारकों की दो भिन्न-भिन्न प्रकार की बुद्धि के रूप में व्याख्या नहीं कर सकते हैं। यदि वह असंबंधित हों, हम बिना किसी बाहरी तर्क को यह नहीं बता सकते कि कौन सा कारक मौखिक बुद्धि से मेल खाता है और कौन सा गणितीय बुद्धि से मेल खाता है, या यह कारक दोनों का रैखिक संयोजन हैं।

डेटा सदिश $$\mathbf{z}_a$$ इकाई लंबाई है. डेटा के लिए सहसंबंध आव्युह की प्रविष्टियाँ $$r_{ab}=\mathbf{z}_a\cdot\mathbf{z}_b$$ द्वारा दी गई हैं | सहसंबंध आव्युह को ज्यामितीय रूप से दो डेटा सदिश $$\mathbf{z}_a$$ और $$\mathbf{z}_b$$ के मध्य के कोण के कोसाइन के रूप में व्याख्या किया जा सकता है विकर्ण अवयव स्पष्ट रूप से $$1$$s होंगे और ऑफ विकर्ण अवयवों का निरपेक्ष मान एकता से कम या उसके सामान्य होगा। "कम सहसंबंध आव्युह" को इस प्रकार परिभाषित किया गया है
 * $$\hat{r}_{ab}=\hat{\mathbf{z}}_a\cdot\hat{\mathbf{z}}_b$$.

कारक विश्लेषण का लक्ष्य फिटिंग हाइपरप्लेन का चयन करना है, जिससे कि सहसंबंध आव्युह के विकर्ण अवयवों को छोड़कर, कम सहसंबंध आव्युह सहसंबंध आव्युह को यथासंभव पुन: उत्पन्न कर सके, जिन्हें इकाई मान के रूप में जाना जाता है। दूसरे शब्दों में, लक्ष्य डेटा में क्रॉस-सहसंबंधों को यथासंभव स्पष्ट रूप से पुन: प्रस्तुत करना है। विशेष रूप से, फिटिंग हाइपरप्लेन के लिए, ऑफ-विकर्ण घटकों में माध्य वर्ग त्रुटि होती हैं
 * $$\varepsilon^2=\sum_{a\ne b} \left(r_{ab}-\hat{r}_{ab}\right)^2$$

इसे न्यूनतम किया जाना है, और इसे ऑर्थोनॉर्मल कारक सदिश के समुच्चय के संबंध में इसे कम करके पूर्ण किया जाता है। यह देखा जा सकता है

r_{ab}-\hat{r}_{ab}= \boldsymbol{\varepsilon}_a\cdot\boldsymbol{\varepsilon}_b $$ दाईं ओर का शब्द केवल त्रुटियों का सहप्रसरण है। इस मॉडल में, त्रुटि सहप्रसरण को विकर्ण आव्युह कहा गया है और इसलिए उपरोक्त न्यूनतमकरण समस्या वास्तव में मॉडल के लिए सबसे उपयुक्त होती हैं यह त्रुटि सहप्रसरण का प्रतिरूप अनुमान प्राप्त करती हैं जिसके ऑफ-विकर्ण घटकों को औसत वर्ग अर्थ में न्यूनतम किया गया है। यह देखा जा सकता है कि जब से $$\hat{z}_a$$ डेटा सदिश के ऑर्थोगोनल प्रक्षेपण हैं, उनकी लंबाई अनुमानित डेटा सदिश की लंबाई से कम या उसके सामान्य होगी, जो कि एकता है। इन लंबाइयों का वर्ग कम सहसंबंध आव्युह के विकर्ण अवयव मात्र होता हैं। इस कम सहसंबंध आव्युह के इन विकर्ण अवयवों को सांप्रदायिकता के रूप में जाना जाता है:



{h_a}^2=||\hat{\mathbf{z}}_a||^2= \sum_p {\ell_{ap}}^2 $$ समुदायों के बड़े मान यह संकेत देंगे कि फिटिंग हाइपरप्लेन सहसंबंध आव्युह को स्पष्ट रूप से पुन: प्रस्तुत कर रहा है। इसमें कारकों के माध्य मानों को भी शून्य होने के लिए बाध्य किया जाना चाहिए, जिससे यह निष्कर्ष निकलता है कि त्रुटियों का माध्य मान भी शून्य होता हैं।

खोजपूर्ण कारक विश्लेषण
खोजपूर्ण कारक विश्लेषण (ईएफए) का उपयोग उन वस्तुओं और समूह वस्तुओं के मध्य सम्मिश्र अंतर्संबंधों की पहचान करने के लिए किया जाता है जो एकीकृत अवधारणाओं का भाग होता हैं। शोधकर्ता कारकों के मध्य संबंधों के बारे में कोई पूर्व धारणा नहीं बनाता है।

पुष्टि कारक विश्लेषण
पुष्टिकरण कारक विश्लेषण (सीएफए) अधिक सम्मिश्र दृष्टिकोण है जो इस परिकल्पना का परीक्षण करता है कि आइटम विशिष्ट कारकों से जुड़े हैं। सीएफए माप मॉडल का परीक्षण करने के लिए संरचनात्मक समीकरण मॉडलिंग का उपयोग करता है जिससे कारकों पर लोड करने से देखे गए वेरिएबल और न देखे गए वेरिएबल के मध्य संबंधों के मानांकन की अनुमति मिलती है। संरचनात्मक समीकरण मॉडलिंग दृष्टिकोण माप त्रुटि को समायोजित कर सकते हैं और यह न्यूनतम-वर्ग अनुमान की तुलना में कम प्रतिबंधात्मक होते हैं। परिकल्पित मॉडल का परीक्षण वास्तविक डेटा के विरुद्ध किया जाता है, और इसमें विश्लेषण अव्यक्त वेरिएबल (कारकों) पर देखे गए वेरिएबल के लोडिंग के साथ-साथ अव्यक्त वेरिएबल के मध्य सहसंबंध को भी प्रदर्शित करता हैं।

कारक निष्कर्षण के प्रकार
प्रमुख घटक विश्लेषण (पीसीए) कारक निष्कर्षण के लिए व्यापक रूप से उपयोग की जाने वाली विधि है, जो ईएफए का प्रथम चरण है। इसमें अधिकतम संभावित विचरण निकालने के लिए कारक भार की गणना की जाती है, क्रमिक कारकिंग तब तक जारी रहती है जब तक कि इसमें कोई और सार्थक विचरण नहीं बचा होता हैं। इसके पश्चात् फिर विश्लेषण के लिए कारक मॉडल को परिवर्तित किया जाना चाहिए।

कैनोनिकल कारक विश्लेषण, जिसे राव की कैनोनिकल कारकिंग भी कहा जाता है, यह पीसीए के समान मॉडल की गणना करने की भिन्न विधि है, जो प्रमुख अक्ष विधि का उपयोग करती है। विहित कारक विश्लेषण उन कारकों की खोज करता है जिनका प्रेक्षित वेरिएबल के साथ उच्चतम विहित सहसंबंध होता है। यह विहित कारक विश्लेषण डेटा के इच्छानुसार पुनर्स्केलिंग से अप्रभावित रहता है।

सामान्य कारक विश्लेषण, जिसे प्रमुख कारक विश्लेषण (पीएफए) या प्रमुख अक्ष कारकिंग (पीएएफ) भी कहा जाता है, यह सबसे कम कारकों की खोज करता है जो वेरिएबल के समुच्चय के सामान्य विचरण (सहसंबंध) के लिए ​उत्तरदायी हो सकते हैं।

छवि कारकिंग वास्तविक वेरिएबल के अतिरिक्त अनुमानित वेरिएबल के सहसंबंध आव्युह पर आधारित होते है, जहां प्रत्येक वेरिएबल का पूर्वानुमान अनेक प्रतिगमन का उपयोग करके दूसरों से किया जाता है।

अल्फा कारकिंग कारकों की विश्वसनीयता को अधिकतम करने पर आधारित होता है, यह मानते हुए कि वेरिएबल को वेरिएबल के यूनिवर्स से यादृच्छिक रूप से प्रतिरूप लिया जाता है। तथा अन्य सभी विधियाँ यह मानती हैं कि स्तिथियों को प्रतिरूपकृत किया गया है और वेरिएबलों को निश्चित किया गया है।

कारक प्रतिगमन मॉडल कारक मॉडल और प्रतिगमन मॉडल का संयोजन मॉडल है | तथा वैकल्पिक रूप से, इसे हाइब्रिड कारक मॉडल के रूप में देखा जा सकता है, जिनके कारक आंशिक रूप से ज्ञात हैं।

शब्दावली
फैक्टर लोडिंग: सामुदायिकता किसी वस्तु की मानकीकृत बाहरी लोडिंग का वर्ग होता है। पियर्सन का आर-वर्ग के अनुरूप, वर्ग कारक लोडिंग कारक द्वारा समझाए गए उस संकेतक वेरिएबल में भिन्नता का प्रतिशत होता है। इसमें प्रत्येक कारक के अनुरूप सभी वेरिएबल में भिन्नता का प्रतिशत प्राप्त करने के लिए होता हैं, उस कारक (स्तंभ) के लिए वर्ग कारक लोडिंग का योग जोड़ें और वेरिएबल की संख्या से विभाजित करें। (ध्यान दें कि वेरिएबलों की संख्या उनके प्रसरणों के योग के सामान्य होती है क्योंकि यह मानकीकृत वेरिएबल का प्रसरण 1 होता है।) यह कारक के आइजेनवैल्यू को वेरिएबलों की संख्या से विभाजित करने के समान है। व्याख्या करते समय, पुष्टिकारक कारक विश्लेषण में थम्ब के नियम के अनुसार, कारक लोडिंग .7 या उच्चतर होनी चाहिए जिससे यह पुष्टि की जा सके कि प्राथमिकता से पहचाने गए स्वतंत्र वेरिएबल विशेष कारक द्वारा दर्शाए जाते हैं, इस तर्क पर कि .7 स्तर सामान्य है संकेतक में लगभग आधे विचरण को कारक द्वारा समझाया जा रहा है। चूँकि, .7 मानक उच्च होता है और वास्तविक जीवन का डेटा इस मानदंड को पूर्ण नहीं कर सकता है, यही कारण है कि कुछ शोधकर्ता, विशेष रूप से खोजपूर्ण उद्देश्यों के लिए, निचले स्तर का उपयोग करेंगे जैसे कि केंद्रीय कारक के लिए .4 और .25 के लिए होते हैं। और अन्य कारक किसी भी घटना में, कारक लोडिंग की व्याख्या सिद्धांत के आलोक में की जानी चाहिए, न कि यह इच्छानुसार कटऑफ स्तरों के आधार पर होती हैं। स्कू रोटेशन में, कोई पैटर्न आव्यूह और संरचना पैटर्न दोनों की जांच कर सकता है। संरचना आव्यूह केवल ऑर्थोगोनल रोटेशन के रूप में कारक लोडिंग आव्यूह होता है, जो अद्वितीय और सामान्य योगदान के आधार पर कारक द्वारा समझाए गए माप वेरिएबल में भिन्नता का प्रतिनिधित्व करता है। इसके विपरीत, पैटर्न आव्यूह में गुणांक होते हैं जो अद्वितीय योगदान का प्रतिनिधित्व करते हैं। जितने अधिक कारक होंगे, एक नियम के रूप में पैटर्न गुणांक उतना ही कम होता हैं  चूंकि विचरण में अधिक सामान्य योगदान समझाया जाएगा। स्कू परिवर्तन के लिए, शोधकर्ता किसी कारक को लेबल देते समय संरचना और पैटर्न गुणांक दोनों को देखता है। स्कू घूर्णन के सिद्धांतों को क्रॉस एन्ट्रॉपी और इसकी सामान्य एन्ट्रॉपी दोनों से प्राप्त किया जा सकता है. समुदाय: किसी दिए गए वेरिएबल (पंक्ति) के लिए सभी कारकों के वर्गांकित कारक लोडिंग का योग उस वेरिएबल में सभी कारकों के कारण होने वाला विचरण है। सामुदायिकता सभी कारकों द्वारा संयुक्त रूप से समझाए गए किसी दिए गए वेरिएबल में भिन्नता के प्रतिशत को मापती है और इसे प्रस्तुत किए गए कारकों के संदर्भ में संकेतक की विश्वसनीयता के रूप में व्याख्या किया जा सकता है। प्रतिरूपता समाधान: यदि सामुदायिकता 1.0 से अधिक है, तब इसमें प्रतिरूपता समाधान होता है, जो बहुत लघु प्रतिरूप या बहुत अधिक प्रतिरूप होते हैं यह बहुत कम कारकों को निकालने के विकल्प को प्रतिबिंबित कर सकता है। वेरिएबल की विशिष्टता: किसी वेरिएबल की परिवर्तनशीलता में से उसकी सामुदायिकता को कम कर दिया जाता है। आइजनवैल्यू/विशेषता मूल्य: आइगेनवैल्यू प्रत्येक कारक के अनुसार से कुल प्रतिरूप में भिन्नता की मात्रा को मापते हैं। आइगेनवैल्यू का अनुपात वेरिएबल के संबंध में कारकों के व्याख्यात्मक महत्व का अनुपात होता है। यदि किसी कारक का आइगेनवैल्यू कम है, तब यह वेरिएबल इन भिन्नताओं की व्याख्या में बहुत कम योगदान दे रहा है और इसे उच्च आइगेनवैल्यू ​​वाले कारकों की तुलना में कम महत्वपूर्ण मानकर अनदेखा किया जा सकता है। वर्गांकित लोडिंग का निष्कर्षण योग: प्रारंभिक आइगेनवैल्यू ​​और निष्कर्षण के पश्चात् आइगेनवैल्यू (एसपीएसएस द्वारा "श्रेणीबद्ध लोडिंग के निष्कर्षण योग" के रूप में सूचीबद्ध) पीसीए निष्कर्षण के लिए समान हैं, किंतु अन्य निष्कर्षण विधियों के लिए, निष्कर्षण के पश्चात् आइगेनवैल्यू उनके प्रारंभिक समकक्षों की तुलना में कम होते है। यह एसपीएसएस "स्क्वायर लोडिंग के रोटेशन योग" को भी प्रिंट करता है और यहां तक कि पीसीए के लिए भी इसकी आवश्यकता होती हैं, यह आइगेनवैल्यू प्रारंभिक और निष्कर्षण आइगेनवैल्यू से भिन्न होते हैं, चूंकि इसमें उनका कुल योग समान होता हैं। कारक स्कोर: घटक स्कोर (पीसीए में): प्रत्येक कारक (स्तंभ) पर प्रत्येक स्तिथियों में (पंक्ति) के स्कोर होते हैं। किसी दिए गए कारक के लिए दी गई स्तिथियों के कारक स्कोर की गणना करने के लिए होते हैं, इसमें प्रत्येक वेरिएबल पर स्तिथियों का मानकीकृत स्कोर लिया जाता है, और इसमें दिए गए कारक के लिए वेरिएबल के संबंधित लोडिंग से गुणा किया जाता है, और इन उत्पादों का योग किया जाता है। इन कारक स्कोर की गणना करने से व्यक्ति को कारक आउटलेर्स को देखने की अनुमति मिलती है। इसके अतिरिक्त, कारक स्कोर का उपयोग इसके पश्चात् के मॉडलिंग में वेरिएबल के रूप में किया जा सकता है।

कारकों की संख्या निर्धारित करने के लिए मानदंड
शोधकर्ता कारक प्रतिधारण के लिए ऐसे व्यक्तिपरक या इच्छानुसार मानदंडों से बचना चाहते हैं क्योंकि यह मेरे लिए समझ में आता है। इस समस्या को समाधान करने के लिए अनेक वस्तुनिष्ठ विधियों विकसित किए गए हैं, जो उपयोगकर्ताओं को जांच के लिए समाधानों की उचित श्रृंखला निर्धारित करने की अनुमति देते हैं। हालाँकि ये भिन्न-भिन्न विधियाँ अक्सर एक-दूसरे से असहमत होती हैं कि कितने कारकों को बरकरार रखा जाना चाहिए। उदाहरण के लिए, समानांतर विश्लेषण 5 कारकों का सुझाव दे सकता है जबकि वेलिसर का एमएपी 6 का सुझाव देता है, इसलिए शोधकर्ता 5 और 6-कारक समाधान दोनों का अनुरोध कर सकता है और बाहरी डेटा और सिद्धांत के संबंध में प्रत्येक पर चर्चा कर सकता है।

आधुनिक मानदंड
हॉर्न का समानांतर विश्लेषण (पीए): मोंटे-कार्लो आधारित सिमुलेशन विधि जो देखे गए स्वदेशी मानों की तुलना असंबद्ध सामान्य वेरिएबल से प्राप्त मानों से करती है। कारक या घटक को बरकरार रखा जाता है यदि संबंधित आइगेनवैल्यू यादृच्छिक डेटा से प्राप्त आइजेनवैल्यू के वितरण के 95वें प्रतिशतक से बड़ा है। बनाए रखने के लिए घटकों की संख्या निर्धारित करने के लिए पीए अधिक सामान्यतः अनुशंसित नियमों में से है, किन्तु अनेक प्रोग्राम इस विकल्प को शामिल करने में विफल रहते हैं (एक उल्लेखनीय अपवाद आर (प्रोग्रामिंग भाषा) है)। हालाँकि, एंटोन फॉर्मैन ने सैद्धांतिक और अनुभवजन्य दोनों साक्ष्य प्रदान किए कि इसका अनुप्रयोग अनेक स्तिथियों में उचित नहीं हो सकता है क्योंकि इसका प्रदर्शन प्रतिरूप आकार, आइटम प्रतिक्रिया सिद्धांत # आइटम प्रतिक्रिया फ़ंक्शन और सहसंबंध गुणांक के प्रकार से अधिक प्रभावित होता है। वेलिसर (1976) एमएपी परीक्षण जैसा कि कर्टनी द्वारा वर्णित है (2013) "इसमें पूर्ण प्रमुख घटक विश्लेषण शामिल है जिसके पश्चात आंशिक सहसंबंधों के आव्युह की श्रृंखला की जांच की जाती है" (पृष्ठ 397 (हालांकि ध्यान दें कि यह उद्धरण वेलिसर (1976) में नहीं होता है और उद्धृत पृष्ठ संख्या उद्धरण के पृष्ठों के बाहर है)। चरण "0" के लिए वर्ग सहसंबंध (चित्र 4 देखें) अपूर्ण सहसंबंध आव्युह के लिए औसत वर्ग-विकर्ण सहसंबंध है। चरण 1 पर, पूर्व प्रमुख घटक और उससे संबंधित वस्तुओं को आंशिक रूप से हटा दिया जाता है। इसके पश्चात, पश्चात के सहसंबंध आव्युह के लिए औसत वर्ग-विकर्ण सहसंबंध की गणना चरण 1 के लिए की जाती है। चरण 2 पर, पूर्व दो प्रमुख घटकों को आंशिक रूप से हटा दिया जाता है और परिणामी औसत वर्ग-विकर्ण सहसंबंध की फिर से गणना की जाती है। गणना k शून्य से चरण के लिए की जाती है (k आव्युह में वेरिएबल की कुल संख्या का प्रतिनिधित्व करता है)। इसके पश्चात, प्रत्येक चरण के लिए सभी औसत वर्ग सहसंबंधों को पंक्तिबद्ध किया जाता है और विश्लेषण में चरण संख्या जिसके परिणामस्वरूप सबसे कम औसत वर्ग आंशिक सहसंबंध होता है, घटकों की संख्या निर्धारित करता है या बनाए रखने के लिए कारक। इस विधि द्वारा, घटकों को तब तक बनाए रखा जाता है जब तक सहसंबंध आव्युह में भिन्नता अवशिष्ट या त्रुटि भिन्नता के विपरीत व्यवस्थित भिन्नता का प्रतिनिधित्व करती है। यद्यपि पद्धतिगत रूप से प्रमुख घटक विश्लेषण के समान, एमएपी तकनीक को अनेक सिमुलेशन अध्ययनों में बनाए रखने के लिए कारकों की संख्या निर्धारित करने में अधिक अच्छा प्रदर्शन करते दिखाया गया है। यह प्रक्रिया SPSS के उपयोगकर्ता इंटरफ़ेस के माध्यम से उपलब्ध कराई गई है, साथ ही आर (प्रोग्रामिंग भाषा) के लिए मनोवैज्ञानिक पैकेज।

पुराने विधियों
कैसर मानदंड: कैसर नियम 1.0 के तहत eigenvalues ​​​​के साथ सभी घटकों को छोड़ने के लिए है - यह औसत एकल आइटम द्वारा दर्ज की गई जानकारी के सामान्य eigenvalue है। एसपीएसएस और अधिकांश सांख्यिकीय सॉफ़्टवेयर में कैसर मानदंड डिफ़ॉल्ट है, किन्तु कारकों की संख्या का अनुमान लगाने के लिए एकमात्र कट-ऑफ मानदंड के रूप में उपयोग किए जाने पर इसकी अनुशंसा नहीं की जाती है क्योंकि यह कारकों को अधिक निकालने की प्रवृत्ति रखता है। इस पद्धति का रूपांतर तैयार किया गया है जहां शोधकर्ता प्रत्येक आइगेनवैल्यू के लिए आत्मविश्वास अंतराल की गणना करता है और केवल उन कारकों को बरकरार रखता है जिनका संपूर्ण आत्मविश्वास अंतराल 1.0 से अधिक है। मिट्टी - रोढ़ी वाला भूखंड: कैटेल स्क्री परीक्षण घटकों को एक्स-अक्ष के रूप में और संबंधित eigenvalue को वाई-अक्ष के रूप में प्लॉट करता है। जैसे-जैसे कोई दाईं ओर बढ़ता है, पश्चात के घटकों की ओर, स्वदेशी मान कम हो जाते हैं। जब गिरावट बंद हो जाती है और वक्र कम तेज गिरावट की ओर कोहनी बनाता है,तब कैटेल का स्क्री परीक्षण कोहनी से शुरू होने वाले सभी घटकों को छोड़ने के लिए कहता है। शोधकर्ता-नियंत्रित विक्षनरी:फज फ़ैक्टर के प्रति उत्तरदायी होने के कारण कभी-कभी इस नियम की आलोचना की जाती है। अथार्त, चूंकि कोहनी चुनना व्यक्तिपरक हो सकता है क्योंकि वक्र में अनेक कोहनी होती हैं या चिकनी वक्र होती है, शोधकर्ता को अपने शोध एजेंडे द्वारा वांछित कारकों की संख्या पर कट-ऑफ निर्धारित करने का प्रलोभन दिया जा सकता है।

वेरिएंस ने मानदंड समझाया: कुछ शोधकर्ता भिन्नता के 90% (कभी-कभी 80%) को ध्यान में रखने के लिए पर्याप्त कारकों को रखने के नियम का उपयोग करते हैं। जहां शोधकर्ता का लक्ष्य ओकाम के रेजर पर जोर देता है (यथासंभव कुछ कारकों के साथ भिन्नता की व्याख्या करना), मानदंड 50% तक कम हो सकता है।

बायेसियन विधि
भारतीय बुफ़े प्रक्रिया पर आधारित बायेसियन दृष्टिकोण अव्यक्त कारकों की प्रशंसनीय संख्या पर संभाव्यता वितरण देता है।

रोटेशन विधियाँ
अनरोटेटेड आउटपुट पूर्व कारक, फिर दूसरे कारक आदि के कारण होने वाले विचरण को अधिकतम करता है। अनरोटेटेड समाधान ओर्थोगोनल है। इसका मतलब है कि कारकों के मध्य सहसंबंध शून्य है। अनरोटेटेड समाधान का उपयोग करने का हानि यह है कि सामान्यतः अधिकांश आइटम शुरुआती कारकों पर लोड होते हैं और अनेक आइटम से अधिक कारकों पर अधिक सीमा तक लोड होते हैं।

रोटेशन, लोडिंग का पैटर्न बनाने के लिए समन्वय प्रणाली के अक्षों को रोटेशन (गणित) द्वारा व्याख्या करना आसान बनाता है, जहां प्रत्येक आइटम केवल कारक पर दृढ़ता से लोड होता है और अन्य कारकों पर अधिक कमजोर रूप से लोड होता है। परिवर्तन ऑर्थोगोनल या स्कू हो सकता है। स्कू परिवर्तन कारकों को सहसंबंधित करने की अनुमति देता है। वेरिमैक्स रोटेशन सबसे अधिक इस्तेमाल की जाने वाली रोटेशन विधि है। वेरिमैक्स कारक अक्षों का ऑर्थोगोनल रोटेशन है जो कारक लोडिंग आव्युह में सभी वेरिएबल (पंक्तियों) पर कारक (स्तंभ) के वर्ग लोडिंग के विचरण को अधिकतम करता है। प्रत्येक कारक में कारक द्वारा बड़े लोडिंग के साथ केवल कुछ वेरिएबल होते हैं। वेरिमैक्स लोडिंग आव्युह के कॉलम को सरल बनाता है। इससे प्रत्येक वेरिएबल को ही कारक से पहचानना यथासंभव आसान हो जाता है।

क्वार्टिमैक्स रोटेशन ऑर्थोगोनल रोटेशन है जो वेरिएबल को समझाने के लिए आवश्यक कारकों की संख्या को कम करता है। यह कॉलम के अतिरिक्त लोडिंग आव्युह की पंक्तियों को सरल बनाता है। क्वार्टिमैक्स अक्सर सामान्य कारक उत्पन्न करता है जिसमें अनेक वेरिएबल के लिए लोडिंग होती है। यह अघुलनशील समाधान के करीब है। यदि अनेक वेरिएबल सहसंबद्ध हैंतब क्वार्टिमैक्स उपयोगी है जिससे कि प्रमुख कारक की उम्मीद की जा सके। इक्विमैक्स रोटेशन वेरिमैक्स और क्वार्टिमैक्स के मध्य समझौता है।

अनेक व्यावहारिक अनुप्रयोगों में, यह मान लेना अवास्तविक है कि कारक असंबंधित हैं। इस स्थिति में तिरछे परिवर्तन को प्राथमिकता दी जाती है। एक-दूसरे से सहसंबद्ध कारकों को अनुमति देना विशेष रूप से साइकोमेट्रिक अनुसंधान में प्रयुक्त होता है, क्योंकि दृष्टिकोण, राय और बौद्धिक क्षमताएं सहसंबद्ध होती हैं और अन्यथा मान लेना अवास्तविक होगा। जब कोई व्यक्ति स्कू (गैर-ऑर्थोगोनल) समाधान चाहता हैतब ओब्लिमिन रोटेशन मानक विधि है।

प्रोमैक्स रोटेशन वैकल्पिक स्कू रोटेशन विधि है जो ओब्लिमिन विधि की तुलना में कम्प्यूटेशनल रूप से तेज़ है और इसलिए कभी-कभी बहुत बड़े डाटासमुच्चय के लिए उपयोग किया जाता है।

कारक घूर्णन के साथ समस्याएँ
जब प्रत्येक वेरिएबल अनेक कारकों पर लोड हो रहा होतब कारक संरचना की व्याख्या करना मुश्किल हो सकता है। डेटा में छोटे परिवर्तन कभी-कभी कारक रोटेशन मानदंड में संतुलन बना सकते हैं जिससे कि पूरी प्रकार से भिन्न कारक रोटेशन उत्पन्न हो। इससे विभिन्न प्रयोगों के परिणामों की तुलना करना कठिन हो सकता है। इस समस्या को विश्वव्यापी सांस्कृतिक भिन्नताओं के विभिन्न अध्ययनों की तुलना से स्पष्ट किया गया है। प्रत्येक अध्ययन ने सांस्कृतिक वेरिएबल के विभिन्न मापों का उपयोग किया है और भिन्न-भिन्न घुमाए गए कारक विश्लेषण परिणाम का उत्पादन किया है। प्रत्येक अध्ययन के लेखकों का मानना ​​था कि उन्होंने कुछ नया खोजा है, और उन्होंने जो कारक पाए उनके लिए नए नाम ईजाद किए। अध्ययनों की पश्चात की तुलना में पाया गया कि जब अनियंत्रित परिणामों की तुलना की गईतब परिणाम समान थे। कारक रोटेशन के सामान्य अभ्यास ने विभिन्न अध्ययनों के परिणामों के मध्य समानता को अस्पष्ट कर दिया है।

उच्च क्रम कारक विश्लेषण
उच्च-क्रम कारक विश्लेषण सांख्यिकीय पद्धति है जिसमें दोहराए जाने वाले चरण कारक विश्लेषण - स्कू रोटेशन - घुमाए गए कारकों का कारक विश्लेषण शामिल है। इसकी योग्यता शोधकर्ता को अध्ययन की गई घटनाओं की पदानुक्रमित संरचना को देखने में सक्षम बनाना है। परिणामों की व्याख्या करने के लिए, कोई यातब आव्युह गुणन द्वारा आगे बढ़ता है | प्राथमिक कारक पैटर्न आव्युह को उच्च-क्रम कारक पैटर्न आव्युह (गोर्सच, 1983) द्वारा गुणा करने और संभवतः परिणाम के लिए वेरिमैक्स रोटेशन प्रयुक्त करने (थॉम्पसन, 1990) या श्मिड-लीमन समाधान (एसएलएस, श्मिड और लीमन, 1957, जिसे श्मिड-लीमन परिवर्तन के रूप में भी जाना जाता है) का उपयोग करके आगे बढ़ता है जो सांख्यिकीय फैलाव का गुण बताता है। प्राथमिक कारकों से दूसरे क्रम के कारकों तक।

खोजपूर्ण कारक विश्लेषण (ईएफए) बनाम प्रमुख घटक विश्लेषण (पीसीए)
कारक विश्लेषण प्रमुख घटक विश्लेषण (पीसीए) से संबंधित है, किन्तु दोनों समान नहीं हैं। दोनों तकनीकों के मध्य अंतर को लेकर क्षेत्र में महत्वपूर्ण विवाद रहा है। पीसीए को खोजपूर्ण कारक विश्लेषण (ईएफए) का अधिक बुनियादी संस्करण माना जा सकता है जिसे हाई-स्पीड कंप्यूटर के आगमन से पूर्व शुरुआती दिनों में विकसित किया गया था। पीसीए और कारक विश्लेषण दोनों का लक्ष्य डेटा के समुच्चय की आयामीता को कम करना है, किन्तु ऐसा करने के लिए अपनाए गए दृष्टिकोण दोनों तकनीकों के लिए भिन्न-भिन्न हैं। कारक विश्लेषण स्पष्ट रूप से देखे गए वेरिएबल से कुछ अप्राप्य कारकों की पहचान करने के उद्देश्य से डिज़ाइन किया गया है, जबकि पीसीए सीधे इस उद्देश्य को संबोधित नहीं करता है; सर्वोत्तम रूप से, पीसीए आवश्यक कारकों का अनुमान प्रदान करता है। खोजपूर्ण विश्लेषण के दृष्टिकोण से, पीसीए के eigenvalues फुलाए गए घटक लोडिंग हैं, अथार्त, त्रुटि भिन्नता से दूषित हैं। जबकि खोजपूर्ण कारक विश्लेषण और प्रमुख घटक विश्लेषण को सांख्यिकी के कुछ क्षेत्रों में पर्यायवाची तकनीकों के रूप में माना जाता है, इसकी आलोचना की गई है। कारक विश्लेषण अंतर्निहित कारण संरचना की धारणा से संबंधित है: [यह] मानता है कि देखे गए वेरिएबल में सहसंयोजन या अधिक अव्यक्त वेरिएबल (कारकों) की उपस्थिति के कारण होता है जो इन देखे गए वेरिएबल पर कारण प्रभाव डालते हैं। इसके विपरीत, पीसीए ऐसे अंतर्निहित कारण संबंध को नतब मानता है और न ही उस पर निर्भर करता है। शोधकर्ताओं ने तर्क दिया है कि दो तकनीकों के मध्य अंतर का मतलब यह हो सकता है कि विश्लेषणात्मक लक्ष्य के आधार पर को दूसरे पर प्राथमिकता देने के उद्देश्यपूर्ण लाभ हैं। यदि कारक मॉडल गलत विधियों से तैयार किया गया है या मान्यताओं को पूर्ण नहीं किया गया है,तब कारक विश्लेषण गलत परिणाम देगा। कारक विश्लेषण का सफलतापूर्वक उपयोग किया गया है जहां सिस्टम की पर्याप्त समझ अच्छे प्रारंभिक मॉडल फॉर्मूलेशन की अनुमति देती है। पीसीए मूल डेटा में गणितीय परिवर्तन को नियोजित करता है, जिसमें सहप्रसरण आव्युह के रूप के बारे में कोई धारणा नहीं होती है। पीसीए का उद्देश्य मूल वेरिएबल के रैखिक संयोजनों को निर्धारित करना और कुछ का चयन करना है जिनका उपयोग अधिक जानकारी खोए बिना डेटा समुच्चय को सारांशित करने के लिए किया जा सकता है।

पीसीए और ईएफए के विपरीत तर्क
फैब्रिगर एट अल. (1999) ऐसे अनेक कारणों का पता लगाएं जिनका उपयोग यह सुझाव देने के लिए किया जाता है कि पीसीए कारक विश्लेषण के सामान्य नहीं है:


 * 1) कभी-कभी यह सुझाव दिया जाता है कि पीसीए कम्प्यूटेशनल रूप से तेज़ है और कारक विश्लेषण की तुलना में कम संसाधनों की आवश्यकता होती है। फैब्रिगर एट अल. सुझाव है कि आसानी से उपलब्ध कंप्यूटर संसाधनों ने इस व्यावहारिक चिंता को अप्रासंगिक बना दिया है।
 * 2) पीसीए और कारक विश्लेषण समान परिणाम उत्पन्न कर सकते हैं। इस बिंदु को फैब्रिगर एट अल द्वारा भी संबोधित किया गया है; कुछ स्तिथियों में, जहाँ सामुदायिकताएँ कम हैं (जैसे 0.4), दोनों तकनीकें भिन्न-भिन्न परिणाम उत्पन्न करती हैं। वास्तव में, फैब्रिगर एट अल। तर्क है कि ऐसे स्तिथियों में जहां डेटा सामान्य कारक मॉडल की मान्यताओं के अनुरूप है, पीसीए के परिणाम गलत परिणाम हैं।
 * 3) ऐसे कुछ स्तिथियों हैं जहां कारक विश्लेषण से 'हेवुड स्तिथियों' सामने आते हैं। इनमें वहस्थितियाँ शामिल हैं जिनमें मापे गए वेरिएबल में 100% या अधिक भिन्नता का अनुमान मॉडल द्वारा लगाया जाता है। फैब्रिगर एट अल. सुझाव दें कि ये स्तिथियों वास्तव में शोधकर्ता के लिए जानकारीपूर्ण हैं, जो गलत विधियों से निर्दिष्ट मॉडल या सामान्य कारक मॉडल के उल्लंघन का संकेत देते हैं। पीसीए दृष्टिकोण में हेवुड स्तिथियों की कमी का मतलब यह हो सकता है कि ऐसे मुद्दों पर ध्यान नहीं दिया जाता है।
 * 4) शोधकर्ता पीसीए दृष्टिकोण से अतिरिक्त जानकारी प्राप्त करते हैं, जैसे किसी निश्चित घटक पर किसी व्यक्ति का स्कोर; ऐसी जानकारी कारक विश्लेषण से नहीं मिलती है। हालाँकि, फैब्रिगर एट अल के रूप में। तर्क दें, कारक विश्लेषण का विशिष्ट उद्देश्य - अथार्त मापे गए वेरिएबल के मध्य सहसंबंध और निर्भरता की संरचना के लिए लेखांकन कारकों को निर्धारित करना - कारक स्कोर के ज्ञान की आवश्यकता नहीं है और इस प्रकार यह लाभ अस्वीकार कर दिया गया है। कारक विश्लेषण से कारक स्कोर की गणना करना भी संभव है।

प्रसरण बनाम सहप्रसरण
कारक विश्लेषण माप में निहित यादृच्छिक त्रुटि को ध्यान में रखता है, जबकि पीसीए ऐसा करने में विफल रहता है। इस बिंदु का उदाहरण ब्राउन (2009) द्वारा दिया गया है, किसने संकेत दिया कि, गणना में शामिल सहसंबंध आव्युह के संबंध में:

इस कारण से, ब्राउन (2009) कारक विश्लेषण का उपयोग करने की सलाह देते हैं जब वेरिएबल के मध्य संबंधों के बारे में सैद्धांतिक विचार मौजूद होते हैं, जबकि पीसीए का उपयोग किया जाना चाहिए यदि शोधकर्ता का लक्ष्य अपने डेटा में पैटर्न का पता लगाना है।

प्रक्रिया और परिणाम में अंतर
पीसीए और कारक विश्लेषण (एफए) के मध्य अंतर को सुहर (2009) द्वारा और अधिक स्पष्ट किया गया है: * पीसीए के परिणामस्वरूप प्रमुख घटक बनते हैं जो प्रेक्षित वेरिएबलों के लिए अधिकतम मात्रा में विचरण का कारण बनते हैं; एफए डेटा में सामान्य भिन्नता का हिसाब रखता है।
 * पीसीए सहसंबंध आव्युह के विकर्णों पर सम्मिलित करता है; एफए अद्वितीय कारकों के साथ सहसंबंध आव्युह के विकर्णों को समायोजित करता है।
 * पीसीए घटक अक्ष पर वर्गाकार लंबवत दूरी के योग को कम करता है; एफए उन कारकों का अनुमान लगाता है जो देखे गए वेरिएबल पर प्रतिक्रियाओं को प्रभावित करते हैं।
 * पीसीए में घटक स्कोर आइगेनवैल्यूज़ एवं आइगेनवेक्टर्स द्वारा भारित देखे गए वेरिएबल के रैखिक संयोजन का प्रतिनिधित्व करते हैं; एफए में देखे गए वेरिएबल अंतर्निहित और अद्वितीय कारकों के रैखिक संयोजन हैं।
 * पीसीए में, प्राप्त घटक व्याख्या योग्य नहीं हैं, अथार्त वहअंतर्निहित 'निर्माण' का प्रतिनिधित्व नहीं करते हैं; एफए में, स्पष्ट मॉडल विनिर्देश दिए जाने पर, अंतर्निहित निर्माणों को लेबल किया जा सकता है और आसानी से व्याख्या की जा सकती है।

इतिहास
चार्ल्स स्पीयरमैन सामान्य कारक विश्लेषण पर चर्चा करने वाले पूर्व मनोवैज्ञानिक थे और अपने 1904 के पेपर में ऐसा किया। इसने उनके विधियों के बारे में कुछ विवरण प्रदान किए और एकल-कारक मॉडल से संबंधित था। उन्होंने पाया कि विभिन्न प्रकार के असंबंधित विषयों पर स्कूली बच्चों के स्कोर सकारात्मक रूप से सहसंबद्ध थे, जिससे उन्हें यह मानने मेंसहायता मिली कि सामान्य मानसिक क्षमता, या जी कारक (साइकोमेट्रिक्स), मानव संज्ञानात्मक प्रदर्शन को रेखांकित और आकार देता है।

अनेक कारकों के साथ सामान्य कारक विश्लेषण का प्रारंभिक विकास 1930 के दशक की शुरुआत में लुई लियोन थर्स्टन द्वारा दो पत्रों में दिया गया था, उनकी 1935 की पुस्तक, मन के सदिश में इसका सारांश दिया गया है। थर्स्टन ने सामुदायिकता, विशिष्टता और रोटेशन सहित अनेक महत्वपूर्ण कारक विश्लेषण अवधारणाएँ प्रस्तुत कीं। उन्होंने सरल संरचना की वकालत की, और रोटेशन के विधियों का विकास किया जिसका उपयोग ऐसी संरचना को प्राप्त करने के विधियों के रूप में किया जा सकता है।

क्यू पद्धति में, स्पीयरमैन के छात्र, विलियम स्टीफेंसन (मनोवैज्ञानिक), अंतर-व्यक्तिगत मतभेदों के अध्ययन की ओर उन्मुख आर कारक विश्लेषण और व्यक्तिपरक अंतर-व्यक्तिगत मतभेदों की ओर उन्मुख क्यू कारक विश्लेषण के मध्य अंतर करते हैं। रेमंड कैटेल कारक विश्लेषण और साइकोमेट्रिक्स के प्रबल समर्थक थे और उन्होंने बुद्धि को समझाने के लिए थर्स्टन के बहु-कारक सिद्धांत का इस्तेमाल किया। कैटेल ने स्क्री प्लॉट और समानता गुणांक भी विकसित किया।

मनोविज्ञान में अनुप्रयोग
कारक विश्लेषण का उपयोग उन कारकों की पहचान करने के लिए किया जाता है जो विभिन्न परीक्षणों पर विभिन्न प्रकार के परिणामों की व्याख्या करते हैं। उदाहरण के लिए, खुफिया शोध में पाया गया कि जो लोग मौखिक क्षमता के परीक्षण में उच्च अंक प्राप्त करते हैं वहअन्य परीक्षणों में भी अच्छे होते हैं जिनके लिए मौखिक क्षमताओं की आवश्यकता होती है। शोधकर्ताओं ने कारक को भिन्न करने के लिए कारक विश्लेषण का उपयोग करके इसे समझाया, जिसे अक्सर मौखिक बुद्धिमत्ता कहा जाता है, जो उस डिग्री का प्रतिनिधित्व करता है जिस तक कोई व्यक्ति मौखिक कौशल से जुड़ी समस्याओं को समाधान करने में सक्षम है।

मनोविज्ञान में कारक विश्लेषण अक्सर खुफिया अनुसंधान से जुड़ा होता है। हालाँकि, इसका उपयोग व्यक्तित्व, दृष्टिकोण, विश्वास आदि जैसे डोमेन की विस्तृत श्रृंखला में कारकों को खोजने के लिए भी किया गया है। यह साइकोमेट्रिक्स से जुड़ा हुआ है, क्योंकि यह किसी उपकरण की वैधता का आकलन यह पता लगाकर कर सकता है कि क्या उपकरण वास्तव में अनुमानित कारकों को मापता है।

फायदे

 * दो या दो से अधिक वेरिएबलों को ही कारक में संयोजित करके वेरिएबलों की संख्या में कमी करना। उदाहरण के लिए, दौड़ने, गेंद फेंकने, बल्लेबाजी, कूदने और वजन उठाने में प्रदर्शन को सामान्य एथलेटिक क्षमता जैसे कारक में जोड़ा जा सकता है। सामान्यतः, किसी आइटम द्वारा लोगों के आव्युह में, संबंधित आइटमों को समूहीकृत करके कारकों का चयन किया जाता है। क्यू कारक विश्लेषण तकनीक में, आव्युह को स्थानांतरित किया जाता है और संबंधित लोगों को समूहीकृत करके कारक बनाए जाते हैं। उदाहरण के लिए, उदारवादी, स्वतंत्रतावादी, रूढ़िवादी और समाजवादी भिन्न-भिन्न समूहों में बन सकते हैं।
 * अंतर-संबंधित वेरिएबलों के समूहों की पहचान करना, यह देखना कि वहएक-दूसरे से कैसे संबंधित हैं। उदाहरण के लिए, कैरोल ने अपने थ्री स्ट्रेटम थ्योरी के निर्माण के लिए कारक विश्लेषण का उपयोग किया। उन्होंने पाया कि व्यापक दृश्य धारणा नामक कारक इस बात से संबंधित है कि कोई व्यक्ति दृश्य कार्यों में कितना अच्छा है। उन्होंने श्रवण कार्य क्षमता से संबंधित व्यापक श्रवण धारणा कारक भी पाया। इसके अतिरिक्त, उन्होंने वैश्विक कारक पाया, जिसे जी या सामान्य बुद्धि कहा जाता है, जो व्यापक दृश्य धारणा और व्यापक श्रवण धारणा दोनों से संबंधित है। इसका मतलब यह है कि उच्च जी वाले व्यक्ति में उच्च दृश्य धारणा क्षमता और उच्च श्रवण धारणा क्षमता दोनों होने की संभावना है, और यह जी इस बात का अच्छा भाग बताता है कि कोई व्यक्ति उन दोनों डोमेन में अच्छा या बुरा क्यों है।

हानि

 * ...प्रत्येक अभिविन्यास गणितीय रूप से समान रूप से स्वीकार्य है। किन्तु भिन्न-भिन्न फैक्टोरियल सिद्धांत किसी दिए गए समाधान के लिए फैक्टोरियल अक्षों के झुकाव के संदर्भ में उतने ही भिन्न साबित हुए जितने कि किसी अन्य चीज़ के संदर्भ में, इसलिए मॉडल फिटिंग सिद्धांतों के मध्य अंतर करने में उपयोगी साबित नहीं हुई। (स्टर्नबर्ग, 1977 ). इसका मतलब है कि सभी परिवर्तन भिन्न-भिन्न अंतर्निहित प्रक्रियाओं का प्रतिनिधित्व करते हैं, किन्तु सभी परिवर्तन मानक कारक विश्लेषण अनुकूलन के समान रूप से मान्य परिणाम हैं। इसलिए, अकेले कारक विश्लेषण का उपयोग करके उचित रोटेशन चुनना असंभव है।
 * कारक विश्लेषण केवल उतना ही अच्छा हो सकता है जितना डेटा अनुमति देता है। मनोविज्ञान में, जहां शोधकर्ताओं को अक्सर स्व-रिपोर्ट जैसे कम वैध और विश्वसनीय उपायों पर निर्भर रहना पड़ता है, यह समस्याग्रस्त हो सकता है।
 * कारक विश्लेषण की व्याख्या अनुमान का उपयोग करने पर आधारित है, जो ऐसा समाधान है जो सुविधाजनक है यदि पूरी प्रकार सच न हो। ही प्रकार से तथ्यांकित किए गए ही डेटा की से अधिक व्याख्याएं की जा सकती हैं, और कारक विश्लेषण कार्य-कारण की पहचान नहीं कर सकता है।

पार-सांस्कृतिक अनुसंधान में
अंतर-सांस्कृतिक अनुसंधान में कारक विश्लेषण अक्सर उपयोग की जाने वाली तकनीक है। यह हॉफस्टेड के सांस्कृतिक आयाम सिद्धांत को निकालने के उद्देश्य को पूर्ण करता है। सबसे प्रसिद्ध सांस्कृतिक आयाम मॉडल गीर्ट हॉफस्टेड, रोनाल्ड इंगलहार्ट, क्रिश्चियन वेलज़ेल, शालोम एच. श्वार्ट्ज और माइकल मिनकोव द्वारा विस्तृत हैं। लोकप्रिय दृश्य विश्व का इंगलहार्ट-वेल्ज़ेल सांस्कृतिक मानचित्र है|इंगलहार्ट और वेल्ज़ेल का विश्व का सांस्कृतिक मानचित्र।

राजनीति विज्ञान में
1965 के शुरुआती अध्ययन में, संबंधित सैद्धांतिक मॉडल और अनुसंधान के निर्माण, राजनीतिक प्रणालियों की तुलना करने और टाइपोलॉजिकल श्रेणियां बनाने के लिए कारक विश्लेषण के माध्यम से दुनिया भर की राजनीतिक प्रणालियों की जांच की जाती है। इन उद्देश्यों के लिए, इस अध्ययन में सात बुनियादी राजनीतिक आयामों की पहचान की गई है, जो विभिन्न प्रकार के राजनीतिक व्यवहार से संबंधित हैं: ये आयाम हैं पहुंच, भेदभाव, आम सहमति, अनुभागवाद, वैधीकरण, रुचि और नेतृत्व सिद्धांत और अनुसंधान।

अन्य राजनीतिक वैज्ञानिक 1988 के राष्ट्रीय चुनाव अध्ययन में जोड़े गए चार नए प्रश्नों का उपयोग करके आंतरिक राजनीतिक प्रभावकारिता के माप का पता लगाते हैं। यहां कारक विश्लेषण का उपयोग यह पता लगाने के लिए किया जाता है कि ये आइटम बाहरी प्रभावकारिता और राजनीतिक विश्वास से भिन्न एकल अवधारणा को मापते हैं, और ये चार प्रश्न उस समय तक आंतरिक राजनीतिक प्रभावकारिता का सबसे अच्छा उपाय प्रदान करते हैं। संयुक्त राज्य अमेरिका के राष्ट्रपति पद की बहस, रैलियों और हिलेरी क्लिंटन ईमेल विवाद जैसे महत्वपूर्ण अभियान कार्यक्रमों के प्रभाव का अध्ययन करने के लिए| हिलेरी क्लिंटन के ईमेल विवाद, कारक विश्लेषण का उपयोग 2016 में डोनाल्ड ट्रम्प और 2012 में ओबामा जैसे अमेरिकी राष्ट्रपति पद के उम्मीदवारों के लिए लोकप्रियता के उपाय बनाने के लिए किया जाता है। लोकप्रियता कारकों को ट्विटर, फेसबुक, यूट्यूब, इंस्टाग्राम, पाँच अड़तीस और पूर्वानुमान बाजारों से एकत्र किए गए डेटा से संश्लेषित किया जाता है।

विपणन में
बुनियादी कदम हैं:
 * इस श्रेणी में उत्पाद (व्यवसाय) का मानांकन करने के लिए उपभोक्ताओं द्वारा उपयोग की जाने वाली मुख्य विशेषताओं की पहचान करें।
 * सभी उत्पाद विशेषताओं की रेटिंग के संबंध में संभावित ग्राहकों के प्रतिरूप से डेटा एकत्र करने के लिए मात्रात्मक विपणन अनुसंधान तकनीकों (जैसे सांख्यिकीय सर्वेक्षण) का उपयोग करें।
 * डेटा को सांख्यिकीय कार्यक्रम में इनपुट करें और कारक विश्लेषण प्रक्रिया चलाएँ। कंप्यूटर अंतर्निहित विशेषताओं (या कारकों) का समुच्चय उत्पन्न करेगा।
 * अवधारणात्मक मानचित्रण और अन्य पोजिशनिंग (विपणन) उपकरणों के निर्माण के लिए इन कारकों का उपयोग करें।

सूचना संग्रह
डेटा संग्रह चरण सामान्यतः विपणन अनुसंधान प्रस्तुतेवरों द्वारा किया जाता है। सर्वेक्षण प्रश्न उत्तरदाता से किसी उत्पाद के प्रतिरूप या उत्पाद अवधारणाओं के विवरण को विभिन्न विशेषताओं के आधार पर रेटिंग देने के लिए कहते हैं। कहीं भी पाँच से बीस विशेषताएँ चुनी जाती हैं। उनमें ये चीजें शामिल हो सकती हैं: उपयोग में आसानी, वजन, स्पष्टता, स्थायित्व, रंगीनता, कीमत या आकार। चुनी गई विशेषताएँ अध्ययन किए जा रहे उत्पाद के आधार पर भिन्न-भिन्न होंगी। अध्ययन में सभी उत्पादों के बारे में ही प्रश्न पूछा गया है। अनेक उत्पादों के डेटा को कोडित किया जाता है और आर (प्रोग्रामिंग भाषा), एसपीएसएस, एसएएस प्रणाली, स्टेटा, आंकड़े, जेएमपी और सिस्टैट जैसे सांख्यिकीय कार्यक्रम में इनपुट किया जाता है।

विश्लेषण
विश्लेषण उन अंतर्निहित कारकों को भिन्न करेगा जो एसोसिएशन के आव्युह का उपयोग करके डेटा की व्याख्या करते हैं। कारक विश्लेषण अन्योन्याश्रय तकनीक है। अन्योन्याश्रित संबंधों के संपूर्ण समुच्चय की जांच की जाती है। आश्रित वेरिएबल, स्वतंत्र वेरिएबल , या कार्य-कारण का कोई विनिर्देश नहीं है। कारक विश्लेषण मानता है कि विभिन्न विशेषताओं पर सभी रेटिंग डेटा को कुछ महत्वपूर्ण आयामों तक कम किया जा सकता है। यह कमी इसलिए संभव है क्योंकि कुछ विशेषताएँ एक-दूसरे से संबंधित हो सकती हैं। किसी विशेषता को दी गई रेटिंग आंशिक रूप से अन्य विशेषताओं के प्रभाव का परिणाम होती है। सांख्यिकीय एल्गोरिदम रेटिंग को उसके विभिन्न घटकों में विभाजित करता है (जिसे कच्चा स्कोर कहा जाता है) और आंशिक स्कोर को अंतर्निहित कारक स्कोर में पुनर्निर्मित करता है। प्रारंभिक कच्चे स्कोर और अंतिम कारक स्कोर के मध्य सहसंबंध की डिग्री को कारक लोडिंग कहा जाता है।

फायदे

 * वस्तुनिष्ठ और व्यक्तिपरक दोनों विशेषताओं का उपयोग किया जा सकता है, बशर्ते व्यक्तिपरक विशेषताओं को अंकों में परिवर्तित किया जा सके।
 * कारक विश्लेषण अव्यक्त आयामों या निर्माणों की पहचान कर सकता है जो प्रत्यक्ष विश्लेषण नहीं कर सकता है।
 * यह आसान और सस्ता है.

हानि

 * उपयोगिता उत्पाद विशेषताओं का पर्याप्त समुच्चय एकत्र करने की शोधकर्ताओं की क्षमता पर निर्भर करती है। यदि महत्वपूर्ण विशेषताओं को बाहर रखा जाता है या उपेक्षित किया जाता है,तब प्रक्रिया का मान कम हो जाता है।
 * यदि देखे गए वेरिएबल के समुच्चय एक-दूसरे के समान हैं और अन्य वस्तुओं से भिन्न हैं,तब कारक विश्लेषण उन्हें ही कारक प्रदान करेगा। यह उन कारकों को अस्पष्ट कर सकता है जो अधिक दिलचस्प रिश्तों का प्रतिनिधित्व करते हैं।
 * नामकरण कारकों के लिए सिद्धांत के ज्ञान की आवश्यकता हो सकती है क्योंकि प्रतीत होता है कि भिन्न गुण अज्ञात कारणों से दृढ़ता से सहसंबद्ध हो सकते हैं।

भौतिक और जैविक विज्ञान में
भू-रसायन विज्ञान, जल रसायन विज्ञान जैसे भौतिक विज्ञानों में भी कारक विश्लेषण का व्यापक रूप से उपयोग किया गया है। खगोल भौतिकी और यूनिवर्स विज्ञान, साथ ही जैविक विज्ञान, जैसे पारिस्थितिकी, आणविक जीव विज्ञान, तंत्रिका विज्ञान और जैव रसायन।

भूजल गुणवत्ता प्रबंधन में, विभिन्न रसायनों के स्थानिक वितरण को जोड़ना महत्वपूर्ण है विभिन्न संभावित स्रोतों के पैरामीटर, जिनके भिन्न-भिन्न रासायनिक हस्ताक्षर हैं। उदाहरण के लिए, सल्फाइड खदान उच्च स्तर की अम्लता, घुले हुए सल्फेट्स और संक्रमण धातुओं से जुड़ी होने की संभावना है। इन हस्ताक्षरों को आर-मोड कारक विश्लेषण के माध्यम से कारकों के रूप में पहचाना जा सकता है, और कारक स्कोर को समोच्च करके संभावित स्रोतों का स्थान सुझाया जा सकता है। भू-रसायन विज्ञान में, विभिन्न कारक विभिन्न खनिज संघों और इस प्रकार खनिजकरण के अनुरूप हो सकते हैं।

माइक्रोएरे विश्लेषण में
एफिमेट्रिक्स जीनचिप्स के लिए जांच स्तर पर उच्च-घनत्व oligonucleotide डीएनए माइक्रोएरे डेटा को सारांशित करने के लिए कारक विश्लेषण का उपयोग किया जा सकता है। इस स्तिथियों में, अव्यक्त वेरिएबल प्रतिरूप में आरएनए एकाग्रता से मेल खाता है।

कार्यान्वयन
1980 के दशक से अनेक सांख्यिकीय विश्लेषण कार्यक्रमों में कारक विश्लेषण प्रयुक्त किया गया है:
 * बीएमडीपी
 * जेएमपी (सांख्यिकीय सॉफ्टवेयर)
 * एमप्लस (सांख्यिकीय सॉफ्टवेयर)]
 * पायथन (प्रोग्रामिंग भाषा): मॉड्यूल स्किकिट-लर्न
 * आर (प्रोग्रामिंग भाषा) (पैकेज 'साइक' में बेस फ़ंक्शन फैक्टनल या एफए फ़ंक्शन के साथ)। GPArotation R पैकेज में रोटेशन प्रयुक्त किए जाते हैं।
 * एसएएस (सॉफ्टवेयर) (प्रोक कारक या प्रोक कैलिस का उपयोग करके)
 * एसपीएसएस
 * था

स्टैंडअलोन

 * कारक - रोविरा और वर्जिली विश्वविद्यालय द्वारा विकसित मुफ्त कारक विश्लेषण सॉफ्टवेयर

यह भी देखें

 * पुष्टि कारक विश्लेषण
 * खोजपूर्ण कारक विश्लेषण
 * प्रयोगों की रूप रेखा
 * औपचारिक अवधारणा विश्लेषण
 * स्वतंत्र घटक विश्लेषण
 * गैर-नकारात्मक मैट्रिक्स गुणनखंडन
 * क्यू पद्धति
 * सिफ़ारिश प्रणाली
 * मूल कारण विश्लेषण
 * पहलू सिद्धांत

अग्रिम पठन

 * B.T. Gray (1997) Higher-Order Factor Analysis (Conference paper)
 * Jennrich, Robert I., "Rotation to Simple Loadings Using Component Loss Function: The Oblique Case," Psychometrika, Vol. 71, No. 1, pp. 173–191, March 2006.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Primary product functionplane: An oblique rotation to simple structure. Multivariate Behavioral Research, April 1975, Vol. 10, pp. 219–232.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Functionplane: A new approach to simple structure rotation. Psychometrika, March 1974, Vol. 39, No. 1, pp. 37–51.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Function-point cluster analysis. Systematic Zoology, September 1973, Vol. 22, No. 3, pp. 295–301.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Function-point cluster analysis. Systematic Zoology, September 1973, Vol. 22, No. 3, pp. 295–301.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.


 * Hans-Georg Wolff, Katja Preising (2005)Exploring item and higher order factor structure with the schmid-leiman solution : Syntax codes for SPSS and SASBehavior research methods, instruments & computers, 37 (1), 48-58

बाहरी संबंध

 * A Beginner's Guide to Factor Analysis
 * Exploratory Factor Analysis. A Book Manuscript by Tucker, L. & MacCallum R. (1993). Retrieved June 8, 2006, from:
 * Garson, G. David, "Factor Analysis," from Statnotes: Topics in Multivariate Analysis. Retrieved on April 13, 2009 from StatNotes: Topics in Multivariate Analysis, from G. David Garson at North Carolina State University, Public Administration Program
 * Factor Analysis at 100 — conference material
 * FARMS — Factor Analysis for Robust Microarray Summarization, an R package