कारक विश्लेषण

कारक विश्लेषण सांख्यिकी पद्धति है जिसका उपयोग प्रेक्षित, सहसंबद्ध वेरिएबल (गणित) के मध्य विचरण का वर्णन करने के लिए संभावित रूप से कम संख्या में न देखे गए वेरिएबल के संदर्भ में किया जाता है जिन्हें कारक कहा जाता है। उदाहरण के लिए, यह संभव है कि छह देखे गए वेरिएबलों में भिन्नताएं मुख्य रूप से दो न देखे गए (अंतर्निहित) वेरिएबलों में भिन्नताएं दर्शाती हैं। कारक विश्लेषण न देखे गए अव्यक्त वेरिएबलों की प्रतिक्रिया में ऐसी संयुक्त विविधताओं की खोज करता है। इसको देखे गए वेरिएबल के आंकड़ों के संदर्भ में संभावित कारकों और त्रुटियों और अवशेषों के रैखिक संयोजन के रूप में तैयार किया गया है, इसलिए कारक विश्लेषण को वेरिएबल-में-त्रुटि मॉडल के विशेष स्तिथियों के रूप में माना जा सकता है। सीधे शब्दों में कहें तब, किसी वेरिएबल का कारक लोडिंग उस सीमा को निर्धारित करता है, जिस सीमा तक वेरिएबल किसी दिए गए कारक से संबंधित होता है।

कारक विश्लेषणात्मक विधियों के पीछे सामान्य तर्क यह है कि देखे गए वेरिएबल के मध्य अन्योन्याश्रितताओं के बारे में प्राप्त सूचना का उपयोग और इसके पश्चात में डेटासमुच्चय में वेरिएबल के समुच्चय को कम करने के लिए किया जा सकता है। कारक विश्लेषण का उपयोग सामान्यतः साइकोमेट्रिक्स, व्यक्तित्व मनोविज्ञान, जीव विज्ञान, विपणन, उत्पाद प्रबंधन, संचालन अनुसंधान, वित्त और यंत्र अधिगम में किया जाता है। यह उन डेटा समुच्चयों से डील करने में सहायता कर सकता है जहां बड़ी संख्या में देखे गए वेरिएबल हैं जो अंतर्निहित/अव्यक्त वेरिएबल की लघु संख्या को प्रतिबिंबित करते हैं। यह सबसे अधिक उपयोग की जाने वाली अंतर-निर्भरता तकनीकों में से है और इसका उपयोग तब किया जाता है जब वेरिएबल का प्रासंगिक समुच्चय व्यवस्थित अंतर-निर्भरता दिखाता है और इसका उद्देश्य उन अव्यक्त कारकों का पता लगाना है जो समानता बनाते हैं।

परिभाषा
मॉडल प्रत्येक $$n$$ व्यक्तियों में $$k$$ सामान्य कारकों $$f_{i,j}$$ के समुच्चय के साथ $$p$$ अवलोकनों के समुच्चय को समझाने का प्रयास करता है, जहां प्रति इकाई अवलोकनों की तुलना में प्रति इकाई कम कारक $$k<p$$ होते हैं। प्रत्येक व्यक्ति के समीप अपने स्वयं के सामान्य कारक $$k$$ होते हैं, और यहएकल अवलोकन के लिए, कारक लोडिंग आव्युह $$L \in \mathbb{R}^{p \times k}$$ के माध्यम से अवलोकनों से संबंधित होते हैं।


 * $$x_{i,m} - \mu_{i} = l_{i,1} f_{1,m} + \dots + l_{i,k} f_{k,m} + \varepsilon_{i,m} $$

जहाँ
 * $$x_{i,m}$$ $$m$$वें व्यक्ति के $$i$$वें अवलोकन का मान है,
 * $$\mu_i$$ $$i$$वें अवलोकन के लिए अवलोकन माध्य है,
 * $$l_{i,j}$$ $$j$$वें कारक के $$i$$वें अवलोकन के लिए लोडिंग है,
 * $$f_{j,m}$$ $$m$$वें व्यक्ति के $$j$$वें कारक का मान है, और
 * $$\varepsilon_{i,m} $$ माध्य शून्य और परिमित विचरण के साथ $$(i,m)$$वां अवलोकित स्टोकेस्टिक त्रुटि शब्द है।

आव्युह नोटेशन में


 * $$X - \Mu = L F + \varepsilon$$

जहां अवलोकन आव्यूह $$X \in \mathbb{R}^{p \times n}$$, लोडिंग आव्यूह $$L \in \mathbb{R}^{p \times k}$$, कारक आव्यूह $$F \in \mathbb{R}^{k \times n}$$, त्रुटि टर्म आव्यूह $$\varepsilon \in \mathbb{R}^{p \times n}$$ और माध्य आव्यूह $$\Mu \in \mathbb{R}^{p \times n}$$ है, जिससे $$(i,m)$$वां अवयव सिर्फ $$\Mu_{i,m}=\mu_i$$ है।

इसके अतिरिक्त हम $$F$$ निम्नलिखित धारणाएँ भी प्रयुक्त करेंगे :


 * 1) $$F$$ और $$\varepsilon$$ स्वतंत्र हैं.
 * 2) $$\mathrm{E}(F) = 0$$; जहां $$\mathrm E$$ अपेक्षा है
 * 3) $$\mathrm{Cov}(F)=I$$ जहाँ $$\mathrm{Cov}$$ सहप्रसरण आव्युह है, यह सुनिश्चित करने के लिए कि कारक असंबंधित हैं, और $$I$$ पहचान आव्युह है.

कल्पना करना $$\mathrm{Cov}(X - \Mu)=\Sigma$$. तब


 * $$\Sigma=\mathrm{Cov}(X - \Mu)=\mathrm{Cov}(LF + \varepsilon),\,$$

और इसलिए, इसमें उपयोग किये गये नियमों 1 और 2 से $$F$$ ऊपर, $$E[LF]=LE[F]=0$$ और $$Cov(LF+\epsilon)=Cov(LF)+Cov(\epsilon)$$, द्वारा देना


 * $$\Sigma = L \mathrm{Cov}(F) L^T + \mathrm{Cov}(\varepsilon),\,$$

या, समुच्चयिंग $$\Psi:=\mathrm{Cov}(\varepsilon)$$,


 * $$\Sigma = LL^T + \Psi.\,$$

ध्यान दें कि किसी भी ऑर्थोगोनल आव्युह $$Q$$ के लिए,यदि $$L^\prime=\ LQ$$ और $$F^\prime=Q^T F$$ और हम यदि हम समुच्चय करते हैं तब कारक और कारक लोडिंग के मानदंड अभी भी दृढ़ हैं। इसलिए कारकों और कारक लोडिंग का समुच्चय केवल ऑर्थोगोनल परिवर्तन तक अद्वितीय है।

उदाहरण
मान लीजिए कि मनोवैज्ञानिक की परिकल्पना है कि बुद्धि (विशेषता) दो प्रकार की होती है, मौखिक बुद्धि और गणितीय बुद्धि, जिनमें से कोई भी प्रत्यक्ष रूप से नहीं देखी जाती है। इसमें 1000 छात्रों के 10 भिन्न-भिन्न शैक्षणिक क्षेत्रों में से प्रत्येक के परीक्षा अंकों में परिकल्पना के साक्ष्य मांगे गए हैं। यदि प्रत्येक छात्र को बड़ी आपश्चाती (सांख्यिकी) से यादृच्छिक रूप से चुना जाता है, तब प्रत्येक छात्र के 10 अंक यादृच्छिक वेरिएबल होते हैं। मनोवैज्ञानिक की परिकल्पना कह सकती है कि 10 अकादमिक क्षेत्रों में से प्रत्येक के लिए, उन सभी छात्रों के समूह पर औसत स्कोर जो मौखिक और गणितीय बुद्धि के लिए मानों की कुछ सामान्य जोड़ी साझा करते हैं, कुछ स्थिरांक (गणित) उनकी मौखिक बुद्धि के स्तर का यह अनेक गुना होता है और अन्य स्थिरांक उनके गणितीय बुद्धि के स्तर का अनेक गुना है, अथार्त, यह उन दो कारकों का रैखिक संयोजन है। किसी विशेष विषय के लिए संख्याएँ होती हैं, जिनके द्वारा अपेक्षित स्कोर प्राप्त करने के लिए दो प्रकार की बुद्धिमत्ता को गुणा किया जाता है, परिकल्पना द्वारा सभी बुद्धिमत्ता स्तर के जोड़े के लिए समान मानी जाती हैं, और इस विषय के लिए कारक लोडिंग कहलाती हैं। उदाहरण के लिए, परिकल्पना यह मान सकती है कि खगोल विज्ञान के क्षेत्र में अनुमानित औसत छात्र की योग्यता है


 * {10 × छात्र की मौखिक बुद्धि} + {6 × छात्र की गणितीय बुद्धि}।

संख्या 10 और 6 खगोल विज्ञान से जुड़े कारक लोडिंग हैं। अन्य शैक्षणिक विषयों में भिन्न-भिन्न कारक लोड हो सकते हैं।

ऐसा माना जाता है कि मौखिक और गणितीय बुद्धि की समान डिग्री वाले दो छात्रों की खगोल विज्ञान में भिन्न-भिन्न मापी गई योग्यताएं हो सकती हैं क्योंकि व्यक्तिगत योग्यताएं औसत योग्यताओं (ऊपर अनुमानित) से भिन्न होती हैं और इसमें माप त्रुटि के कारण ही भिन्न होती हैं। इस प्रकार के मतभेदों को सामूहिक रूप से त्रुटि कहा जाता है - सांख्यिकीय शब्द जिसका अर्थ है वह मात्रा जिसके द्वारा किसी व्यक्ति को मापा जाता है, जो उसकी बुद्धिमत्ता के स्तर के लिए औसत या अनुमानित से भिन्न होता है (आंकड़ों में त्रुटियां और अवशेष देखें)।

कारक विश्लेषण में जाने वाला अवलोकन योग्य डेटा 1000 छात्रों में से प्रत्येक के 10 अंक, कुल 10,000 नंबर होंते हैं। डेटा से प्रत्येक छात्र की दो प्रकार की बुद्धि के कारक लोडिंग और स्तर का अनुमान लगाया जाना चाहिए।

उसी उदाहरण का गणितीय मॉडल
निम्नलिखित में, आव्युह को अनुक्रमित वेरिएबल द्वारा दर्शाया जाएगा। "विषय" सूचकांकों को अक्षर $$a$$, $$b$$ और $$c$$,का उपयोग करके दर्शाया जाएगा, जिसमें मान $$1$$से $$p$$ तक चलेंगे जो उपरोक्त उदाहरण में $$10$$ के सामान्य है। "कारक" सूचकांकों को अक्षर $$p$$, $$q$$ और $$r$$ का उपयोग करके दर्शाया जाएगा, जिसका मान $$1$$ से $$k$$ तक होगा जो उपरोक्त उदाहरण में $$2$$ के सामान्य है। "उदाहरण" या "प्रतिरूप" सूचकांकों को $$i$$, $$j$$ और $$k$$ अक्षरों का उपयोग करके दर्शाया जाएगा, जिसमें मान $$1$$ से $$N$$ तक चलेंगे। उपरोक्त उदाहरण में, यदि $$N=1000$$ छात्रों के प्रतिरूप ने $$p=10$$ परीक्षाओं में भाग लिया, तब $$i$$ $$a$$ परीक्षा के लिए छात्र का स्कोर $$x_{ai}$$ द्वारा दिया गया है। कारक विश्लेषण का उद्देश्य वेरिएबल $$x_a$$ के मध्य सहसंबंधों को चिह्नित करना है, जिनमें से $$x_{ai}$$ विशेष उदाहरण, या अवलोकनों का समुच्चय है। वेरिएबलों को समान स्तर पर रखने के लिए, उन्हें मानक स्कोर $$z$$ में सामान्यीकरण (सांख्यिकी किया जाता है |
 * $$z_{ai}=\frac{x_{ai}-\hat\mu_a}{\hat\sigma_a}$$

जहां प्रतिरूप माध्य है:
 * $$\hat\mu_a=\tfrac{1}{N}\sum_i x_{ai}$$

और प्रतिरूप विचरण इस प्रकार दिया गया है:
 * $$\hat\sigma_a^2=\tfrac{1}{N-1}\sum_i (x_{ai}-\mu_a)^2$$

इस विशेष प्रतिरूप के लिए कारक विश्लेषण मॉडल तब है:
 * $$\begin{matrix}z_{1,i} & = & \ell_{1,1}F_{1,i} & + & \ell_{1,2}F_{2,i} & + & \varepsilon_{1,i} \\

\vdots & & \vdots & & \vdots & & \vdots \\ z_{10,i} & = & \ell_{10,1}F_{1,i} & + & \ell_{10,2}F_{2,i} & + & \varepsilon_{10,i} \end{matrix}$$ या, अधिक संक्षेप में:

z_{ai}=\sum_p \ell_{ap}F_{pi}+\varepsilon_{ai} $$ जहाँ
 * $$F_{1i}$$,$$i$$वें छात्र की मौखिक बुद्धि है,
 * $$F_{2i}$$,$$i$$वें छात्र की गणितीय बुद्धि हैं,
 * $$\ell_{ap}$$,$$a$$वें विषय, के लिए $$p=1,2$$ के लिए कारक लोडिंग हैं।

आव्युह (गणित) नोटेशन में, हमारे समीप है
 * $$Z=LF+\varepsilon$$

उस मापदंड को दोगुना करके देखें जिस पर मौखिक बुद्धिमत्ता $$F$$- प्रत्येक स्तम्भ में पहला अवयव है और यह मापा जाता है, तथा साथ ही मौखिक बुद्धिमत्ता के लिए कारक लोडिंग को आधा करने से मॉडल पर कोई भिन्नता नहीं दिखाई पड़ती है। इस प्रकार, यह मानने से कोई व्यापकता नहीं खोती है कि मौखिक बुद्धि के लिए कारकों का मानक विचलन $$1$$ है | इसी प्रकार गणितीय बुद्धि के लिए भी हैं इसके अतिरिक्त, समान कारणों से, यह मानने से कोई व्यापकता विलुप्त नहीं है कि दोनों कारक एक-दूसरे से असंबद्ध होते हैं। दूसरे शब्दों में:
 * $$\sum_i F_{pi}F_{qi}=\delta_{pq}$$

जहाँ $$\delta_{pq}$$ क्रोनकर डेल्टा है और ($$0$$ जब $$p \ne q$$ और $$1$$ जब $$p=q$$).त्रुटियों को कारकों से स्वतंत्र माना जाता है:
 * $$\sum_i F_{pi}\varepsilon_{ai}=0$$

ध्यान दें, चूँकि किसी समाधान का कोई आवर्तन भी समाधान है, इससे कारकों की व्याख्या करना कठिन हो जाता है। नीचे हानि देखें. इस विशेष उदाहरण में, यदि हम पूर्व से नहीं जानते हैं कि दो प्रकार की बुद्धि असंबद्ध हैं,तब हम दो कारकों की दो भिन्न-भिन्न प्रकार की बुद्धि के रूप में व्याख्या नहीं कर सकते हैं। तथापि वह इससे असंबंधित होते हैं, हम बिना किसी बाहरी तर्क के यह नहीं बता सकते कि कौन सा कारक मौखिक बुद्धि से मेल खाता है और कौन सा गणितीय बुद्धि से मेल खाता है।

लोडिंग का मान $$L$$, औसत $$\mu$$, और त्रुटियों की भिन्नताएँ $$\varepsilon$$ प्रेक्षित डेटा को देखते हुए अनुमान लगाया जाना चाहिए कि $$X$$ और $$F$$ (कारकों के स्तर के बारे में धारणा किसी दिए गए $$F$$ के लिए प्रयुक्त की गई है | मौलिक प्रमेय उपरोक्त नियमों से प्राप्त किया जा सकता है |
 * $$\sum_i z_{ai}z_{bi}=\sum_j \ell_{aj}\ell_{bj}+\sum_i \varepsilon_{ai}\varepsilon_{bi}$$

बाईं ओर का शब्द सहसंबंध आव्युह का $$(a,b)$$-अवलोकन है (ए $$p \times p$$ आव्युह जो देखे गए डेटा के मानकीकृत अवलोकनों के आव्युह के उत्पाद के रूप में प्राप्त होता है) और इसका $$p$$ विकर्ण तत्व $$1$$ s होंगे। दाईं ओर दूसरा पद विकर्ण आव्युह होता हैं जिसमें इकाई से कम पद होते हैं। दाईं ओर पहला पद "कम सहसंबंध आव्युह" है और इसके विकर्ण मानों को छोड़कर सहसंबंध आव्युह के सामान्य होगा जो एकता से कम होगा। कम सहसंबंध आव्युह के इन विकर्ण अवयवो को "सामुदायिकताएं" कहा जाता है (जो कारकों द्वारा देखे गए वेरिएबल में भिन्नता के अंश का प्रतिनिधित्व करते हैं):

h_a^2=1-\psi_a=\sum_j \ell_{aj}\ell_{aj} $$ प्रतिरूप डेटा $$z_{ai}$$ प्रतिरूपकरण त्रुटियों, मॉडल की अपर्याप्तता आदि के कारण ऊपर दिए गए मौलिक समीकरण का सम्पूर्ण रूप में पालन नहीं किया जाएगा। उपरोक्त मॉडल के किसी भी विश्लेषण का लक्ष्य कारकों का पता लगाना है | इसमें $$F_{pi}$$ और लोडिंग $$\ell_{ap}$$ जो डेटा को सर्वोत्तम रूप से फिट करता है। और इस कारक विश्लेषण में, सर्वोत्तम फिट को सहसंबंध आव्युह के ऑफ-विकर्ण अवशेषों में न्यूनतम माध्य वर्ग त्रुटि के रूप में परिभाषित किया गया है:
 * $$\varepsilon^2 = \sum_{a\ne b} \left[\sum_i z_{ai}z_{bi}-\sum_j \ell_{aj}\ell_{bj}\right]^2$$

यह त्रुटि सहप्रसरण के ऑफ-विकर्ण अवयव को कम करने के सामान्य है, जिसमें मॉडल समीकरणों में शून्य के अपेक्षित मान होते हैं। इसकी तुलना प्रमुख अवयव विश्लेषण से की जानी चाहिए जो सभी अवशेषों की माध्य वर्ग त्रुटि को कम करने का प्रयास करता है। इसमें हाई-स्पीड कंप्यूटर के आगमन से पूर्व, समस्या के अनुमानित समाधान खोजने के लिए अधिक प्रयास किए गए थे, विशेष रूप से अन्य विधियों से सांप्रदायिकताओं का अनुमान लगाने में होता हैं, जो तब ज्ञात कम सहसंबंध आव्युह उत्पन्न करके समस्या को अधिक सरल बनाता है। इसके पश्चात कारकों और लोडिंग का अनुमान लगाने के लिए इसका उपयोग किया गया हैं। हाई-स्पीड कंप्यूटर के आगमन के साथ, न्यूनतमकरण की समस्या को पर्याप्त गति के साथ पुनरावृत्त रूप से समाधान किया जा सकता है, और सामुदायिकताओं की गणना पूर्व से आवश्यक होने के अतिरिक्त प्रक्रिया में की जाती है। सामान्यीकृत न्यूनतम अवशिष्ट विधि एल्गोरिथ्म इस समस्या के लिए विशेष रूप से उपयुक्त है, किन्तु समाधान खोजने का संभवतः यह एकमात्र पुनरावृत्त साधन है।

यदि समाधान कारकों को सहसंबंधित करने की अनुमति दी जाती है | इस प्रकार (उदाहरण के लिए 'ओब्लिमिन' रोटेशन में) होता हैं,तब यह संबंधित गणितीय मॉडल ऑर्थोगोनल निर्देशांक के अतिरिक्त स्कू निर्देशांक का उपयोग करता है।

ज्यामितीय व्याख्या


कारक विश्लेषण के मापदंडों औरवेरिएबल को ज्यामितीय व्याख्या दी जा सकती है। इसमें डेटा ($$z_{ai}$$), कारक ($$F_{pi}$$) और त्रुटियों ($$\varepsilon_{ai}$$) को $$N$$-आयामी यूक्लिडियन स्पेस (प्रतिरूप स्थान) में सदिश के रूप में देखा जा सकता है, जिसे क्रमशः $$\mathbf{z}_a$$, $$\mathbf{F}_p$$ और $$\boldsymbol{\varepsilon}_a$$ के रूप में दर्शाया जाता है। चूंकि डेटा मानकीकृत है, इसमें डेटा सदिश इकाई लंबाई $$||\mathbf{z}_a||=1$$ के सामान्य हैं। कारक सदिश इस स्थान में $$k$$-आयामी रैखिक उप-स्थान (अथार्त यह हाइपरप्लेन) को परिभाषित करते हैं, जिस पर डेटा सदिश ऑर्थोगोनल रूप से प्रक्षेपित होते हैं। यह मॉडल समीकरण से निम्नानुसार है
 * $$\mathbf{z}_a=\sum_p \ell_{ap} \mathbf{F}_p+\boldsymbol{\varepsilon}_a$$

और कारकों और त्रुटियों की स्वतंत्रता: $$\mathbf{F}_p\cdot\boldsymbol{\varepsilon}_a=0$$ होता हैं. उपरोक्त उदाहरण में, हाइपरप्लेन केवल दो कारक सदिश द्वारा परिभाषित 2-आयामी प्लेन है। हाइपरप्लेन पर डेटा सदिश का प्रक्षेपण इसके द्वारा दिया गया है


 * $$\hat{\mathbf{z}}_a=\sum_p \ell_{ap}\mathbf{F}_p$$

और त्रुटियाँ उस अनुमानित बिंदु से डेटा बिंदु सीमा तक सदिश हैं और यह हाइपरप्लेन के लंबवत होता हैं। कारक विश्लेषण का लक्ष्य हाइपरप्लेन ढूंढना है जो कुछ अर्थों में डेटा के लिए सबसे उपयुक्त होता है, इसलिए इसमें कोई भिन्नता दिखाई नहीं पड़ती हैं कि इस हाइपरप्लेन को परिभाषित करने वाले कारक सदिश को कैसे चुना जाता है, जब तक कि वह स्वतंत्र हैं और हाइपरप्लेन में स्थित हैं। इसमें हाइपरप्लेन व्यापकता की हानि के बिना उन्हें ऑर्थोगोनल और सामान्य ($$\mathbf{F}_p\cdot \mathbf{F}_q=\delta_{pq}$$) दोनों के रूप में निर्दिष्ट करने के लिए स्वतंत्र हैं। इसमें कारकों का उपयुक्त समुच्चय पाए जाने के पश्चात, उन्हें हाइपरप्लेन के अंदर अनेैतिक रूप से परिवर्तित किया जा सकता है, जिससे कि कारक सदिश का कोई भी परिवर्तन उसी हाइपरप्लेन को परिभाषित करेगा, और उसका समाधान भी होगा।इसके परिणामस्वरूप, उपरोक्त उदाहरण में, जिसमें फिटिंग हाइपरप्लेन दो आयामी है, यदि हम पूर्व से नहीं जानते हैं कि दो प्रकार की बुद्धि असंबंधित होती हैं,तब हम दो कारकों की दो भिन्न-भिन्न प्रकार की बुद्धि के रूप में व्याख्या नहीं कर सकते हैं। यदि वह असंबंधित हों, हम बिना किसी बाहरी तर्क को यह नहीं बता सकते कि कौन सा कारक मौखिक बुद्धि से मेल खाता है और कौन सा गणितीय बुद्धि से मेल खाता है, या यह कारक दोनों का रैखिक संयोजन हैं।

डेटा सदिश $$\mathbf{z}_a$$ इकाई लंबाई है. डेटा के लिए सहसंबंध आव्युह की प्रविष्टियाँ $$r_{ab}=\mathbf{z}_a\cdot\mathbf{z}_b$$ द्वारा दी गई हैं | सहसंबंध आव्युह को ज्यामितीय रूप से दो डेटा सदिश $$\mathbf{z}_a$$ और $$\mathbf{z}_b$$ के मध्य के कोण के कोसाइन के रूप में व्याख्या किया जा सकता है विकर्ण अवयव स्पष्ट रूप से $$1$$s होंगे और ऑफ विकर्ण अवयवों का निरपेक्ष मान एकता से कम या उसके सामान्य होगा। "कम सहसंबंध आव्युह" को इस प्रकार परिभाषित किया गया है
 * $$\hat{r}_{ab}=\hat{\mathbf{z}}_a\cdot\hat{\mathbf{z}}_b$$.

कारक विश्लेषण का लक्ष्य फिटिंग हाइपरप्लेन का चयन करना है, जिससे कि सहसंबंध आव्युह के विकर्ण अवयवों को छोड़कर, कम सहसंबंध आव्युह सहसंबंध आव्युह को यथासंभव पुन: उत्पन्न कर सके, जिन्हें इकाई मान के रूप में जाना जाता है। दूसरे शब्दों में, लक्ष्य डेटा में क्रॉस-सहसंबंधों को यथासंभव स्पष्ट रूप से पुन: प्रस्तुत करना है। विशेष रूप से, फिटिंग हाइपरप्लेन के लिए, ऑफ-विकर्ण अवयव में माध्य वर्ग त्रुटि होती हैं
 * $$\varepsilon^2=\sum_{a\ne b} \left(r_{ab}-\hat{r}_{ab}\right)^2$$

इसे न्यूनतम किया जाना है, और इसे ऑर्थोनॉर्मल कारक सदिश के समुच्चय के संबंध में इसे कम करके पूर्ण किया जाता है। यह देखा जा सकता है

r_{ab}-\hat{r}_{ab}= \boldsymbol{\varepsilon}_a\cdot\boldsymbol{\varepsilon}_b $$ दाईं ओर का शब्द केवल त्रुटियों का सहप्रसरण है। इस मॉडल में, त्रुटि सहप्रसरण को विकर्ण आव्युह कहा गया है और इसलिए उपरोक्त न्यूनतमकरण समस्या वास्तव में मॉडल के लिए सबसे उपयुक्त होती हैं यह त्रुटि सहप्रसरण का प्रतिरूप अनुमान प्राप्त करती हैं जिसके ऑफ-विकर्ण अवयव को औसत वर्ग अर्थ में न्यूनतम किया गया है। यह देखा जा सकता है कि जब से $$\hat{z}_a$$ डेटा सदिश के ऑर्थोगोनल प्रक्षेपण हैं, उनकी लंबाई अनुमानित डेटा सदिश की लंबाई से कम या उसके सामान्य होगी, जो कि एकता है। इन लंबाइयों का वर्ग कम सहसंबंध आव्युह के विकर्ण अवयव मात्र होता हैं। इस कम सहसंबंध आव्युह के इन विकर्ण अवयवों को सांप्रदायिकता के रूप में जाना जाता है:



{h_a}^2=||\hat{\mathbf{z}}_a||^2= \sum_p {\ell_{ap}}^2 $$ समुदायों के बड़े मान यह संकेत देंगे कि फिटिंग हाइपरप्लेन सहसंबंध आव्युह को स्पष्ट रूप से पुन: प्रस्तुत कर रहा है। इसमें कारकों के माध्य मानों को भी शून्य होने के लिए बाध्य किया जाना चाहिए, जिससे यह निष्कर्ष निकलता है कि त्रुटियों का माध्य मान भी शून्य होता हैं।

खोजपूर्ण कारक विश्लेषण
खोजपूर्ण कारक विश्लेषण (ईएफए) का उपयोग उन वस्तुओं और समूह वस्तुओं के मध्य सम्मिश्र अंतर्संबंधों की पहचान करने के लिए किया जाता है जो एकीकृत अवधारणाओं का भाग होता हैं। शोधकर्ता कारकों के मध्य संबंधों के बारे में कोई पूर्व धारणा नहीं बनाता है।

पुष्टि कारक विश्लेषण
पुष्टिकरण कारक विश्लेषण (सीएफए) अधिक सम्मिश्र दृष्टिकोण है जो इस परिकल्पना का परीक्षण करता है कि आइटम विशिष्ट कारकों से जुड़े हैं। सीएफए माप मॉडल का परीक्षण करने के लिए संरचनात्मक समीकरण मॉडलिंग का उपयोग करता है जिससे कारकों पर लोड करने से देखे गए वेरिएबल और न देखे गए वेरिएबल के मध्य संबंधों के मानांकन की अनुमति मिलती है। संरचनात्मक समीकरण मॉडलिंग दृष्टिकोण माप त्रुटि को समायोजित कर सकते हैं और यह न्यूनतम-वर्ग अनुमान की तुलना में कम प्रतिबंधात्मक होते हैं। परिकल्पित मॉडल का परीक्षण वास्तविक डेटा के विरुद्ध किया जाता है, और इसमें विश्लेषण अव्यक्त वेरिएबल (कारकों) पर देखे गए वेरिएबल के लोडिंग के साथ-साथ अव्यक्त वेरिएबल के मध्य सहसंबंध को भी प्रदर्शित करता हैं।

कारक निष्कर्षण के प्रकार
प्रमुख अवयव विश्लेषण (पीसीए) कारक निष्कर्षण के लिए व्यापक रूप से उपयोग की जाने वाली विधि है, जो ईएफए का प्रथम चरण है। इसमें अधिकतम संभावित विचरण निकालने के लिए कारक भार की गणना की जाती है, क्रमिक कारकिंग तब तक जारी रहती है जब तक कि इसमें कोई और सार्थक विचरण नहीं बचा होता हैं। इसके पश्चात् फिर विश्लेषण के लिए कारक मॉडल को परिवर्तित किया जाना चाहिए।

कैनोनिकल कारक विश्लेषण, जिसे राव की कैनोनिकल कारकिंग भी कहा जाता है, यह पीसीए के समान मॉडल की गणना करने की भिन्न विधि है, जो प्रमुख अक्ष विधि का उपयोग करती है। विहित कारक विश्लेषण उन कारकों की खोज करता है जिनका प्रेक्षित वेरिएबल के साथ उच्चतम विहित सहसंबंध होता है। यह विहित कारक विश्लेषण डेटा के इच्छानुसार पुनर्स्केलिंग से अप्रभावित रहता है।

सामान्य कारक विश्लेषण, जिसे प्रमुख कारक विश्लेषण (पीएफए) या प्रमुख अक्ष कारकिंग (पीएएफ) भी कहा जाता है, यह सबसे कम कारकों की खोज करता है जो वेरिएबल के समुच्चय के सामान्य विचरण (सहसंबंध) के लिए ​उत्तरदायी हो सकते हैं।

छवि कारकिंग वास्तविक वेरिएबल के अतिरिक्त अनुमानित वेरिएबल के सहसंबंध आव्युह पर आधारित होते है, जहां प्रत्येक वेरिएबल का पूर्वानुमान अनेक प्रतिगमन का उपयोग करके दूसरों से किया जाता है।

अल्फा कारकिंग कारकों की विश्वसनीयता को अधिकतम करने पर आधारित होता है, यह मानते हुए कि वेरिएबल को वेरिएबल के यूनिवर्स से यादृच्छिक रूप से प्रतिरूप लिया जाता है। तथा अन्य सभी विधियाँ यह मानती हैं कि स्तिथियों को प्रतिरूपकृत किया गया है और वेरिएबलों को निश्चित किया गया है।

कारक प्रतिगमन मॉडल कारक मॉडल और प्रतिगमन मॉडल का संयोजन मॉडल है | तथा वैकल्पिक रूप से, इसे हाइब्रिड कारक मॉडल के रूप में देखा जा सकता है, जिनके कारक आंशिक रूप से ज्ञात हैं।

शब्दावली
कारक लोडिंग: सामुदायिकता किसी वस्तु की मानकीकृत बाहरी लोडिंग का वर्ग होता है। पियर्सन का आर-वर्ग के अनुरूप, वर्ग कारक लोडिंग कारक द्वारा समझाए गए उस संकेतक वेरिएबल में भिन्नता का प्रतिशत होता है। इसमें प्रत्येक कारक के अनुरूप सभी वेरिएबल में भिन्नता का प्रतिशत प्राप्त करने के लिए होता हैं, उस कारक (स्तंभ) के लिए वर्ग कारक लोडिंग का योग जोड़ें और वेरिएबल की संख्या से विभाजित करें। (ध्यान दें कि वेरिएबलों की संख्या उनके प्रसरणों के योग के सामान्य होती है क्योंकि यह मानकीकृत वेरिएबल का प्रसरण 1 होता है।) यह कारक के आइजेनवैल्यू को वेरिएबलों की संख्या से विभाजित करने के समान है। व्याख्या करते समय, पुष्टिकारक कारक विश्लेषण में थम्ब के नियम के अनुसार, कारक लोडिंग .7 या उच्चतर होनी चाहिए जिससे यह पुष्टि की जा सके कि प्राथमिकता से पहचाने गए स्वतंत्र वेरिएबल विशेष कारक द्वारा दर्शाए जाते हैं, इस तर्क पर कि .7 स्तर सामान्य है संकेतक में लगभग आधे विचरण को कारक द्वारा समझाया जा रहा है। चूँकि, .7 मानक उच्च होता है और वास्तविक जीवन का डेटा इस मानदंड को पूर्ण नहीं कर सकता है, यही कारण है कि कुछ शोधकर्ता, विशेष रूप से खोजपूर्ण उद्देश्यों के लिए, निचले स्तर का उपयोग करेंगे जैसे कि केंद्रीय कारक के लिए .4 और .25 के लिए होते हैं। और अन्य कारक किसी भी घटना में, कारक लोडिंग की व्याख्या सिद्धांत के आलोक में की जानी चाहिए, न कि यह इच्छानुसार कटऑफ स्तरों के आधार पर होती हैं। स्कू रोटेशन में, कोई पैटर्न आव्यूह और संरचना पैटर्न दोनों की जांच कर सकता है। संरचना आव्यूह केवल ऑर्थोगोनल रोटेशन के रूप में कारक लोडिंग आव्यूह होता है, जो अद्वितीय और सामान्य योगदान के आधार पर कारक द्वारा समझाए गए माप वेरिएबल में भिन्नता का प्रतिनिधित्व करता है। इसके विपरीत, पैटर्न आव्यूह में गुणांक होते हैं जो अद्वितीय योगदान का प्रतिनिधित्व करते हैं। जितने अधिक कारक होंगे, एक नियम के रूप में पैटर्न गुणांक उतना ही कम होता हैं  चूंकि विचरण में अधिक सामान्य योगदान समझाया जाएगा। स्कू परिवर्तन के लिए, शोधकर्ता किसी कारक को लेबल देते समय संरचना और पैटर्न गुणांक दोनों को देखता है। स्कू घूर्णन के सिद्धांतों को क्रॉस एन्ट्रॉपी और इसकी सामान्य एन्ट्रॉपी दोनों से प्राप्त किया जा सकता है. समुदाय: किसी दिए गए वेरिएबल (पंक्ति) के लिए सभी कारकों के वर्गांकित कारक लोडिंग का योग उस वेरिएबल में सभी कारकों के कारण होने वाला विचरण है। सामुदायिकता सभी कारकों द्वारा संयुक्त रूप से समझाए गए किसी दिए गए वेरिएबल में भिन्नता के प्रतिशत को मापती है और इसे प्रस्तुत किए गए कारकों के संदर्भ में संकेतक की विश्वसनीयता के रूप में व्याख्या किया जा सकता है। प्रतिरूपता समाधान: यदि सामुदायिकता 1.0 से अधिक है, तब इसमें प्रतिरूपता समाधान होता है, जो बहुत लघु प्रतिरूप या बहुत अधिक प्रतिरूप होते हैं यह बहुत कम कारकों को निकालने के विकल्प को प्रतिबिंबित कर सकता है। वेरिएबल की विशिष्टता: किसी वेरिएबल की परिवर्तनशीलता में से उसकी सामुदायिकता को कम कर दिया जाता है। आइजनवैल्यू/विशेषता मूल्य: आइगेनवैल्यू प्रत्येक कारक के अनुसार से कुल प्रतिरूप में भिन्नता की मात्रा को मापते हैं। आइगेनवैल्यू का अनुपात वेरिएबल के संबंध में कारकों के व्याख्यात्मक महत्व का अनुपात होता है। यदि किसी कारक का आइगेनवैल्यू कम है, तब यह वेरिएबल इन भिन्नताओं की व्याख्या में बहुत कम योगदान दे रहा है और इसे उच्च आइगेनवैल्यू ​​वाले कारकों की तुलना में कम महत्वपूर्ण मानकर अनदेखा किया जा सकता है। वर्गांकित लोडिंग का निष्कर्षण योग: प्रारंभिक आइगेनवैल्यू ​​और निष्कर्षण के पश्चात् आइगेनवैल्यू (एसपीएसएस द्वारा "श्रेणीबद्ध लोडिंग के निष्कर्षण योग" के रूप में सूचीबद्ध) पीसीए निष्कर्षण के लिए समान हैं, किंतु अन्य निष्कर्षण विधियों के लिए, निष्कर्षण के पश्चात् आइगेनवैल्यू उनके प्रारंभिक समकक्षों की तुलना में कम होते है। यह एसपीएसएस "स्क्वायर लोडिंग के रोटेशन योग" को भी प्रिंट करता है और यहां तक कि पीसीए के लिए भी इसकी आवश्यकता होती हैं, यह आइगेनवैल्यू प्रारंभिक और निष्कर्षण आइगेनवैल्यू से भिन्न होते हैं, चूंकि इसमें उनका कुल योग समान होता हैं। कारक स्कोर: घटक स्कोर (पीसीए में): पीसीए परिप्रेक्ष्य से समझाया गया है,कि यह कारक विश्लेषण परिप्रेक्ष्य से नहीं हैं. प्रत्येक कारक (स्तंभ) पर प्रत्येक स्तिथियों में (पंक्ति) के स्कोर होते हैं। किसी दिए गए कारक के लिए दी गई स्तिथियों के कारक स्कोर की गणना करने के लिए होते हैं, इसमें प्रत्येक वेरिएबल पर स्तिथियों का मानकीकृत स्कोर लिया जाता है, और इसमें दिए गए कारक के लिए वेरिएबल के संबंधित लोडिंग से गुणा किया जाता है, और इन उत्पादों का योग किया जाता है। इन कारक स्कोर की गणना करने से व्यक्ति को कारक आउटलेर्स को देखने की अनुमति मिलती है। इसके अतिरिक्त, कारक स्कोर का उपयोग इसके पश्चात् के मॉडलिंग में वेरिएबल के रूप में किया जा सकता है।

कारकों की संख्या निर्धारित करने के लिए मानदंड
शोधकर्ता कारक प्रतिधारण के लिए ऐसे व्यक्तिपरक या इच्छानुसार मानदंडों से बचना चाहते हैं क्योंकि यह मेरे लिए समझ में आता है। इस समस्या को समाधान करने के लिए अनेक वस्तुनिष्ठ विधियों को विकसित किया गया हैं, जो उपयोगकर्ताओं को जांच के लिए समाधानों की उचित श्रृंखला निर्धारित करने की अनुमति देते हैं। चूँकि यह भिन्न-भिन्न विधियाँ प्रायः एक-दूसरे से असहमत होती हैं कि कितने कारकों को निरंतर रखा जाना चाहिए। उदाहरण के लिए, समानांतर विश्लेषण 5 कारकों का सुझाव दे सकता है जबकि वेलिसर का एमएपी 6 का सुझाव देता है, इसलिए शोधकर्ता 5 और 6-कारक समाधान दोनों का अनुरोध कर सकता है और यह बाहरी डेटा और सिद्धांत के संबंध में प्रत्येक पर चर्चा कर सकता है।

आधुनिक मानदंड
हॉर्न का समानांतर विश्लेषण (पीए): मोंटे-कार्लो आधारित सिमुलेशन विधि हैं जो देखे गए स्वदेशी मानों की तुलना असंबद्ध सामान्य वेरिएबल से प्राप्त मानों से करती है। इसमें कारक या अवयव को निरंतर रखा जाता है यदि संबंधित आइगेनवैल्यू यादृच्छिक डेटा से प्राप्त आइजेनवैल्यू के वितरण के 95वें प्रति शतक से बड़ा है। इसको बनाए रखने के लिए अवयवों की संख्या निर्धारित करने के लिए पीए अधिक सामान्यतः अनुशंसित नियमों में से है, किन्तु अनेक प्रोग्राम इस विकल्प को सम्मिलित करने में विफल रहते हैं | (एक उल्लेखनीय अपवाद R (प्रोग्रामिंग लैंग्वेज) है)। चूंकि, एंटोन फॉर्मैन ने सैद्धांतिक और अनुभवजन्य दोनों साक्ष्य प्रदान किए कि इसका अनुप्रयोग अनेक स्तिथियों में उचित नहीं हो सकता है क्योंकि इसका प्रदर्शन प्रतिरूप आकार, आइटम प्रतिक्रिया सिद्धांत याआइटम प्रतिक्रिया फलन और सहसंबंध गुणांक के प्रकार से अधिक प्रभावित होता है।

वेलिसर (1976) एमएपी परीक्षण जैसा कि कर्टनी द्वारा वर्णित है (2013) "इसमें पूर्ण प्रमुख अवयव विश्लेषण सम्मिलित है जिसके पश्चात आंशिक सहसंबंधों के आव्युह की श्रृंखला की जांच की जाती है" (पृष्ठ 397 (चूँकि ध्यान दें कि यह उद्धरण वेलिसर (1976) में नहीं होता है और उद्धृत पृष्ठ संख्या उद्धरण के पृष्ठों के बाहर है)। चरण "0" के लिए वर्ग सहसंबंध (चित्र 4 देखें) अपूर्ण सहसंबंध आव्युह के लिए औसत वर्ग-विकर्ण सहसंबंध है। चरण 1 पर, पूर्व प्रमुख अवयव और उससे संबंधित वस्तुओं को आंशिक रूप से हटा दिया जाता है। इसके पश्चात, के सहसंबंध आव्युह के लिए औसत वर्ग-विकर्ण सहसंबंध की गणना चरण 1 के लिए की जाती है। चरण 2 पर, पूर्व दो प्रमुख अवयवों को आंशिक रूप से हटा दिया जाता है और इसमें परिणामी औसत वर्ग-विकर्ण सहसंबंध की फिर से गणना की जाती है। गणना k शून्य से चरण के लिए की जाती है | और यह (k आव्युह में वेरिएबल की कुल संख्या का प्रतिनिधित्व करता है)। इसके पश्चात, प्रत्येक चरण के लिए सभी औसत वर्ग सहसंबंधों को पंक्तिबद्ध किया जाता है और विश्लेषण में चरण संख्या जिसके परिणामस्वरूप सबसे कम औसत वर्ग आंशिक सहसंबंध होता है, यह अवयवों की संख्या निर्धारित करता है इसको बनाए रखने के लिए कारक की आवश्यकता होती हैं। इस विधि द्वारा, अवयवों को तब तक बनाए रखा जाता है जब तक सहसंबंध आव्युह में भिन्नता अवशिष्ट या त्रुटि भिन्नता के विपरीत व्यवस्थित भिन्नता का प्रतिनिधित्व करती है। यद्यपि पद्धतिगत रूप से प्रमुख अवयव विश्लेषण के समान होते हैं, यह एमएपी तकनीक को अनेक सिमुलेशन अध्ययनों में बनाए रखने के लिए कारकों की संख्या निर्धारित करने में अधिक अच्छा प्रदर्शन करते दिखाया गया है। यह प्रक्रिया एसपीएसएस के उपयोगकर्ता इंटरफ़ेस के माध्यम से उपलब्ध कराई गई है | और इसके साथ ही R (प्रोग्रामिंग लैंग्वेज) के लिए यह मनोवैज्ञानिक पैकेज होता हैं।

पुराने विधियां
कैसर मानदंड: कैसर नियम 1.0 के अनुसार आइजेनवैल्यू ​​​​के साथ सभी अवयवों को छोड़ने के लिए होते है | यह औसत एकल आइटम द्वारा दर्ज की गई सूचना के सामान्य आइजेनवैल्यू है। यह एसपीएसएस और अधिकांश सांख्यिकीय सॉफ़्टवेयर में कैसर मानदंड डिफ़ॉल्ट होते है, किन्तु कारकों की संख्या का अनुमान लगाने के लिए एकमात्र कट-ऑफ मानदंड के रूप में उपयोग किए जाने पर इसकी अनुशंसा नहीं की जाती है क्योंकि यह कारकों को अधिक निकालने की प्रवृत्ति रखता है। इस पद्धति का रूपांतर तैयार किया गया है जहां शोधकर्ता प्रत्येक आइगेनवैल्यू के लिए आत्मविश्वास अंतराल की गणना करता है और यह केवल उन कारकों को निरंतर रखता है जिनका संपूर्ण आत्मविश्वास अंतराल 1.0 से अधिक है।

स्क्री प्लॉट: कैटेल स्क्री परीक्षण अवयवों को X-अक्ष के रूप में और संबंधित आइजेनवैल्यू को Y-अक्ष के रूप में प्लॉट करता है। जैसे-जैसे कोई दाईं ओर बढ़ता है, इसके पश्चात इसके अवयवों की ओर, स्वदेशी मान कम हो जाते हैं। जब गिरावट संवर्त हो जाती है और वक्र कम तेज गिरावट की ओर एल्बो बनाता है,तब कैटेल का स्क्री परीक्षण एल्बो से प्रारंभ होने वाले सभी अवयवों को छोड़ने के लिए कहता है। शोधकर्ता-नियंत्रित विक्षनरी:फज कारक के प्रति उत्तरदायी होने के कारण इसमें कभी-कभी इस नियम की आलोचना की जाती है। अथार्त, चूंकि एल्बो चुनना व्यक्तिपरक हो सकता है क्योंकि वक्र में अनेक एल्बो होती हैं यह स्मूथ वक्र होती है, शोधकर्ता को अपने शोध एजेंडे द्वारा वांछित कारकों की संख्या पर कट-ऑफ निर्धारित करने का प्रलोभन दिया जा सकता है।

वेरिएंस ने मानदंड समझाया: कि कुछ शोधकर्ता भिन्नता के 90% (कभी-कभी 80%) को ध्यान में रखने के लिए पर्याप्त कारकों को रखने के नियम का उपयोग करते हैं। जहां शोधकर्ता का लक्ष्य ओकाम के रेजर पर जोर देता है (यथासंभव कुछ कारकों के साथ भिन्नता की व्याख्या करना) हैं, इसका मानदंड 50% तक कम हो सकता है।

बायेसियन विधि
भारतीय बुफ़े प्रक्रिया पर आधारित बायेसियन दृष्टिकोण अव्यक्त कारकों की प्रशंसनीय संख्या पर संभाव्यता वितरण देता है।

रोटेशन विधियाँ
अनरोटेटेड आउटपुट पूर्व कारक, फिर दूसरे कारक आदि के कारण होने वाले विचरण को अधिकतम करता है। अनरोटेटेड समाधान ओर्थोगोनल होते है। इसका अर्थ है कि कारकों के मध्य सहसंबंध शून्य है। अनरोटेटेड समाधान का उपयोग करने की हानि यह है कि सामान्यतः अधिकांश आइटम प्रारम्भिक कारकों पर लोड होते हैं और अनेक आइटम से अधिक कारकों पर अधिक सीमा तक लोड होते हैं।

रोटेशन, लोडिंग का पैटर्न बनाने के लिए समन्वय प्रणाली के अक्षों को रोटेशन (गणित) द्वारा व्याख्या करना सरल बनाता है, जहां प्रत्येक आइटम केवल कारक पर दृढ़ता से लोड होता है और अन्य कारकों पर अधिक कमजोर रूप से लोड होता है। यह परिवर्तन ऑर्थोगोनल या स्कू हो सकता है। यह स्कू परिवर्तन कारकों को सहसंबंधित करने की अनुमति देता है। वेरिमैक्स रोटेशन सबसे अधिक प्रयोग की जाने वाली रोटेशन विधि है। वेरिमैक्स कारक अक्षों का ऑर्थोगोनल रोटेशन है जो कारक लोडिंग आव्युह में सभी वेरिएबल (पंक्तियों) पर कारक (स्तंभ) के वर्ग लोडिंग के विचरण को अधिकतम करता है। प्रत्येक कारक में कारक द्वारा बड़े लोडिंग के साथ केवल कुछ वेरिएबल होते हैं। वेरिमैक्स लोडिंग आव्युह के स्तम्भ को सरल बनाता है। इससे प्रत्येक वेरिएबल को ही कारक से पहचानना यथासंभव सरल हो जाता है।

क्वार्टिमैक्स रोटेशन ऑर्थोगोनल रोटेशन होते है जो वेरिएबल को समझाने के लिए आवश्यक कारकों की संख्या को कम करता है। यह स्तम्भ के अतिरिक्त लोडिंग आव्युह की पंक्तियों को सरल बनाता है। क्वार्टिमैक्स प्रायः सामान्य कारक उत्पन्न करता है जिसमें अनेक वेरिएबल के लिए लोडिंग होती है। यह अघुलनशील समाधान के समीप होते है। यदि अनेक वेरिएबल सहसंबद्ध हैं | तब क्वार्टिमैक्स उपयोगी होते है जिससे कि प्रमुख कारक की अपेक्षा की जा सकती हैं। इक्विमैक्स रोटेशन वेरिमैक्स और क्वार्टिमैक्स के मध्य समझौता होता है।

अनेक व्यावहारिक अनुप्रयोगों में, यह मान लेना अवास्तविक है कि इसमें कारक असंबंधित होते हैं। इस स्थिति में स्लांट परिवर्तन को प्राथमिकता दी जाती है। इसमें एक-दूसरे से सहसंबद्ध कारकों को अनुमति देना विशेष रूप से साइकोमेट्रिक अनुसंधान में प्रयुक्त होता है, क्योंकि दृष्टिकोण, राय और बौद्धिक क्षमताएं सहसंबद्ध होती हैं और अन्यथा इसे मान लेना अवास्तविक होता हैं।

जब कोई व्यक्ति स्कू (गैर-ऑर्थोगोनल) समाधान चाहता है तब ओब्लिमिन रोटेशन मानक विधि है।

प्रोमैक्स रोटेशन वैकल्पिक स्कू रोटेशन विधि होती है जो ओब्लिमिन विधि की तुलना में कम्प्यूटेशनल रूप से तीव्र होती है और इसलिए कभी-कभी बहुत बड़े डाटासमुच्चय के लिए इसका उपयोग किया जाता है।

कारक घूर्णन के साथ समस्याएँ
जब प्रत्येक वेरिएबल अनेक कारकों पर लोड हो रहा हो तब कारक संरचना की व्याख्या करना कठिन हो सकता है। डेटा में लघु परिवर्तन कभी-कभी कारक रोटेशन मानदंड में संतुलन बना सकते हैं जिससे कि पूर्ण प्रकार से भिन्न कारक रोटेशन उत्पन्न हो सकते हैं। इससे विभिन्न प्रयोगों के परिणामों की तुलना करना कठिन हो सकता है। इस समस्या को विश्वव्यापी सांस्कृतिक भिन्नताओं के विभिन्न अध्ययनों की तुलना से स्पष्ट किया गया है। प्रत्येक अध्ययन ने सांस्कृतिक वेरिएबल के विभिन्न मापों का उपयोग किया है और इसमें भिन्न-भिन्न परिवर्तित किए गए कारक विश्लेषण के परिणाम का उत्पादन किया है। प्रत्येक अध्ययन के लेखकों का मानना ​​था कि उन्होंने कुछ नया खोजा है, और उन्होंने जो कारक पाए उनके लिए नए नाम के अविष्कार किए गए हैं। इसमें अध्ययनों की पश्चात की तुलना में पाया गया कि जब अनियंत्रित परिणामों की तुलना की गई थी तब इसमें परिणाम समान होते थे। कारक रोटेशन के सामान्य अभ्यास ने विभिन्न अध्ययनों के परिणामों के मध्य समानता को अस्पष्ट कर दिया है।

उच्च क्रम कारक विश्लेषण
उच्च-क्रम कारक विश्लेषण सांख्यिकीय पद्धति है जिसमें दोहराए जाने वाले चरण कारक विश्लेषण हैं इसमें स्कू रोटेशन परिवर्तित गए कारकों का कारक विश्लेषण सम्मिलित होता है। इसकी योग्यता शोधकर्ता की अध्ययन की गई घटनाओं की पदानुक्रमित संरचना को देखने में सक्षम बनाता है। परिणामों की व्याख्या करने के लिए, कोई यह तब आव्युह गुणन द्वारा आगे बढ़ता है | प्राथमिक कारक पैटर्न आव्युह को उच्च-क्रम कारक पैटर्न आव्युह (गोर्सच, 1983) द्वारा गुणा करने और संभवतः परिणाम के लिए वेरिमैक्स रोटेशन प्रयुक्त करने (थॉम्पसन, 1990) या श्मिड-लीमन समाधान (एसएलएस, श्मिड और लीमन, 1957 हैं, जिसे श्मिड-लीमन परिवर्तन के रूप में भी जाना जाता है) इसका उपयोग करके इसको आगे बढ़ता है जो सांख्यिकीय विस्तार का गुण बताता है। यह प्राथमिक कारकों से दूसरे क्रम के कारकों तक होता हैं।

खोजपूर्ण कारक विश्लेषण (ईएफए) बनाम प्रमुख अवयव विश्लेषण (पीसीए)
कारक विश्लेषण प्रमुख अवयव विश्लेषण (पीसीए) से संबंधित है, किन्तु दोनों समान नहीं हैं। दोनों तकनीकों के मध्य अंतर को लेकर क्षेत्र में महत्वपूर्ण विवाद रहा है। पीसीए को खोजपूर्ण कारक विश्लेषण (ईएफए) का अधिक मूलभूत संस्करण माना जा सकता है जिसे हाई-स्पीड कंप्यूटर के आगमन से पूर्व प्रारम्भिक दिनों में विकसित किया गया था। पीसीए और कारक विश्लेषण दोनों का लक्ष्य डेटा के समुच्चय की आयामीता को कम करना है, किन्तु ऐसा करने के लिए अपनाए गए दृष्टिकोण दोनों तकनीकों के लिए भिन्न-भिन्न हैं। कारक विश्लेषण स्पष्ट रूप से देखे गए वेरिएबल से कुछ अप्राप्य कारकों की पहचान करने के उद्देश्य से डिज़ाइन किया गया है, जबकि पीसीए सीधे इस उद्देश्य को संबोधित नहीं करता है | यह सर्वोत्तम रूप से, पीसीए आवश्यक कारकों का अनुमान प्रदान करता है। खोजपूर्ण विश्लेषण के दृष्टिकोण से, पीसीए के आइजेनवैल्यू फुलाए गए अवयव लोडिंग हैं, अथार्त इसमें, त्रुटि भिन्नता से दूषित होती हैं।

जबकि खोजपूर्ण कारक विश्लेषण और प्रमुख अवयव विश्लेषण को सांख्यिकी के कुछ क्षेत्रों में पर्यायवाची तकनीकों के रूप में माना जाता है, इसकी आलोचना की गई है। कारक विश्लेषण अंतर्निहित कारण संरचना की धारणा से संबंधित है | यह मानता है कि देखे गए वेरिएबल में सहसंयोजन या अधिक अव्यक्त वेरिएबल (कारकों) की उपस्थिति के कारण होता है जो इन देखे गए वेरिएबल कारण पर प्रभाव डालते हैं। इसके विपरीत, पीसीए ऐसे अंतर्निहित कारण संबंध को न तब मानता है और न ही उस पर निर्भर करता है। शोधकर्ताओं ने तर्क दिया है कि दो तकनीकों के मध्य अंतर का अर्थ यह हो सकता है कि विश्लेषणात्मक लक्ष्य के आधार पर इसके दूसरे पर प्राथमिकता देने के उद्देश्यपूर्ण लाभ होते हैं। यदि कारक मॉडल गलत विधियों से तैयार किया गया है या इसमें मान्यताओं को पूर्ण नहीं किया गया है, तब कारक विश्लेषण गलत परिणाम देता हैं। कारक विश्लेषण का सफलतापूर्वक उपयोग किया गया है जहां सिस्टम की पर्याप्त समझ अच्छे प्रारंभिक मॉडल फॉर्मूलेशन की अनुमति देती है। पीसीए मूल डेटा में गणितीय परिवर्तन को नियोजित करता है, जिसमें सहप्रसरण आव्युह के रूप के बारे में कोई धारणा नहीं होती है। पीसीए का उद्देश्य मूल वेरिएबल के रैखिक संयोजनों को निर्धारित करना और कुछ का चयन करना है जिनका उपयोग अधिक सूचना खोए बिना डेटा समुच्चय को सारांशित करने के लिए किया जा सकता है।

पीसीए और ईएफए के विपरीत तर्क
फैब्रिगर एट अल. (1999) ऐसे अनेक कारणों का पता लगाएं जिनका उपयोग यह सुझाव देने के लिए किया जाता है कि पीसीए कारक विश्लेषण के सामान्य नहीं है:


 * 1) कभी-कभी यह सुझाव दिया जाता है कि पीसीए कम्प्यूटेशनल रूप से तीव्र है और कारक विश्लेषण की तुलना में कम संसाधनों की आवश्यकता होती है। फैब्रिगर एट अल. सुझाव है कि यह सरलता से उपलब्ध कंप्यूटर संसाधनों ने इस व्यावहारिक चिंता को अप्रासंगिक बना दिया है।
 * 2) पीसीए और कारक विश्लेषण समान परिणाम उत्पन्न कर सकते हैं। इस बिंदु को फैब्रिगर एट अल द्वारा भी संबोधित किया गया है | कुछ स्तिथियों में, जहाँ सामुदायिकताएँ कम हैं (जैसे 0.4), दोनों तकनीकें भिन्न-भिन्न परिणाम उत्पन्न करती हैं। वास्तव में, फैब्रिगर एट अल का तर्क है कि ऐसे स्तिथियों में जहां डेटा सामान्य कारक मॉडल की मान्यताओं के अनुरूप है, इसमें पीसीए के परिणाम गलत परिणाम होते हैं।
 * 3) ऐसे कुछ स्तिथियां होती हैं जहां कारक विश्लेषण से 'हेवुड स्तिथियां' सामने आते हैं। इनमें वह स्थितियाँ सम्मिलित हैं जिनमें मापे गए वेरिएबल में 100% या अधिक भिन्नता का अनुमान मॉडल द्वारा लगाया जाता है। फैब्रिगर एट अल. सुझाव दें कि यह स्तिथियां वास्तव में शोधकर्ता के लिए सूचना पूर्ण हैं, जो गलत विधियों से निर्दिष्ट मॉडल या सामान्य कारक मॉडल के उल्लंघन का संकेत देते हैं। पीसीए दृष्टिकोण में हेवुड स्तिथियों की कमी का अर्थ यह हो सकता है कि इसमें ऐसे विवादों पर ध्यान नहीं दिया जाता है।
 * 4) शोधकर्ता पीसीए दृष्टिकोण से अतिरिक्त सूचना प्राप्त करते हैं, जैसे किसी निश्चित अवयव पर किसी व्यक्ति का स्कोर होता हैं | ऐसी सूचना कारक विश्लेषण से नहीं मिलती है। चूंकि, फैब्रिगर एट अल के रूप में होती हैं यह तर्क दें, कारक विश्लेषण का विशिष्ट उद्देश्य - अथार्त मापे गए वेरिएबल के मध्य सहसंबंध और निर्भरता की संरचना के लिए लेखांकन कारकों को निर्धारित करना हैं | इसमें कारक स्कोर के ज्ञान की आवश्यकता नहीं होती है और इस प्रकार यह लाभ अस्वीकार कर दिया गया है। कारक विश्लेषण से कारक स्कोर की गणना करना भी संभव है।

प्रसरण बनाम सहप्रसरण
कारक विश्लेषण माप में निहित यादृच्छिक त्रुटि को ध्यान में रखता है, जबकि पीसीए ऐसा करने में विफल रहता है। इस बिंदु का उदाहरण ब्राउन (2009) द्वारा दिया गया है, किसने संकेत दिया कि, गणना में सम्मिलित सहसंबंध आव्युह के संबंध में:

इस कारण से, ब्राउन (2009) कारक विश्लेषण का उपयोग करने की सलाह देते हैं जब वेरिएबल के मध्य संबंधों के बारे में सैद्धांतिक विचार मौजूद होते हैं, जबकि पीसीए का उपयोग किया जाना चाहिए यदि शोधकर्ता का लक्ष्य अपने डेटा में पैटर्न का पता लगाना है।

प्रक्रिया और परिणाम में अंतर
पीसीए और कारक विश्लेषण (एफए) के मध्य अंतर को सुहर (2009) द्वारा और अधिक स्पष्ट किया गया है | * पीसीए के परिणामस्वरूप प्रमुख अवयव बनते हैं जो प्रेक्षित वेरिएबलों के लिए अधिकतम मात्रा में विचरण का कारण बनते हैं | यह एफए डेटा में सामान्य भिन्नता का लेखांकन रखता है।
 * पीसीए सहसंबंध आव्युह के विकर्णों पर सम्मिलित करता है | एफए अद्वितीय कारकों के साथ सहसंबंध आव्युह के विकर्णों को समायोजित करता है।
 * पीसीए अवयव अक्ष पर वर्गाकार लंबवत दूरी के योग को कम करता है | यह एफए उन कारकों का अनुमान लगाता है जो देखे गए वेरिएबल पर प्रतिक्रियाओं को प्रभावित करते हैं।
 * पीसीए में अवयव स्कोर आइगेनवैल्यूज़ एवं आइगेनसदिश्स द्वारा भारित देखे गए वेरिएबल के रैखिक संयोजन का प्रतिनिधित्व करते हैं | और यह एफए में देखे गए वेरिएबल अंतर्निहित और अद्वितीय कारकों के रैखिक संयोजन होते हैं।
 * पीसीए में, प्राप्त अवयव व्याख्या योग्य नहीं हैं, अथार्त वह अंतर्निहित 'निर्माण' का प्रतिनिधित्व नहीं करते हैं | यह एफए में, स्पष्ट मॉडल विनिर्देश दिए जाने पर, अंतर्निहित निर्माणों को लेबल किया जा सकता है और इसमें सरलता से व्याख्या की जा सकती है।

इतिहास
चार्ल्स स्पीयरमैन सामान्य कारक विश्लेषण पर चर्चा करने वाले पूर्व मनोवैज्ञानिक थे और आपने 1904 के पेपर में ऐसा किया था। इसने उनके विधियों के बारे में कुछ विवरण प्रदान किए और एकल-कारक मॉडल से संबंधित था। उन्होंने पाया कि विभिन्न प्रकार के असंबंधित विषयों पर स्कूली बच्चों के स्कोर धनात्मक रूप से सहसंबद्ध थे, जिससे उन्हें यह मानने में सहायता मिली कि सामान्य मानसिक क्षमता, या g, कारक (साइकोमेट्रिक्स), मानव संज्ञानात्मक प्रदर्शन को रेखांकित करता और इसे आकार देता है।

अनेक कारकों के साथ सामान्य कारक विश्लेषण का प्रारंभिक विकास 1930 के दशक की प्रारंभ में लुई लियोन थर्स्टन द्वारा दो पत्रों में दिया गया था, उनकी 1935 की पुस्तक, मन के सदिश में इसका सारांश दिया गया है। थर्स्टन ने सामुदायिकता, विशिष्टता और रोटेशन सहित अनेक महत्वपूर्ण कारक विश्लेषण अवधारणाएँ प्रस्तुत कीं हैं। उन्होंने सरल संरचना को एडवोकेट किया हैं, और रोटेशन के विधियों का विकास किया हैं जिसका उपयोग ऐसी संरचना को प्राप्त करने के विधियों के रूप में किया जा सकता है।

क्यु पद्धति में, स्पीयरमैन के छात्र, विलियम स्टीफेंसन (मनोवैज्ञानिक), अंतर-व्यक्तिगत मतभेदों के अध्ययन की ओर उन्मुख R कारक विश्लेषण और व्यक्तिपरक अंतर-व्यक्तिगत मतभेदों की ओर उन्मुख Q कारक विश्लेषण के मध्य अंतर करते हैं।

रेमंड कैटेल कारक विश्लेषण और साइकोमेट्रिक्स के प्रबल समर्थक थे और उन्होंने बुद्धि को समझाने के लिए थर्स्टन के बहु-कारक सिद्धांत का प्रयोग किया हैं। कैटेल ने स्क्री प्लॉट और समानता गुणांक भी विकसित किया हैं।

मनोविज्ञान में अनुप्रयोग
कारक विश्लेषण का उपयोग उन कारकों की पहचान करने के लिए किया जाता है जो विभिन्न परीक्षणों पर विभिन्न प्रकार के परिणामों की व्याख्या करते हैं। उदाहरण के लिए, गुप्तचर शोध में पाया गया कि जो लोग मौखिक क्षमता के परीक्षण में उच्च अंक प्राप्त करते हैं वह अन्य परीक्षणों में भी अच्छे होते हैं जिनके लिए मौखिक क्षमताओं की आवश्यकता होती है। शोधकर्ताओं ने कारक को भिन्न करने के लिए कारक विश्लेषण का उपयोग करके इसे समझाया हैं, जिसे प्रायः मौखिक बुद्धिमत्ता कहा जाता है, जो उस डिग्री का प्रतिनिधित्व करता है जिस तक कोई व्यक्ति मौखिक कौशल से जुड़ी समस्याओं का समाधान करने में सक्षम है।

मनोविज्ञान में कारक विश्लेषण प्रायः गुप्तचर अनुसंधान से जुड़ा होता है। चूंकि, इसका उपयोग व्यक्तित्व, दृष्टिकोण, विश्वास आदि जैसे डोमेन की विस्तृत श्रृंखला में कारकों को खोजने के लिए भी किया गया है। यह साइकोमेट्रिक्स से जुड़ा हुआ है, क्योंकि यह किसी उपकरण की वैधता का आकलन करके यह पता लगा सकता है कि क्या उपकरण वास्तव में अनुमानित कारकों को मापता है।


 * दो या दो से अधिक वेरिएबलों को ही कारक में संयोजित करके वेरिएबलों की संख्या में कमी करना होता हैं। उदाहरण के लिए, दौड़ने, गेंद फेंकने, बल्लेबाजी, कूदने और वजन उठाने में प्रदर्शन को सामान्य एथलेटिक क्षमता जैसे कारक में जोड़ा जा सकता है। सामान्यतः, किसी आइटम द्वारा लोगों के आव्युह में, संबंधित आइटमों को समूहीकृत करके कारकों का चयन किया जाता है। Q कारक विश्लेषण तकनीक में, आव्युह को स्थानांतरित किया जाता है और यह संबंधित लोगों को समूहीकृत करके कारक बनाए जाते हैं। उदाहरण के लिए, यह उदारवादी, स्वतंत्रतावादी, रूढ़िवादी और समाजवादी भिन्न-भिन्न समूहों में बन सकते हैं।
 * अंतर-संबंधित वेरिएबलों के समूहों की पहचान करना होता हैं,इसमें यह देखना होता हैं कि वह एक-दूसरे से कैसे संबंधित हैं। उदाहरण के लिए, कैरोल ने अपने थ्री स्ट्रेटम थ्योरी के निर्माण के लिए कारक विश्लेषण का उपयोग किया हैं। इसमें उन्होंने पाया कि व्यापक दृश्य धारणा नामक कारक इस बात से संबंधित है कि कोई व्यक्ति दृश्य कार्यों में कितना अच्छा होता है। उन्होंने श्रवण कार्य क्षमता से संबंधित व्यापक श्रवण धारणा कारक भी पाया जाता हैं। इसके अतिरिक्त, उन्होंने वैश्विक कारक भी पाया हैं, जिसे "g" या सामान्य बुद्धि कहा जाता है, जो व्यापक दृश्य धारणा और व्यापक श्रवण धारणा दोनों से संबंधित होता है। इसका अर्थ यह है कि उच्च "g" वाले व्यक्ति में उच्च दृश्य धारणा क्षमता और उच्च श्रवण धारणा क्षमता दोनों होने की संभावना होती है, और यह "g" इस बात का अच्छा भाग बताता है कि कोई व्यक्ति उन दोनों डोमेन में अच्छा या बुरा क्यों होता है।

हानि

 * "...प्रत्येक अभिविन्यास गणितीय रूप से समान रूप से स्वीकार्य है। किन्तु भिन्न-भिन्न कारकों सिद्धांत किसी दिए गए समाधान के लिए कारकों अक्षों के झुकाव के संदर्भ में उतने ही भिन्न प्रमाणित हुए हैं | जितने कि किसी अन्य वस्तु के संदर्भ में होते हैं, इसलिए मॉडल फिटिंग सिद्धांतों के मध्य अंतर करने में उपयोगी प्रमाणित नहीं हुई हैं। (स्टर्नबर्ग, 1977 ). इसका अर्थ है कि सभी परिवर्तन भिन्न-भिन्न अंतर्निहित प्रक्रियाओं का प्रतिनिधित्व करते हैं, किन्तु सभी परिवर्तन मानक कारक विश्लेषण अनुकूलन के समान रूप से मान्य परिणाम हैं। इसलिए, अकेले कारक विश्लेषण का उपयोग करके उचित रोटेशन चुनना असंभव होता है।
 * कारक विश्लेषण केवल उतना ही अच्छा हो सकता है जितना डेटा अनुमति देता है। मनोविज्ञान में, जहां शोधकर्ताओं को प्रायः स्व-रिपोर्ट जैसे कम वैध और विश्वसनीय उपायों पर निर्भर रहना पड़ता है, यह समस्याग्रस्त हो सकता है।
 * कारक विश्लेषण की व्याख्या अनुमान का उपयोग करने पर आधारित है, यह ऐसा समाधान है जो सुविधाजनक है यदि यह पूर्ण प्रकार सत्य नही होता हैं। इस प्रकार से ही तथ्यांकित किए गए डेटा की अधिक से अधिक व्याख्याएं की जा सकती हैं, और इसमें कारक विश्लेषण कार्य-कारण की पहचान नहीं कर सकता है।

पार-सांस्कृतिक अनुसंधान में
अंतर-सांस्कृतिक अनुसंधान में कारक विश्लेषण प्रायः उपयोग की जाने वाली तकनीक है। यह हॉफस्टेड के सांस्कृतिक आयाम सिद्धांत को निकालने के उद्देश्य को पूर्ण करता है। सबसे प्रसिद्ध सांस्कृतिक आयाम मॉडल गीर्ट हॉफस्टेड, रोनाल्ड इंगलहार्ट, क्रिश्चियन वेलज़ेल, शालोम एच. श्वार्ट्ज और माइकल मिनकोव द्वारा विस्तृत हैं। लोकप्रिय दृश्य विश्व का इंगलहार्ट-वेल्ज़ेल सांस्कृतिक मानचित्र है | जिनको इंगलहार्ट और वेल्ज़ेल का विश्व का सांस्कृतिक मानचित्र माना जाता हैं।

राजनीति विज्ञान में
अतः 1965 के प्रारम्भिक अध्ययन में, संबंधित सैद्धांतिक मॉडल और अनुसंधान के निर्माण, राजनीतिक प्रणालियों की तुलना करने और टाइपोलॉजिकल श्रेणियां बनाने के लिए कारक विश्लेषण के माध्यम से विश्व भर की राजनीतिक प्रणालियों की जांच की जाती है। इन उद्देश्यों के लिए, इस अध्ययन में सात मूलभूत राजनीतिक आयामों की पहचान की गई है, जो विभिन्न प्रकार के राजनीतिक व्यवहार से संबंधित होती हैं | यह आयाम पहुंच, भेदभाव, सामान्य सहमति, अनुभागवाद, वैधीकरण, रुचि और नेतृत्व सिद्धांत और अनुसंधान हैं।

अन्य राजनीतिक वैज्ञानिक 1988 के राष्ट्रीय चुनाव अध्ययन में जोड़े गए चार नए प्रश्नों का उपयोग करके आंतरिक राजनीतिक प्रभावकारिता के माप का पता लगाते हैं। यहां कारक विश्लेषण का उपयोग यह पता लगाने के लिए किया जाता है कि यह आइटम बाहरी प्रभावकारिता और राजनीतिक विश्वास से भिन्न एकल अवधारणा को मापते हैं, और यह चार प्रश्न उस समय तक आंतरिक राजनीतिक प्रभावकारिता का सबसे अच्छा उपाय प्रदान करते हैं। संयुक्त राज्य अमेरिका के राष्ट्रपति पद की वाद-विवाद, रैलियों और हिलेरी क्लिंटन ईमेल विवाद जैसे महत्वपूर्ण अभियान कार्यक्रमों के प्रभाव का अध्ययन करने के लिए| हिलेरी क्लिंटन के ईमेल विवाद, कारक विश्लेषण का उपयोग 2016 में डोनाल्ड ट्रम्प और 2012 में ओबामा जैसे अमेरिकी राष्ट्रपति पद के प्रत्याशियों के लिए लोकप्रियता के उपाय बनाने के लिए किया जाता है। लोकप्रियता कारकों को ट्विटर, फेसबुक, यूट्यूब, इंस्टाग्राम, फाइवथर्टीएट और पूर्वानुमान मार्केटों से एकत्र किए गए डेटा से संश्लेषित किया जाता है।

विपणन में
मूलभूत कदम हैं |
 * इस श्रेणी में उत्पाद (व्यवसाय) का मानांकन करने के लिए उपभोक्ताओं द्वारा उपयोग की जाने वाली मुख्य विशेषताओं की पहचान करते हैं।
 * सभी उत्पाद विशेषताओं की रेटिंग के संबंध में संभावित ग्राहक के प्रतिरूप से डेटा एकत्र करने के लिए मात्रात्मक विपणन अनुसंधान तकनीकों (जैसे सांख्यिकीय सर्वेक्षण) का उपयोग करें।
 * डेटा को सांख्यिकीय कार्यक्रम में इनपुट करें और कारक विश्लेषण प्रक्रिया चलाएँ। जिसमे कंप्यूटर अंतर्निहित विशेषताओं (या कारकों) का समुच्चय उत्पन्न करेगा।
 * अवधारणात्मक मानचित्रण और अन्य पोजिशनिंग (विपणन) उपकरणों के निर्माण के लिए इन कारकों का उपयोग करें।

सूचना संग्रह
डेटा संग्रह चरण सामान्यतः विपणन अनुसंधान कुशल द्वारा किया जाता है। सर्वेक्षण प्रश्न उत्तरदाता से किसी उत्पाद के प्रतिरूप या उत्पाद अवधारणाओं के विवरण को विभिन्न विशेषताओं के आधार पर रेटिंग देने के लिए कहते हैं। कहीं भी पाँच से बीस विशेषताएँ चुनी जाती हैं। उनमें यह चीजें सम्मिलित हो सकती हैं | इसके उपयोग में सरली, वजन, स्पष्टता, स्थायित्व, रंगीनता, कीमत या आकार हैं। चुनी गई विशेषताएँ अध्ययन किए जा रहे उत्पाद के आधार पर भिन्न-भिन्न होती हैं। अध्ययन में सभी उत्पादों के बारे में ही प्रश्न पूछा गया है। अनेक उत्पादों के डेटा को कोडित किया जाता है और R (प्रोग्रामिंग लैंग्वेज), एसपीएसएस, एसएएस प्रणाली, स्टेटा, आंकड़े, जेएमपी और सिस्टैट जैसे सांख्यिकीय कार्यक्रम में इनपुट किया जाता है।

विश्लेषण
विश्लेषण उन अंतर्निहित कारकों को भिन्न करेगा जो एसोसिएशन के आव्युह का उपयोग करके डेटा की व्याख्या करते हैं। कारक विश्लेषण अन्योन्याश्रय तकनीक होते है। इसमें अन्योन्याश्रित संबंधों के संपूर्ण समुच्चय की जांच की जाती है। और आश्रित वेरिएबल, स्वतंत्र वेरिएबल , या कार्य-कारण का कोई विनिर्देश नहीं होता है। कारक विश्लेषण मानता है कि विभिन्न विशेषताओं पर सभी रेटिंग डेटा को कुछ महत्वपूर्ण आयामों तक कम किया जा सकता है। यह इसलिए संभव है क्योंकि कुछ विशेषताएँ एक-दूसरे से संबंधित हो सकती हैं। किसी विशेषता को दी गई रेटिंग आंशिक रूप से अन्य विशेषताओं के प्रभाव का परिणाम होती है। सांख्यिकीय एल्गोरिदम रेटिंग को उसके विभिन्न अवयवों में विभाजित करता है (जिसे रॉ स्कोर कहा जाता है) और आंशिक स्कोर को अंतर्निहित कारक स्कोर में पुनर्निर्मित करता है। प्रारंभिक रॉ स्कोर और अंतिम कारक स्कोर के मध्य सहसंबंध की डिग्री को कारक लोडिंग कहा जाता है।

लाभ

 * वस्तुनिष्ठ और व्यक्तिपरक दोनों विशेषताओं का उपयोग किया जा सकता है, किंतु व्यक्तिपरक विशेषताओं को अंकों में परिवर्तित किया जा सकता हैं।
 * कारक विश्लेषण अव्यक्त आयामों या निर्माणों की पहचान कर सकता है जो प्रत्यक्ष विश्लेषण नहीं कर सकता है।
 * यह सरल और अल्पमूल्य होता है |

हानि

 * उपयोगिता उत्पाद विशेषताओं का पर्याप्त समुच्चय एकत्र करने की शोधकर्ताओं की क्षमता पर निर्भर करती है। यदि महत्वपूर्ण विशेषताओं को बाहर रखा जाता है या उपेक्षित किया जाता है,तब प्रक्रिया का मान कम हो जाता है।
 * यदि देखे गए वेरिएबल के समुच्चय एक-दूसरे के समान हैं और अन्य वस्तुओं से भिन्न हैं,तब कारक विश्लेषण उन्हें ही कारक प्रदान करता हैं। यह उन कारकों को अस्पष्ट कर सकता है जो अधिक आकर्षक सम्बन्ध का प्रतिनिधित्व करते हैं।
 * नामकरण कारकों के लिए सिद्धांत के ज्ञान की आवश्यकता हो सकती है क्योंकि इससे प्रतीत होता है कि भिन्न गुण अज्ञात कारणों से दृढ़ता से सहसंबद्ध हो सकते हैं।

भौतिक और जैविक विज्ञान में
भू-रसायन विज्ञान, जल रसायन विज्ञान जैसे भौतिक विज्ञानों में भी कारक विश्लेषण का व्यापक रूप से उपयोग किया गया है। खगोल भौतिकी और यूनिवर्स विज्ञान, साथ ही जैविक विज्ञान, जैसे पारिस्थितिकी, आणविक जीव विज्ञान, तंत्रिका विज्ञान और जैव रसायन होते हैं।

भूमिगत जल गुणवत्ता प्रबंधन में, विभिन्न रसायनों के स्थानिक वितरण को जोड़ना महत्वपूर्ण होता है | इसमें विभिन्न संभावित स्रोतों के मापदंड होते हैं, जिनके भिन्न-भिन्न रासायनिक हस्ताक्षर हैं। इस प्रकार उदाहरण के लिए, इसमें सल्फाइड खदान उच्च स्तर की अम्लता, घुले हुए सल्फेट्स और संक्रमण धातुओं से जुड़ी होने की संभावना है। इन हस्ताक्षरों को आर-मोड कारक विश्लेषण के माध्यम से कारकों के रूप में पहचाना जा सकता है, और कारक स्कोर को समोच्च करके संभावित स्रोतों के स्थान सुझाया जा सकता है। भू-रसायन विज्ञान में, विभिन्न कारक विभिन्न खनिज संघों और इस प्रकार खनिजकरण के अनुरूप हो सकते हैं।

माइक्रोएरे विश्लेषण में
एफिमेट्रिक्स जीनचिप के लिए जांच स्तर पर उच्च-घनत्व ऑलिगोन्यूक्लियोटाइड डीएनए माइक्रोएरे डेटा को सारांशित करने के लिए इसमें कारक विश्लेषण का उपयोग किया जा सकता है। इस स्तिथियों में, अव्यक्त वेरिएबल प्रतिरूप में आरएनए एकाग्रता से मेल खाता है।

कार्यान्वयन
1980 के दशक से अनेक सांख्यिकीय विश्लेषण कार्यक्रमों में कारक विश्लेषण प्रयुक्त किया गया है |
 * बीएमडीपी
 * जेएमपी (सांख्यिकीय सॉफ्टवेयर)
 * एमप्लस (सांख्यिकीय सॉफ्टवेयर)]
 * पायथन (प्रोग्रामिंग लैंग्वेज): मॉड्यूल स्किकिट-लर्न
 * R (प्रोग्रामिंग लैंग्वेज) (पैकेज 'साइक' में बेस फलन फैक्टनल या एफए फलन के साथ) होता हैं। जीपीए रोटेशन R पैकेज में रोटेशन प्रयुक्त किए जाते हैं।
 * एसएएस (सॉफ्टवेयर) (प्रोक कारक या प्रोक कैलिस का उपयोग करके)
 * एसपीएसएस
 * स्टाटा

स्टैंडअलोन

 * कारक - रोविरा और वर्जिली विश्वविद्यालय द्वारा विकसित मुफ्त कारक विश्लेषण सॉफ्टवेयर होता हैं |

यह भी देखें

 * पुष्टि कारक विश्लेषण
 * खोजपूर्ण कारक विश्लेषण
 * प्रयोगों की रूप रेखा
 * औपचारिक अवधारणा विश्लेषण
 * स्वतंत्र घटक विश्लेषण
 * गैर-ऋणात्मक आव्यूह गुणनखंडन
 * क्यू पद्धति
 * रिकोमेंडेशन प्रणाली
 * मूल कारण विश्लेषण
 * फेसेट सिद्धांत

अग्रिम पठन

 * B.T. Gray (1997) Higher-Order Factor Analysis (Conference paper)
 * Jennrich, Robert I., "Rotation to Simple Loadings Using Component Loss Function: The Oblique Case," Psychometrika, Vol. 71, No. 1, pp. 173–191, March 2006.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Primary product functionplane: An oblique rotation to simple structure. Multivariate Behavioral Research, April 1975, Vol. 10, pp. 219–232.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Functionplane: A new approach to simple structure rotation. Psychometrika, March 1974, Vol. 39, No. 1, pp. 37–51.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Function-point cluster analysis. Systematic Zoology, September 1973, Vol. 22, No. 3, pp. 295–301.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
 * Katz, Jeffrey Owen, and Rohlf, F. James. Function-point cluster analysis. Systematic Zoology, September 1973, Vol. 22, No. 3, pp. 295–301.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
 * J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.


 * Hans-Georg Wolff, Katja Preising (2005)Exploring item and higher order factor structure with the schmid-leiman solution : Syntax codes for एसपीएसएस and SASBehavior research methods, instruments & computers, 37 (1), 48-58

बाहरी संबंध

 * A Beginner's Guide to Factor Analysis
 * Exploratory Factor Analysis. A Book Manuscript by Tucker, L. & MacCallum R. (1993). Retrieved June 8, 2006, from:
 * Garson, G. David, "Factor Analysis," from Statnotes: Topics in Multivariate Analysis. Retrieved on April 13, 2009 from StatNotes: Topics in Multivariate Analysis, from G. David Garson at North Carolina State University, Public Administration Program
 * Factor Analysis at 100 — conference material
 * FARMS — Factor Analysis for Robust Microarray Summarization, an R package