मिश्रण मॉडल

आँकड़ों में, मिश्रण मॉडल समस्त जनसंख्या मे उप-जनसंख्या की उपस्थिति का प्रतिनिधित्व करने के लिए प्रायिकतात्मक मॉडल है किसी देखे गए आंकड़ा मे उप-जनसंख्या की पहचान करने की अवश्यकता होती है जिसमें एक व्यक्तिगत अवलोकन होता है। औपचारिक रूप से एक मिश्रण मॉडल मिश्रण वितरण के अनुरूप होता है जो समग्र जनसंख्या में टिप्पणियों के प्रायिकतात्मक वितरण का प्रतिनिधित्व करता है। हालांकि, "मिश्रण वितरण" से संबद्ध समस्याएं उप-जनसंख्या के गुणों से समग्र जनसंख्या के गुणों को प्राप्त करने से संबंधित हैं मिश्रण मॉडल का उपयोग उप-जनसंख्या के गुणों के विषय में सांख्यिकीय अनुमान लगाने के लिए किया जाता है, जो केवल टिप्पणियों पर दिया जाता है। जनसंख्या, उप-जनसंख्या पहचान जानकारी के अतिरिक्त मिश्रण मॉडल को संरचनागत आंकड़ा के मॉडल के साथ भ्रमित नहीं होना चाहिए। अर्थात, आंकड़ा जिसके घटक एक स्थिर मान (1, 100%, आदि) के योग के लिए विवश हैं। हालाँकि, संरचनागत मॉडल को मिश्रण मॉडल के रूप में माना जा सकता है जहाँ जनसंख्या के सदस्यों का यादृच्छिक रूप से प्रतिरूप लिया जाता है। इसके विपरीत, मिश्रण मॉडल को रचनात्मक मॉडल के रूप में माना जा सकता है, जहां कुल आकार पढ़ने वाली जनसंख्या को सामान्य कर दिया गया है।

सामान्य मिश्रण मॉडल
एक विशिष्ट परिमित-आयामी मिश्रण मॉडल एक पदानुक्रमित बेयस मॉडल है जिसमें निम्नलिखित घटक सम्मिलित हैं:


 * N यादृच्छिक चर जो देखे गए हैं, प्रत्येक वितरण के समान पैरामीट्रिक समूह से संबंधित घटकों के साथ K घटकों जैसे सभी सामान्य वितरण, सभी जेडआईपीएफ का नियम के विभिन्न मापदंडों के साथ मिश्रण के अनुसार वितरित किया गया है।
 * N यादृच्छिक गुप्त चर प्रत्येक अवलोकन के मिश्रण घटक की पहचान को निर्दिष्ट करते हैं, प्रत्येक को K-आयामी श्रेणीबद्ध वितरण के अनुसार वितरित किया जाता है।
 * K मिश्रण भार का एक समूह जो कि 1 के योग की प्रायिकतात्मकता हैं।
 * K मापदंडों का एक समूह प्रत्येक संबंधित मिश्रण घटक के पैरामीटर को निर्दिष्ट करता है। कई स्थितियों में प्रत्येक पैरामीटर वास्तव में पैरामीटर का समूह होता है। उदाहरण के लिए, यदि मिश्रण घटक गाऊसी वितरण हैं तो प्रत्येक घटक के लिए एक माध्य और विचरण होता है यदि मिश्रण घटक श्रेणीबद्ध वितरण हैं उदाहरण के लिए, जब प्रत्येक अवलोकन आकार V के एक परिमित वर्णमाला से एक टोकन है, तो V संभावनाओं का एक सदिश 1 होता है।

इसके अतिरिक्त बायेसियन अनुमान में, मिश्रण भार और पैरामीटर स्वयं यादृच्छिक चर होंगे और पूर्व वितरण को चर पर रखा जाएगा। ऐसी स्थिति में भार को सामान्यतः एक डीरिचलेट वितरण (श्रेणीबद्ध वितरण से पहले संयुग्मित) से तैयार किए गए के-आयामी यादृच्छिक सदिश के रूप में देखा जाता है और मापदंडों को उनके संबंधित संयुग्म पूर्ववर्तियों के अनुसार वितरित किया जाता है।

गणितीय रूप से, एक मूल पैरामीट्रिक मिश्रण मॉडल को निम्नानुसार वर्णित किया जा सकता है:



\begin{array}{lcl} K &=& \text{number of mixture components} \\ N &=& \text{number of observations} \\ \theta_{i=1 \dots K} &=& \text{parameter of distribution of observation associated with component } i \\ \phi_{i=1 \dots K} &=& \text{mixture weight, i.e., prior probability of a particular component } i \\ \boldsymbol\phi &=& K\text{-dimensional vector composed of all the individual } \phi_{1 \dots K} \text{; must sum to 1} \\ z_{i=1 \dots N} &=& \text{component of observation } i \\ x_{i=1 \dots N} &=& \text{observation } i \\ F(x|\theta) &=& \text{probability distribution of an observation, parametrized on } \theta \\ z_{i=1 \dots N} &\sim& \operatorname{Categorical}(\boldsymbol\phi) \\ x_{i=1 \dots N}|z_{i=1 \dots N} &\sim& F(\theta_{z_i}) \end{array} $$ बायेसियन सेटिंग में, सभी पैरामीटर यादृच्छिक चर से संबद्ध होते हैं जो इस प्रकार हैं:



\begin{array}{lcl} K,N &=& \text{as above} \\ \theta_{i=1 \dots K}, \phi_{i=1 \dots K}, \boldsymbol\phi &=& \text{as above} \\ z_{i=1 \dots N}, x_{i=1 \dots N}, F(x|\theta) &=& \text{as above} \\ \alpha &=& \text{shared hyperparameter for component parameters} \\ \beta &=& \text{shared hyperparameter for mixture weights} \\ H(\theta|\alpha) &=& \text{prior probability distribution of component parameters, parametrized on } \alpha \\ \theta_{i=1 \dots K} &\sim& H(\theta|\alpha) \\ \boldsymbol\phi &\sim& \operatorname{Symmetric-Dirichlet}_K(\beta) \\ z_{i=1 \dots N}|\boldsymbol\phi &\sim& \operatorname{Categorical}(\boldsymbol\phi) \\ x_{i=1 \dots N}|z_{i=1 \dots N},\theta_{i=1 \dots K} &\sim& F(\theta_{z_i}) \end{array} $$ यह वर्णन क्रमशः टिप्पणियों और मापदंडों पर अपेक्षाकृत वितरण का वर्णन करने के लिए F और H का उपयोग करता है। सामान्यतः H, F से पहले का संयुग्मी होगा। F के दो सबसे सामान्य विकल्प गॉसियन वितरण व ​​​​सामान्य वितरण (वास्तविक-मूल्यवान टिप्पणियों के लिए) और श्रेणीबद्ध वितरण (असतत टिप्पणियों के लिए) हैं। मिश्रण घटकों के वितरण के लिए अन्य सामान्य संभावनाएँ हैं:
 * द्विपद वितरण, धनात्मक घटनाओं की संख्या के लिए (जैसे, सफलता, वोट, आदि) कुल घटनाओं की एक निश्चित संख्या दी गई है।
 * बहुपद वितरण, द्विपद वितरण के समान, लेकिन बहु-मार्गीय घटनाओं की संख्या के लिए (उदाहरण के लिए, हाँ/नहीं/लगभग एक सर्वेक्षण में) है।
 * ऋणात्मक द्विपद वितरण, द्विपद-प्रकार के प्रेक्षणों के लिए लेकिन जहां ब्याज की मात्रा दी गई सफलताओं की संख्या होने से पहले विफलताओं की संख्या है।
 * पॉसों वितरण, किसी निश्चित समयावधि में किसी घटना की घटनाओं की संख्या के लिए, उस घटना के लिए जो घटना की निश्चित दर से होती है।
 * अगली घटना होने से पहले के समय के लिए घातीय वितरण, एक घटना के लिए जो घटना की निश्चित दर से विशेषता है।
 * लॉग-सामान्य वितरण, धनात्मक वास्तविक संख्या (जैसे कि आय या कीमतें) के लिए जो घातीय रूप से बढ़ते हैं।
 * बहुचर सामान्य वितरण (या बहुचर गॉसियन वितरण), सहसंबद्ध परिणामों के सदिश के लिए जो व्यक्तिगत रूप से गॉसियन-वितरित हैं।
 * बहुचर छात्र का टी-वितरण वाले सहसंबद्ध परिणामों के लिए सदिश है।
 * बर्नूली प्रमेय-वितरित मानों का एक सदिश, संबंधित, उदाहरण के लिए, एक श्वेत-श्याम छवि के लिए, जिसमें प्रत्येक मान एक पिक्सेल का प्रतिनिधित्व करता है। तथा हस्तलिपि-पहचान का उदाहरण नीचे देखें।

गाऊसी मिश्रण मॉडल
एक विशिष्ट गैर-बायेसियन गाऊसी वितरण मिश्रण मॉडल इस प्रकार है:



\begin{array}{lcl} K,N &=& \text{as above} \\ \phi_{i=1 \dots K}, \boldsymbol\phi &=& \text{as above} \\ z_{i=1 \dots N}, x_{i=1 \dots N} &=& \text{as above} \\ \theta_{i=1 \dots K} &=& \{ \mu_{i=1 \dots K}, \sigma^2_{i=1 \dots K} \} \\ \mu_{i=1 \dots K} &=& \text{mean of component } i \\ \sigma^2_{i=1 \dots K} &=& \text{variance of component } i \\ z_{i=1 \dots N} &\sim& \operatorname{Categorical}(\boldsymbol\phi) \\ x_{i=1 \dots N} &\sim& \mathcal{N}(\mu_{z_i}, \sigma^2_{z_i}) \end{array} $$ गाऊसी वितरण मिश्रण मॉडल का बायेसियन संस्करण इस प्रकार है:



\begin{array}{lcl} K,N &=& \text{as above} \\ \phi_{i=1 \dots K}, \boldsymbol\phi &=& \text{as above} \\ z_{i=1 \dots N}, x_{i=1 \dots N} &=& \text{as above} \\ \theta_{i=1 \dots K} &=& \{ \mu_{i=1 \dots K}, \sigma^2_{i=1 \dots K} \} \\ \mu_{i=1 \dots K} &=& \text{mean of component } i \\ \sigma^2_{i=1 \dots K} &=& \text{variance of component } i \\ \mu_0, \lambda, \nu, \sigma_0^2 &=& \text{shared hyperparameters} \\ \mu_{i=1 \dots K} &\sim& \mathcal{N}(\mu_0, \lambda\sigma_i^2) \\ \sigma_{i=1 \dots K}^2 &\sim& \operatorname{Inverse-Gamma}(\nu, \sigma_0^2) \\ \boldsymbol\phi &\sim& \operatorname{Symmetric-Dirichlet}_K(\beta) \\ z_{i=1 \dots N} &\sim& \operatorname{Categorical}(\boldsymbol\phi) \\ x_{i=1 \dots N} &\sim& \mathcal{N}(\mu_{z_i}, \sigma^2_{z_i}) \end{array} $$$$$$

बहुचर गाऊसी मिश्रण मॉडल
बायेसियन गॉसियन मिश्रण मॉडल को सामान्यतः अज्ञात मापदंडों (स्पष्ट चिह्न) या बहुचर सामान्य वितरणों के सदिश में प्रयुक्त करने के लिए विस्तारित किया जाता है। एक बहुचर वितरण में (अर्थात N यादृच्छिक चर के साथ एक सदिश $$\boldsymbol{x}$$ मॉडलिंग) एक गॉसियन मिश्रण मॉडल पूर्व वितरण का उपयोग करके मापदंडों के सदिश (जैसे एक संकेत के कई अवलोकन या एक छवि के भीतर पैच) का मॉडल कर सकता है द्वारा दिए गए अनुमानों के सदिश है:

p(\boldsymbol{\theta}) = \sum_{i=1}^K\phi_i \mathcal{N}(\boldsymbol{\mu_i,\Sigma_i}) $$ जहां ith सदिश घटक को भार $$\phi_i$$ अर्थात $$\boldsymbol{\mu_i}$$ और सहप्रसरण आव्यूह $$\boldsymbol{\Sigma_i}$$ के साथ सामान्य वितरण द्वारा चित्रित किया जाता है। बायेसियन अनुमान में इसे पूर्व में सम्मिलित करने के लिए $$p(\boldsymbol{x | \theta})$$ को ज्ञात वितरण से गुणा किया जाता है आंकड़ा का $$\boldsymbol{x}$$ मापदंडों पर सशर्त $$\boldsymbol{\theta}$$ अनुमान लगाया जाना है। इस सूत्रीकरण के साथ, पश्च प्रायिकतात्मक $$p(\boldsymbol{\theta | x})$$ रूप का गॉसियन मिश्रण मॉडल भी है:

p(\boldsymbol{\theta | x}) = \sum_{i=1}^K\tilde{\phi_i} \mathcal{N}(\boldsymbol{\tilde{\mu_i},\tilde{\Sigma_i}}) $$ नए मापदंडों के साथ $$\tilde{\phi_i}, \boldsymbol{\tilde{\mu_i}}$$ और $$\boldsymbol{\tilde{\Sigma_i}}$$ जो अपेक्षा-अधिकतमकरण एल्गोरिथम का उपयोग करके अपडेट किए जाते हैं। हालांकि ईएम-आधारित पैरामीटर अपडेट अच्छी तरह से स्थापित हैं, इन पैरामीटरों के लिए प्रारंभिक अनुमान प्रदान करना वर्तमान में सक्रिय शोध का एक क्षेत्र है। ध्यान दें कि यह सूत्रीकरण पूर्ण पश्च वितरण के लिए विवृत रूप समाधान उत्पन्न करता है। यादृच्छिक चर का अनुमान $$\boldsymbol{\theta}$$ कई अनुमानकों में से एक के माध्यम से प्राप्त किया जा सकता है, जैसे कि पश्च वितरण का औसत या अधिकतम प्राप्त किया जाता है।

इस प्रकार के वितरण छवियों और समूहों के पैच-वार आकार ग्रहण करने के लिए उपयोगी होते हैं, उदाहरण के लिए छवि प्रतिनिधित्व की स्थिति में, प्रत्येक गॉसियन सहप्रसरण आव्यूह $$\boldsymbol{\Sigma_i}$$ के अनुसार झुका, विस्तारित और विकृत हो सकता है समुच्चय का एक गाऊसी वितरण छवि में प्रत्येक पैच (सामान्यतः आकार 8x8 पिक्सेल) के लिए प्रयुक्त होता है। विशेष रूप से, क्लस्टर के चारों ओर बिंदुओं का कोई भी वितरण k पर्याप्त गॉसियन घटकों को शुद्ध रूप से दिया जा सकता है लेकिन किसी दिए गए छवि वितरण या आंकड़ा के क्लस्टर को परिशुद्ध रूप से मॉडल करने के लिए के K = 20 से अधिक घटकों की आवश्यकता होती है।

श्रेणीबद्ध मिश्रण मॉडल
श्रेणीबद्ध वितरण टिप्पणियों वाला एक विशिष्ट गैर-बायेसियन मिश्रण मॉडल इस प्रकार है:


 * $$K,N:$$ ऊपरोक्त के अनुसार
 * $$\phi_{i=1 \dots K}, \boldsymbol\phi:$$ ऊपरोक्त के अनुसार
 * $$z_{i=1 \dots N}, x_{i=1 \dots N}:$$ ऊपरोक्त के अनुसार
 * $$V:$$ श्रेणीबद्ध टिप्पणियों का आयाम, उदाहरण के लिए, शब्द और शब्दावली का आकार
 * $$\theta_{i=1 \dots K, j=1 \dots V}:$$ $$j$$ घटक $$j$$ अवलोकन के घटक $$i$$ की प्रायिकता
 * $$\boldsymbol\theta_{i=1 \dots K}:$$ आयाम का सदिश $$V,$$ की रचना $$\theta_{i,1 \dots V};$$ योग 1 होना चाहिए

यादृच्छिक चर:

\begin{array}{lcl} z_{i=1 \dots N} &\sim& \operatorname{Categorical}(\boldsymbol\phi) \\ x_{i=1 \dots N} &\sim& \text{Categorical}(\boldsymbol\theta_{z_i}) \end{array} $$ विशिष्ट वितरण टिप्पणियों वाला एक विशिष्ट बायेसियन मिश्रण मॉडल इस प्रकार है:

यादृच्छिक चर:
 * $$K,N:$$ ऊपरोक्त के अनुसार
 * $$\phi_{i=1 \dots K}, \boldsymbol\phi:$$ ऊपरोक्त के अनुसार
 * $$z_{i=1 \dots N}, x_{i=1 \dots N}:$$ ऊपरोक्त के अनुसार
 * $$V:$$ श्रेणीबद्ध टिप्पणियों का आयाम, उदाहरण के लिए, शब्द शब्दावली का आकार
 * $$\theta_{i=1 \dots K, j=1 \dots V}:$$ घटक $$j$$ अवलोकन के घटक $$i$$ की प्रायिकता
 * $$\boldsymbol\theta_{i=1 \dots K}:$$ आयाम $$V,$$ का सदिश $$\theta_{i,1 \dots V};$$ की रचना है जिसका योग 1 होना चाहिए।
 * $$\alpha:$$ प्रत्येक घटक के लिए $$\boldsymbol\theta$$ का साझा एकाग्रता हाइपर पैरामीटर
 * $$\beta:$$ $$\boldsymbol\phi$$ की सघनता हाइपर पैरामीटर

\begin{array}{lcl} \boldsymbol\phi &\sim& \operatorname{Symmetric-Dirichlet}_K(\beta) \\ \boldsymbol\theta_{i=1 \dots K} &\sim& \text{Symmetric-Dirichlet}_V(\alpha) \\ z_{i=1 \dots N} &\sim& \operatorname{Categorical}(\boldsymbol\phi) \\ x_{i=1 \dots N} &\sim& \text{Categorical}(\boldsymbol\theta_{z_i}) \end{array} $$

एक वित्तीय मॉडल
वित्तीय वापसी प्रायः सामान्य परिस्थितियों में और संकट के समय में अलग प्रकार व्यवहार करते हैं। वापसी आंकड़ा के लिए एक मिश्रण मॉडल उपयुक्त प्रतीत होता है। कभी-कभी उपयोग किया जाने वाला मॉडल एक कूद-प्रसार मॉडल होता है या दो सामान्य वितरणों के मिश्रण के रूप में होता है। आगे के संदर्भ के लिए और  देखें।

घर की कीमत
मान लें कि हम N विभिन्न घरों की कीमतों का निरीक्षण करते हैं। अलग-अलग क्षेत्र में अलग-अलग प्रकार के घरों की कीमतें अपेक्षाकृत अलग होंगी, लेकिन किसी विशेष निकट क्षेत्र में एक विशेष प्रकार के घर की कीमत (उदाहरण के लिए, मध्यम उच्च स्तर के पास में तीन-बेडरूम का घर) औसत के आसपास अपेक्षाकृत सूक्ष्मता से निरक्षण करता है ऐसी कीमतों का एक संभावित मॉडल यह मानना ​​​​होगा कि कीमतों को मिश्रण मॉडल द्वारा के विभिन्न घटकों के साथ शुद्ध रूप से वर्णित किया गया है, प्रत्येक अज्ञात माध्य और भिन्नता के साथ सामान्य वितरण के रूप में वितरित किया गया है, प्रत्येक घटक घर के प्रकार/पड़ोस के विशेष संयोजन को निर्दिष्ट करता है। इस मॉडल को देखी गई कीमतों के लिए प्रयुक्त करना, उदाहरण के लिए, अपेक्षा-अधिकतमकरण कलनविधि का उपयोग करके, घर के प्रकार के अनुसार कीमतों को क्लस्टर करना होगा और प्रत्येक प्रकार में कीमतों के विस्तार को प्रकट करना होगा। ध्यान दें कि कीमतों या आय जैसे मानों के लिए जो धनात्मक होने के लिए उत्तरदायी है और जो तीव्रता से बढ़ने लगते हैं, लघुगणक सामान्य वितरण मान वास्तव में सामान्य वितरण से अपेक्षाकृत अच्छे मॉडल हो सकते है।

दस्तावेज़ में विषय
मान लें कि एक दस्तावेज़ आकार V की कुल शब्दावली से N भिन्न शब्दों से है, जहाँ प्रत्येक शब्द K संभावित विषयों में से एक के अनुरूप है। ऐसे शब्दों के वितरण को K भिन्न V-आयामी श्रेणीबद्ध वितरण के मिश्रण के रूप में तैयार किया जा सकता है। इस प्रकार के एक मॉडल को सामान्यतः एक विषय मॉडल कहा जाता है। ध्यान दें कि इस प्रकार के मॉडल पर प्रयुक्त होने वाली अपेक्षा अधिकतमकरण सामान्यतः अत्युपपन्न के कारण (अन्य स्थिति के अतिरिक्त) यथार्थवादी परिणाम उत्पन्न करने में विफल रहता है अच्छे परिणाम प्राप्त करने के लिए सामान्यतः कुछ प्रकार की अतिरिक्त धारणाएँ आवश्यक होती हैं। सामान्यतः दो प्रकार के अतिरिक्त घटक मॉडल में जोड़े जाते हैं:
 * 1) एक पूर्व वितरण विषय वितरण का वर्णन करने वाले मापदंडों पर रखा गया है, एक एकाग्रता पैरामीटर के साथ डिरिचलेट वितरण का उपयोग करके जो 1 से नीचे प्रयुक्त किया गया है, ताकि विरल वितरण को प्रोत्साहित किया जा सके और जहां केवल कुछ शब्दों में गैर-शून्य संभावनाएं हैं।
 * 2) प्राकृतिक क्लस्टरिंग का लाभ प्राप्त करने के लिए, शब्दों की विषय पहचान पर कुछ प्रकार की अतिरिक्त बाधाएँ रखी जाती हैं। उदाहरण के लिए, एक मार्कोव श्रृंखला को विषय की पहचान पर रखा जा सकता है अर्थात, प्रत्येक अवलोकन के मिश्रण घटक को निर्दिष्ट करने वाले अव्यक्त चर, इस तथ्य के अनुरूप कि पास के शब्द समान विषयों से संबंधित हैं। यह एक छिपा हुआ मार्कोव मॉडल में परिणत होता है, विशेष रूप से एक जहां एक पूर्व वितरण स्थिति के परिवर्तनों पर रखा जाता है जो एक ही स्थिति में रहने वाले परिवर्तनों का समर्थन करता है।
 * 3) एक अन्य संभावना अव्यक्त डिरिचलेट आवंटन मॉडल है, जो शब्दों को D को विभिन्न दस्तावेजों में विभाजित करता है और मानता है कि प्रत्येक दस्तावेज़ में किसी भी आवृत्ति के साथ केवल कुछ ही विषय होते हैं।

लिखावट की पहचान
निम्नलिखित उदाहरण क्रिस्टोफर एम. बिशप, पैटर्न पहचान और यंत्र प्रशिक्षण एक उदाहरण पर आधारित है। कल्पना कीजिए कि हमें एक N×N श्वेत-श्याम छवि दी गई है जिसे 0 और 9 के बीच हाथ से लिखे अंक के अवलोकन के रूप में जाना जाता है, लेकिन हम नहीं जानते कि कौन सा अंक लिखा गया है। हम एक मिश्रण मॉडल $$K=10$$ बना सकते हैं विभिन्न घटक, जहाँ प्रत्येक घटक आकार $$N^2$$ का एक सदिश है बरनौली वितरण (प्रति पिक्सेल एक) इस प्रकार के एक मॉडल को हाथ से लिखे अंकों के बिना लेबल वाले समुच्चय पर अपेक्षा-अधिकतमकरण एल्गोरिथ्म के साथ प्रशिक्षित किया जा सकता है, और प्रभावी रूप से लिखे जा रहे अंकों के अनुसार छवियों को क्लस्टर करता है उसी मॉडल का उपयोग केवल मापदंडों को स्थिर रखते हुए, प्रत्येक संभावित अंक (एक तुच्छ गणना) के लिए नई छवि की प्रायिकता की गणना करके और उच्चतम प्रायिकतात्मक उत्पन्न करने वाले अंक को वापस करके दूसरी छवि के अंक को पहचानने के लिए किया जा सकता है।

प्रक्षेप्य शुद्धता का आकलन (या परिपत्र त्रुटि संभावित, सीईपी)
मिश्रण मॉडल एक लक्ष्य पर कई प्रक्षेप्य को निर्देशित करने की समस्या में प्रयुक्त होते हैं (जैसे वायु, भूमि या समुद्री रक्षा अनुप्रयोगों में), जहां प्रक्षेप्य की भौतिक या सांख्यिकीय विशेषताएं कई प्रक्षेप्य के भीतर भिन्न होती हैं। उदाहरण एक लक्ष्य पर निर्देशित कई स्थानों से कई प्रकार के गोला-बारूद या शॉट्स से हो सकता है। प्रक्षेप्य प्रकारों के संयोजन को गाऊसी मिश्रण मॉडल के रूप में चित्रित किया जा सकता है। इसके अतिरिक्त प्रक्षेप्य के एक समूह के लिए सटीकता का एक प्रसिद्ध उपाय परिपत्र त्रुटि संभावित (सीईपी) है जो कि संख्या R है, औसतन प्रक्षेप्य के समूह का आधा लक्ष्य के विषय में त्रिज्या R के घेरे में आता है। बिंदु मिश्रण मॉडल का उपयोग मान R निर्धारित या अनुमान करने के लिए किया जा सकता है। मिश्रण मॉडल विभिन्न प्रकार के प्रक्षेप्य को उपयुक्त रूप से प्रयुक्त करता है।

प्रत्यक्ष और अप्रत्यक्ष अनुप्रयोग
उपरोक्त वित्तीय उदाहरण मिश्रण मॉडल का एक प्रत्यक्ष अनुप्रयोग है एक ऐसी स्थिति जिसमें हम एक अंतर्निहित तंत्र मानते हैं ताकि प्रत्येक अवलोकन विभिन्न स्रोतों या श्रेणियों में से किसी एक से संबंधित हो। हालाँकि, यह अंतर्निहित तंत्र देखने योग्य हो भी सकता है और नहीं भी, यह मिश्रण के इस रूप में, प्रत्येक स्रोत को एक घटक प्रायिकता घनत्व फलन द्वारा वर्णित किया गया है और इसका मिश्रण भार इस घटक से एक अवलोकन करने की संभावना है।

मिश्रण मॉडल के अप्रत्यक्ष अनुप्रयोग में हम इस प्रकार के तंत्र को नहीं मानते हैं। मिश्रण मॉडल का उपयोग केवल गणितीय नम्यता के लिए किया जाता है। उदाहरण के लिए, अलग-अलग साधनों के साथ दो सामान्य वितरणों के मिश्रण के परिणामस्वरूप दो मोड (सांख्यिकी) के साथ घनत्व हो सकता है, जो मानक पैरामीट्रिक वितरणों द्वारा प्रतिरूपित नहीं किया जाता है। एक और उदाहरण आधारित गॉसियन की तुलना में सामान्यतः मॉडल को प्रयुक्त करने के लिए मिश्रण वितरण की संभावना की जाती है, ताकि अधिक चरम घटनाओं के मॉडलिंग के लिए उम्मीदवार बन सकें। गतिशील स्थिरता के साथ संयुक्त होने पर, यह दृष्टिकोण स्थानीय अस्थिरता मॉडल के संदर्भ में अस्थिरता की उपस्थिति में वित्तीय अवकलन मूल्यांकन पर प्रयुक्त किया गया है। यह हमारे अनुप्रयोगों को परिभाषित करता है।

पूर्वसूचना अनुरक्षण
पूर्वसूचना अनुरक्षण में मशीन की स्थिति की पहचान करने के लिए मिश्रण मॉडल-आधारित क्लस्टरिंग का भी मुख्य रूप से उपयोग किया जाता है। घनत्व भूखंडों का उपयोग उच्च आयामी सुविधाओं के घनत्व का विश्लेषण करने के लिए किया जाता है। यदि बहु-मॉडल घनत्व देखे जाते हैं, तो यह माना जाता है कि घनत्व का एक परिमित समुच्चय सामान्य मिश्रण के परिमित समुच्चय द्वारा बनता है। एक बहुचर गॉसियन मिश्रण मॉडल का उपयोग आकृति आंकड़ा को समूहों की संख्या में क्लस्टर करने के लिए किया जाता है जहां k मशीन के प्रत्येक स्थिति का प्रतिनिधित्व करती है। मशीन की स्थिति एक सामान्य स्थिति, विद्युत बंद स्थिति या दोषपूर्ण स्थिति हो सकती है। वर्णक्रमीय विश्लेषण जैसी तकनीकों का उपयोग करके प्रत्येक गठित क्लस्टर का निदान किया जा सकता है। हाल के वर्षों में, यह अन्य क्षेत्रों में भी व्यापक रूप से उपयोग किया गया है जैसे कि प्रारम्भिक त्रुटि का पता लगाना आदि सम्मिलित है।

फ़ज़ी छवि विभाजन
छवि प्रसंस्करण और कंप्यूटर विज़न में, पारंपरिक छवि विभाजन मॉडल प्रायः एक पिक्सेल को केवल एक विशिष्ट पैटर्न प्रदान करते हैं। फ़ज़ी या सॉफ्ट विभाजन में, किसी भी पैटर्न का किसी एक पिक्सेल पर निश्चित स्वामित्व हो सकता है। यदि पैटर्न गाऊसी हैं तो फजी विभाजन स्वाभाविक रूप से गाऊसी मिश्रण में परिणाम देता है अन्य विश्लेषणात्मक या ज्यामितीय उपकरणों (जैसे, विसरित सीमाओं पर चरण संक्रमण) के साथ संयुक्त, इस प्रकार के स्थानिक नियमित मिश्रण मॉडल अधिक यथार्थवादी और कम्प्यूटेशनल रूप से कुशल विभाजन विधियों को उत्पन्न कर सकते हैं।

बिन्दु समुच्चय पंजीकरण
प्रायिकतात्मक मिश्रण मॉडल जैसे गाऊसी मिश्रण मॉडल (जीएमएम) का उपयोग छवि प्रसंस्करण और कंप्यूटर दृष्टि क्षेत्रों में बिंदु समुच्चय पंजीकरण समस्याओं को हल करने के लिए किया जाता है। जोड़ी-वार बिंदु समुच्चय पंजीकरण के लिए, एक बिंदु समुच्चय को मिश्रण मॉडल के केन्द्रक के रूप में माना जाता है, और दूसरे बिंदु समुच्चय को आंकड़ा बिंदु (अवलोकन) माना जाता है। अत्याधुनिक तरीके हैं सुसंगत बिंदु प्रवाह (सीपीडी) और छात्र का टी-वितरण मिश्रण मॉडल (टीएमएम) के हाल के शोध के परिणाम हाइब्रिड मिश्रण मॉडल की श्रेष्ठता को प्रदर्शित करते हैं उदाहरण के लिए छात्र के टी-वितरण और वाटसन वितरण / बिंगहैम वितरण को मॉडल मुख्य स्थिति और अक्ष निर्देशन से अलग करना सीपीडी और टीएमएम की तुलना में अंतर्निहित, शुद्धता के संदर्भ में भेदभावपूर्ण क्षमता है।

पहचान योग्यता
पहचान योग्यता का तात्पर्य उस वर्ग (समूह) में किसी एक मॉडल के लिए एक अद्वितीय लक्षण वर्णन के अस्तित्व से है, जिस पर विचार किया जा रहा है कि अनुमान प्रक्रिया अपेक्षाकृत सही रूप से परिभाषित नहीं हो सकती है और यदि कोई मॉडल पहचानने योग्य नहीं है तो अनंतस्पर्शी सिद्धांत धारण नहीं कर सकता है।

उदाहरण
माना कि J, n = 2 के साथ सभी द्विपद समूह का वर्ग है तब J के दो सदस्यों का मिश्रण निम्न हो सकता है:


 * $$p_0=\pi(1-\theta_1)^2+(1-\pi)(1-\theta_2)^2$$
 * $$p_1=2\pi\theta_1(1-\theta_1)+2(1-\pi)\theta_2(1-\theta_2)$$

और p2 = 1 − p0 − p1 स्पष्ट रूप से, p0 और p1 दिए जाने पर, उपरोक्त मिश्रण मॉडल को विशिष्ट रूप से निर्धारित करना संभव नहीं है, क्योंकि निर्धारित करने के लिए तीन पैरामीटर (π, θ1, θ2) हैं।

परिभाषा
समान वर्ग के पैरामीट्रिक वितरणों के मिश्रण पर विचार करें। माना कि -


 * $$J=\{f(\cdot ; \theta):\theta\in\Omega\}$$

यदि उपरोक्त सभी घटक वितरणों का वर्ग है तब J का अवमुख समावरक K, J में वितरण के सभी परिमित मिश्रण के वर्ग को परिभाषित करता है:


 * $$K=\left\{p(\cdot):p(\cdot)=\sum_{i=1}^n a_i f_i(\cdot ; \theta_i), a_i>0, \sum_{i=1}^n a_i=1, f_i(\cdot ; \theta_i)\in J\ \forall i,n\right\}$$

K को पहचानने योग्य कहा जाता है यदि इसके सभी सदस्य अद्वितीय हैं, अर्थात, K में दो सदस्य p और p′ दिए गए हैं, क्रमशः k वितरण और k′ वितरण का J में मिश्रण होने के कारण हमारे पास है यदि और केवल यदि, सबसे पहले,  और दूसरी तरफ हम योगों को इस प्रकार पुनर्क्रमित कर सकते हैं कि सभी i के लिए ' और  हो।

पैरामीटर अनुमान और प्रणाली पहचान
पैरामीट्रिक मिश्रण मॉडल अक्सर उपयोग किए जाते हैं जब हम वितरण Y जानते हैं और हम X से प्रतिरूप ले सकते हैं, लेकिन हम ai और θi मान निर्धारित करना चाहेंगे। ऐसी स्थितियाँ उन अध्ययनों में उत्पन्न हो सकती हैं जिनमें हम एक ऐसी जनसंख्या से प्रतिरूप होते हैं जो कई अलग-अलग उप-जनसंख्याओं से बने होते है।

प्रायिकतात्मक मिश्रण मॉडलिंग को गुप्त आंकड़ा समस्या के रूप में सोचना सामान्य है। इसे समझने का एक तरीका यह मान लेना है कि जिन आंकड़ा बिंदुओं पर विचार किया जा रहा है, उनमें से किसी एक वितरण में सदस्यता है जिसका उपयोग हम आंकड़ा को मॉडल करने के लिए कर रहे हैं। जब हम प्रारम्भ करते हैं, तो यह सदस्यता अज्ञात होती है या लुप्त होती है। अनुमान का कार्य हमारे द्वारा चयन किए गए मॉडल कार्यों के लिए उपयुक्त पैरामीटर तैयार करना है, आंकड़ा बिंदुओं के संबंध के साथ व्यक्तिगत मॉडल वितरण में उनकी सदस्यता के रूप में प्रतिनिधित्व किया जा रहा है।

मिश्रण अपघटन की समस्या के लिए कई प्रकार के दृष्टिकोण प्रस्तावित किए गए हैं, जिनमें से कई अधिकतम संभावना विधियों पर ध्यान केंद्रित हैं जैसे कि अपेक्षा अधिकतमकरण (ईएम) या अधिकतम पश्च अनुमान (एमएपी) सामान्यतः ये विधियां प्रणाली पहचान और पैरामीटर अनुमान के प्रश्नों पर अलग से विचार करती हैं मिश्रण के भीतर घटकों की संख्या और कार्यात्मक रूप निर्धारित करने के तरीकों को संबंधित पैरामीटर मानों का अनुमान लगाने के तरीकों से अलग किया जाता है। कुछ उल्लेखनीय विचलन टार्टर और लॉक और हाल ही में न्यूनतम संदेश लंबाई (एमएमएल) तकनीकों जैसे कि फिगुएरेडो और जैन और कुछ अन्य मैकविलियम और लोह (2009) द्वारा अनुरूप पैटर्न विश्लेषण दिनचर्या में उल्लिखित ग्राफिकल विधियां हैं।

अपेक्षा अधिकतमकरण (ईएम)
अपेक्षा अधिकतमकरण (ईएम) प्रतीत होता है कि सबसे लोकप्रिय तकनीक है जिसका उपयोग किसी प्राथमिकता वाले घटकों की संख्या के साथ मिश्रण के मापदंडों को निर्धारित करने के लिए किया जाता है। यह इस समस्या के लिए अधिकतम संभावना अनुमान प्रयुक्त करने का एक विशेष प्रकार है। ईएम परिमित सामान्य मिश्रणों के लिए विशेष रूप से अपील करता है जहां विवृत रूप मे अभिव्यक्तियां संभव हैं जैसे डेम्पस्टर पद्धति द्वारा निम्नलिखित पुनरावृत्त कलनविधि में निम्न अभिव्यक्तियां संभव हैं:
 * $$ w_s^{(j+1)} = \frac{1}{N} \sum_{t =1}^N h_s^{(j)}(t) $$
 * $$ \mu_s^{(j+1)} =  \frac{\sum_{t =1}^N h_s^{(j)}(t) x^{(t)}}{\sum_{t =1}^N h_s^{(j)}(t)} $$
 * $$ \Sigma_s^{(j+1)} =  \frac{\sum_{t =1}^N h_s^{(j)}(t) [x^{(t)}-\mu_s^{(j+1)}][x^{(t)}-\mu_s^{(j+1)}]^{\top}}{\sum_{t =1}^N h_s^{(j)}(t)} $$

पश्च संभावनाओं के साथ
 * $$ h_s^{(j)}(t) = \frac{w_s^{(j)} p_s(x^{(t)}; \mu_s^{(j)},\Sigma_s^{(j)}) }{ \sum_{i = 1}^n w_i^{(j)} p_i(x^{(t)}; \mu_i^{(j)}, \Sigma_i^{(j)})}. $$

इस प्रकार मापदंडों के लिए वर्तमान अनुमान के आधार पर स्थिति s से उत्पन्न होने वाले किसी दिए गए अवलोकन x(t) के लिए सशर्त संभावना प्रत्येक t = 1, …, N के लिए निर्धारित की जाती है N प्रतिरूप आकार है। मापदंडों को तब अद्यतन किया जाता है जैसे कि नए घटक भार औसत सशर्त संभाव्यता के अनुरूप होते हैं और प्रत्येक घटक माध्य और सहप्रसरण प्रतिरूप के माध्य और सहप्रसरण का घटक विशिष्ट भारित औसत होता है।

डेम्पस्टर पद्धति मे भी यह भी दिखाया गया है कि प्रत्येक क्रमिक ईएम पुनरावृत्ति संभावना को अपेक्षाकृत कम नहीं करता है अन्य प्रवणता आधारित अधिकतमकरण तकनीकों द्वारा साझा नहीं की जाने वाली संपत्ति इसके अतिरिक्त, ईएम स्वाभाविक रूप से प्रायिकतात्मक सदिश पर बाधाओं को अन्तः स्थापित करता है और पर्याप्त रूप से बड़े प्रतिरूप आकार के लिए सहसंयोजक पुनरावृत्तियों की धनात्मक निश्चितता यह एक प्रमुख लाभ है क्योंकि स्पष्ट रूप से विवश विधियों में उपयुक्त मान की जांच और संरक्षण के लिए अतिरिक्त कम्प्यूटेशनल लागत होती हैं। सैद्धांतिक रूप से ईएम एक प्रथम-क्रम एल्गोरिथम है और इस प्रकार धीरे-धीरे एक निश्चित-बिंदु समाधान में परिवर्तित हो जाता है। रेडनर और वाकर (1984) इस बिंदु को उच्च रैखिक और दूसरे क्रम के न्यूटन और अर्ध-न्यूटन विधियों के पक्ष में तर्क दें और उनके अनुभवजन्य परीक्षणों के आधार पर ईएम में धीमे अभिसरण की रिपोर्ट करें। वे स्वीकार करते हैं कि प्रायिकतात्मक में अभिसरण तीव्र से था यद्यपि पैरामीटर मानों में अभिसरण स्वयं नहीं था। अन्य साहित्य में ईएम और अन्य कलनविधि बनाम अभिसरण के सापेक्ष गुणों पर चर्चा की गई है।

ईएम के उपयोग के लिए अन्य आम आपत्तियां यह हैं कि इसमें स्थानीय मैक्सिमा की प्रतिरूप पहचान करने की प्रवृत्ति है, साथ ही प्रारंभिक मानो के प्रति संवेदनशीलता प्रदर्शित होती है। पैरामीटर समष्टि में कई प्रारम्भिक बिंदुओं पर ईएम का मूल्यांकन करके इन समस्याओं का समाधान किया जा सकता है लेकिन यह कम्प्यूटेशनल रूप से कीमती है और अन्य दृष्टिकोण, जैसे कि यूडिया और नाकानो (1998) की एनीलिंग ईएम विधि (जिसमें प्रारंभिक घटकों को अनिवार्य रूप से ओवरलैप करने के लिए जटिल किया जाता है प्रारंभिक अनुमानों के लिए कम विषम आधार प्रदान करना अपेक्षाकृत रूप से अच्छा हो सकता है।

फिगुएरेडो और जैन ध्यान दें कि सीमा पर प्राप्त 'अर्थहीन' पैरामीटर मानों का अभिसरण जहां नियमितता की स्थिति विभाजित हो जाती है, उदाहरण के लिए, घोष और सेन (1985) को प्रायः देखा जाता है जब मॉडल घटकों की संख्या इष्टतम/सही एक से अधिक हो जाती है। इस आधार पर वे अनुमान और पहचान के लिए एक एकीकृत दृष्टिकोण का सुझाव देते हैं जिसमें प्रारंभिक n को अपेक्षित इष्टतम मान से बहुत अधिक चयन किया जाता है। उनका अनुकूलन रूटीन एक न्यूनतम संदेश लंबाई (एमएमएल) मानदंड के माध्यम से बनाया गया है जो एक उम्मीदवार घटक को प्रभावी रूप से समाप्त कर देता है यदि इसका समर्थन करने के लिए अपर्याप्त जानकारी है। इस प्रकार n में विभाजन को व्यवस्थित करना और संयुक्त रूप से अनुमान और पहचान पर विचार करना संभव होता है।

अपेक्षा चरण
मिश्रण मॉडल के मापदंडों के लिए प्रारंभिक अनुमानों के साथ, प्रत्येक घटक वितरण में प्रत्येक आंकड़ा बिंदु की "आंशिक सदस्यता" की गणना प्रत्येक आंकड़ा बिंदु के सदस्यता चर के लिए अपेक्षित मान की गणना करके की जाती है। अर्थात्, प्रत्येक आंकड़ा बिंदु xj और वितरण Yi के लिए, सदस्यता मान yi, j है:


 * $$ y_{i,j} = \frac{a_i f_Y(x_j;\theta_i)}{f_{X}(x_j)}.$$

अधिकतम चरण
समूह सदस्यता के लिए अपेक्षित मानों के साथ वितरण मापदंडों के लिए प्रयुक्त अनुमानों की पुन: गणना की जाती है।

मिश्रण गुणांक ai और N आंकड़ा बिंदुओं पर सदस्यता मानों का अर्थ है:


 * $$ a_i = \frac{1}{N}\sum_{j=1}^N y_{i,j}$$

घटक मॉडल पैरामीटर θi की गणना आंकड़ा बिंदु xj का उपयोग करके अपेक्षा अधिकतमकरण द्वारा भी की जाती है जिसे सदस्यता मानों का उपयोग करके भारित किया गया है। उदाहरण के लिए, यदि θ एक माध्य μ है:


 * $$ \mu_{i} = \frac{\sum_{j} y_{i,j}x_{j}}{\sum_{j} y_{i,j}}.$$

ai और θi के लिए नए अनुमानों के साथ, नए सदस्यता मानों की पुनर्गणना करने के लिए अपेक्षा चरण को दोहराया जाता है। पूरी प्रक्रिया तब तक दोहराई जाती है जब तक कि मॉडल पैरामीटर अभिसरण नहीं हो जाते है।

मार्कोव श्रृंखला मॉन्टे कार्लो
ईएम एल्गोरिथम के विकल्प के रूप में, मिश्रण मॉडल पैरामीटर को पश्च प्रतिरूपकरण का उपयोग करके घटाया जा सकता है जैसा कि बेयस प्रमेय द्वारा दर्शाया गया है। यह अभी भी एक अपूर्ण आंकड़ा समस्या के रूप में माना जाता है जिससे आंकड़ा बिंदुओं की सदस्यता लुप्त आंकड़ा है। गिब्स प्रतिरूपकरण के रूप में जानी जाने वाली दो-चरणीय पुनरावृत्ति प्रक्रिया का उपयोग किया जा सकता है।

दो गाऊसी वितरणों के मिश्रण का पिछला उदाहरण प्रदर्शित कर सकता है कि विधि कैसे कार्य करती है। पहले की तरह, मिश्रण मॉडल के लिए प्राचलों का प्रारंभिक अनुमान लगाया जाता है। प्रत्येक मौलिक वितरण के लिए आंशिक सदस्यता की गणना करने के अतिरिक्त प्रत्येक आंकड़ा बिंदु के लिए एक सदस्यता मान बर्नौली वितरण से तैयार किया जाता है (अर्थात, इसे पहले या दूसरे गॉसियन को निर्धारित किया जाएगा)। बर्नौली पैरामीटर θ घटक वितरण में से एक के आधार पर प्रत्येक आंकड़ा बिंदु के लिए निर्धारित किया जाता है। वितरण से कर्षण को प्रत्येक आंकड़ा बिंदु के लिए सदस्यता संघों को उत्पन्न करता है। निर्धारित अनुमानकों का उपयोग ईएम के M चरण के रूप में मिश्रण मॉडल पैरामीटर का एक नया समूह उत्पन्न करने के लिए किया जा सकता है और द्विपद कर्षण चरण को दोहराया जाता है।

क्षण अनुरूपण
क्षणों की विधि (सांख्यिकी) 1894 के कार्ल पियर्सन के सेमिनल कार्य से संबंधित मिश्रण मापदंडों को निर्धारित करने के लिए सबसे पुरानी तकनीकों में से एक है। इस दृष्टिकोण में मिश्रण के पैरामीटर इस प्रकार निर्धारित किए जाते हैं कि समग्र वितरण में कुछ दिए गए मान के अनुरूपण क्षण होते हैं। कई उदाहरणों में पल समीकरणों के समाधान निकालने से गैर-तुच्छ बीजगणितीय या कम्प्यूटेशनल समस्याएं हो सकती हैं। इसके अतिरिक्त, दिन के अनुसार से संख्यात्मक विश्लेषण ने संकेत दिया है कि ईएम की तुलना में ऐसी विधियां अक्षम हो सकती हैं। जो इस पद्धति में नए सिरे से रुचि दिखाई गई है, उदाहरण के लिए, क्रेगमील और टिटरिंगटन (1998) और वांग, मैकविलियम और लोह (2009) बड़े आयामी प्रणालियों में एक हाइपर-क्यूबॉइड सामान्य मिश्रण कोप्युला (सांख्यिकी) के लक्षण वर्णन पर विचार करते हैं जिसके लिए ईएम कम्प्यूटेशनल रूप से निषेधात्मक होता है यहाँ एक पैटर्न विश्लेषण रूटीन का उपयोग बहुचर पूंछ-निर्भरता उत्पन्न करने के लिए किया जाता है, जो एक प्रकार के अविभाजित और (कुछ अर्थों में) द्विभाजित क्षणों के अनुरूप होता है। इस पद्धति के प्रदर्शन का मूल्यांकन कोलमोगोरोव-स्मिर्नोव परीक्षण आंकड़ों के साथ निर्दिष्ट अभिलेखित आंकड़ा का उपयोग करके किया जाता है जो एक अच्छा वर्णनात्मकता का सुझाव देता है।

वर्णक्रमीय विधि
वर्णक्रमीय विधियों का उपयोग करके मिश्रण मॉडल के आकलन में कुछ समस्याओं को हल किया जा सकता है। विशेष रूप से यह उपयोगी हो जाता है यदि आंकड़ा बिंदु xi है उच्च-आयामी वास्तविक समन्वय समष्टि में बिंदु हैं और छिपे हुए वितरण को लघुगणक रूप से अवतल कार्य लघुगणक-अवतल (जैसे गॉसियन वितरण या घातीय वितरण) के रूप में जाना जाता है। प्रशिक्षण के मिश्रण मॉडल के वर्णक्रमीय तरीके एक आव्यूह के एकल मान अपघटन के उपयोग पर आधारित होते हैं जिसमें आंकड़ा बिंदु होते हैं। विचार शीर्ष k एकल सदिश पर विचार करना है, जहाँ k प्रक्षेपण के लिए वितरण की संख्या है। प्रत्येक आंकड़ा बिंदु उन सदिश समूहों द्वारा विस्तृत एक रेखीय उप-समष्टि की ओर संकेत करता है जो समान वितरण से उत्पन्न होते हैं और एक साथ बहुत निकट होते हैं, जबकि विभिन्न वितरणों के अंक दूर-दूर रहते हैं।

वर्णक्रमीय पद्धति की एक विशिष्ट विशेषता यह है कि यह हमें गणितीय प्रमाण की स्वीकृति प्राप्त होती है कि यदि निश्चित विभाजन की स्थिति को पूरा करते हैं उदाहरण के लिए, बहुत निकट नहीं है तो अनुमानित मिश्रण उच्च संभावना के साथ बहुत निकट हो सकता है।

ग्राफिकल तरीके
टार्टर और लॉक मिश्रण पहचान के लिए एक ग्राफिकल दृष्टिकोण का वर्णन करें जिसमें एक कर्नेल फलन को अनुभवजन्य आवृत्ति प्लॉट पर प्रयुक्त किया जाता है ताकि अतः-घटक भिन्नता को कम किया जा सके। इस प्रकार अलग-अलग साधनों वाले घटकों की अधिक आसानी से पहचान की जा सकती है। हालांकि इस λ-पद्धति को घटकों की संख्या या कार्यात्मक रूप के पूर्व ज्ञान की आवश्यकता नहीं होती है लेकिन इसकी सफलता कर्नेल पैरामीटर की रुचि पर निर्भर करती है जो कुछ अपेक्षाकृत घटक संरचना के विषय में धारणाओं को अंतः स्थापित करती है।

अन्य तरीके
उनमें से कुछ लगभग भारी-पुच्छल वाले वितरणों के मिश्रण को भी सीख सकते हैं जो अनंत भिन्नता वाले हैं (नीचे दस्तावेज़ के लिंक देखें)। इस सेटिंग में, ईएम आधारित तरीके कार्य नहीं करेंगे, क्योंकि बाहरी परत की उपस्थिति के कारण अपेक्षा चरण भिन्न हो सकता है।

अनुकरण
आकार N के एक प्रतिरूप का अनुकरण करने के लिए जो कि वितरण Fi, i = 1 से n के मिश्रण से है, प्रायिकता pi (sum = pi = 1) के साथ:
 * 1) आकार n के एक स्पष्ट वितरण से N यादृच्छिक संख्या उत्पन्न करें और i = 1 = से n के लिए संभावनाएँ pi ये आपको बताते हैं कि प्रत्येक एन मान किस Fi से आएगा। ith श्रेणी को दी गई यादृच्छिक संख्याओं की मात्रा को mi से निरूपित करें।
 * 2) प्रत्येक i के लिए, Fi वितरण से mi यादृच्छिक संख्याएँ उत्पन्न करें।

विस्तारण
बायेसियन अनुमान में, मिश्रण मॉडल को परिभाषित करने वाले ग्राफिकल मॉडल में अतिरिक्त स्तर को संबद्ध किया जा सकता हैं उदाहरण के लिए, सामान्य अव्यक्त डिरिचलेट आवंटन विषय मॉडल में, अवलोकन D विभिन्न दस्तावेज़ों से लिए गए शब्दों के समूह हैं और K मिश्रण घटक उन विषयों का प्रतिनिधित्व करते हैं जो दस्तावेज़ों में साझा किए जाते हैं। प्रत्येक दस्तावेज़ में मिश्रण भार का एक अलग समूह होता है, जो उस दस्तावेज़ में प्रचलित विषयों को निर्दिष्ट करता है। मिश्रण भार के सभी समूह सामान्य हाइपर पैरामीटर को झा करते हैं।

यह मानने के अतिरिक्त कि वे स्वतंत्र रूप से समान रूप से वितरित यादृच्छिक चर हैं, एक मार्कोव श्रृंखला में मिश्रण घटक पहचान को परिभाषित करने वाले अव्यक्त चर को जोड़ने के लिए एक बहुत ही सामान्य विस्तार है। परिणामी मॉडल को एक छिपा हुआ मार्कोव मॉडल कहा जाता है और यह सबसे सामान्य नुक्रमिक श्रेणीबद्ध मॉडल में से एक है। छिपे हुए मार्कोव मॉडल के कई विस्तार विकसित किए गए हैं अधिक जानकारी के लिए परिणामी लेख देखें।

इतिहास
मिश्रण वितरण और मिश्रण अपघटन की समस्या, जो कि इसके घटकों और उसके मापदंडों की पहचान है जिसका साहित्य में 1846 (मैकलचैन में क्वेटलेट 2000) तक वापस उद्धृत किया गया है। हालांकि सामान्य संदर्भ इसके लिए बनाया गया है कार्ल पियर्सन (1894) का कार्य पहले लेखक के रूप में मादा किनारे केकड़े की आबादी में माथे से शरीर की लंबाई के अनुपात की गैर-सामान्य विशेषताओं को स्पष्ट रूप से संबोधित करने के लिए अपघटन समस्या को संबोधित करता है। इस कार्य के लिए प्रेरणा प्राणी विज्ञानी वाल्टर फ्रैंक राफेल वेल्डन द्वारा प्रदान की गई थी जिन्होंने 1893 में अनुमान लगाया था (टार्टर और लॉक में) कि इन अनुपातों के हिस्टोग्राम में विषमता विकासवादी विचलन का संकेत दे सकती है। पियर्सन का दृष्टिकोण मिश्रण के पांच मापदंडों को चुनकर आंकड़ा में दो मानदंडों के एक अविभाज्य मिश्रण को प्रयुक्त करना था जैसे कि अनुभवजन्य क्षण मॉडल के अनुरूप थे।

जबकि उनका कार्य दो संभावित अलग-अलग उप-जनसंख्या की पहचान करने में सफल रहा और एक क्षण अनुरूपण उपकरण के रूप में मिश्रण की नम्यता को प्रदर्शित करने में सूत्रीकरण के लिए 9वीं डिग्री (नॉनिक) बहुपद के समाधान की आवश्यकता थी जो उस समय एक महत्वपूर्ण कम्प्यूटेशनल चुनौती थी। इसके बाद के कार्यों ने इन समस्याओं को दूर करने पर ध्यान केंद्रित किया, लेकिन यह तब तक नहीं था जब तक कि आधुनिक कंप्यूटर का आगमन और अधिकतम संभावना (एमएलई) प्राचलीकरण तकनीकों का लोकप्रियकरण नहीं हो गया था, जो वास्तव में शोध से दूर हो गए थे। उस समय से मत्स्य, कृषि, वनस्पति विज्ञान, अर्थशास्त्र, चिकित्सा, आनुवंशिकी, मनोविज्ञान, जीवाश्म विज्ञान, वैद्युतकण संचलन, वित्त, भूविज्ञान और जीव विज्ञानं जैसे क्षेत्रों में विस्तृत इस विषय पर शोध का एक विशाल निकाय रहा है।

मिश्रण

 * मिश्रण घनत्व
 * मिश्रण (प्रायिकता)
 * एफएमएम
 * उपसमष्टि गाऊसी मिश्रण मॉडल

वर्गीकृत मॉडल

 * ग्राफिकल मॉडल
 * वर्गीकृत बेयस मॉडल

बाहरी पहचान

 * आरएएनएसएसी

बाहरी संबंध

 * The SOCR demonstrations of EM and Mixture Modeling
 * Mixture modelling page (and the Snob program for Minimum Message Length (MML) applied to finite mixture models), maintained by D.L. Dowe.
 * PyMix – Python Mixture Package, algorithms and data structures for a broad variety of mixture model based data mining applications in Python
 * sklearn.mixture – A module from the scikit-learn Python library for learning Gaussian Mixture Models (and sampling from them), previously packaged with SciPy and now packaged as a SciKit
 * GMM.m Matlab code for GMM Implementation
 * GPUmix C++ implementation of Bayesian Mixture Models using EM and MCMC with 100x speed acceleration using GPGPU.
 * Matlab code for GMM Implementation using EM algorithm
 * jMEF: A Java open source library for learning and processing mixtures of exponential families (using duality with Bregman divergences). Includes a Matlab wrapper.
 * Very Fast and clean C implementation of the Expectation Maximization (EM) algorithm for estimating Gaussian Mixture Models (GMMs).
 * mclust is an R package for mixture modeling.
 * dpgmm Pure Python Dirichlet process Gaussian mixture model implementation (variational).
 * Gaussian Mixture Models Blog post on Gaussian Mixture Models trained via Expectation Maximization, with an implementation in Python.
 * Gaussian Mixture Models Blog post on Gaussian Mixture Models trained via Expectation Maximization, with an implementation in Python.