स्व-संगठित मानचित्र

एक स्व-संगठित मानचित्र (SOM) या स्व-संगठित फीचर मैप (SOFM) एक अनियंत्रित सीखने की मशीन सीखने की तकनीक है जिसका उपयोग आयामीता में कमी उत्पन्न करने के लिए किया जाता है। डेटा की टोपोलॉजी। उदाहरण के लिए, एक डेटा सेट के साथ $$p$$ चर में मापा जाता है $$n$$ प्रेक्षणों को चरों के लिए समान मानों वाले प्रेक्षणों के समूहों के रूप में दर्शाया जा सकता है। इन समूहों को तब एक द्वि-आयामी मानचित्र के रूप में देखा जा सकता है, जैसे कि समीपस्थ समूहों में टिप्पणियों के दूरस्थ समूहों में टिप्पणियों की तुलना में अधिक समान मूल्य हैं। यह उच्च-आयामी डेटा को देखने और विश्लेषण करने में आसान बना सकता है।

एक एसओएम एक प्रकार का कृत्रिम तंत्रिका नेटवर्क है लेकिन अन्य कृत्रिम तंत्रिका नेटवर्क द्वारा उपयोग किए जाने वाले त्रुटि-सुधार सीखने (उदाहरण के लिए, ग्रेडियेंट वंश के साथ backpropagation) के बजाय प्रतिस्पर्धी सीखने का उपयोग करके प्रशिक्षित किया जाता है। SOM को 1980 के दशक में फिनलैंड के प्रोफेसर तेउवो कोहोनेन द्वारा पेश किया गया था और इसलिए इसे कभी-कभी कोहोनेन मानचित्र या कोहोनेन नेटवर्क कहा जाता है। कोहोनेन नक्शा या नेटवर्क 1970 के दशक से तंत्रिका तंत्र के जैविक मॉडल पर एक कम्प्यूटेशनल रूप से सुविधाजनक अमूर्त इमारत है। और रूपजनन मॉडल 1950 के दशक में एलन ट्यूरिंग के समय के हैं। एसओएम आंतरिक अभ्यावेदन बनाते हैं जो कॉर्टिकल होम्युनकुलस की याद दिलाते हैं, मानव शरीर का एक विकृत प्रतिनिधित्व, शरीर के विभिन्न भागों के लिए संवेदी प्रक्रियाओं को संसाधित करने के लिए समर्पित मानव मस्तिष्क के क्षेत्रों और अनुपातों के एक न्यूरोलॉजिकल मानचित्र पर आधारित है।



सिंहावलोकन
स्व-संगठित मानचित्र, अधिकांश कृत्रिम तंत्रिका नेटवर्क की तरह, दो मोड में काम करते हैं: प्रशिक्षण और मानचित्रण। सबसे पहले, प्रशिक्षण इनपुट डेटा (नक्शा स्थान) के निम्न-आयामी प्रतिनिधित्व को उत्पन्न करने के लिए एक इनपुट डेटा सेट (इनपुट स्पेस) का उपयोग करता है। दूसरा, मैपिंग जनरेट किए गए मैप का उपयोग करके अतिरिक्त इनपुट डेटा को वर्गीकृत करता है।

ज्यादातर मामलों में, प्रशिक्षण का लक्ष्य दो आयामों वाले मानचित्र स्थान के रूप में पी आयामों के साथ एक इनपुट स्थान का प्रतिनिधित्व करना है। विशेष रूप से, p चर वाले एक इनपुट स्थान को p आयाम कहा जाता है। एक मानचित्र स्थान में नोड्स या न्यूरॉन्स नामक घटक होते हैं, जो दो आयामों के साथ हेक्सागोनल या आयताकार ग्रिड के रूप में व्यवस्थित होते हैं। विश्लेषण और खोजपूर्ण डेटा विश्लेषण के बड़े लक्ष्यों के आधार पर नोड्स की संख्या और उनकी व्यवस्था पहले से निर्दिष्ट है।

मैप स्पेस में प्रत्येक नोड एक वेट वेक्टर से जुड़ा होता है, जो इनपुट स्पेस में नोड की स्थिति है। जबकि मैप स्पेस में नोड्स स्थिर रहते हैं, प्रशिक्षण में मैप स्पेस से प्रेरित टोपोलॉजी को खराब किए बिना इनपुट डेटा (यूक्लिडियन दूरी जैसे दूरी मीट्रिक को कम करना) की ओर बढ़ने वाले वजन वाले वैक्टर होते हैं। प्रशिक्षण के बाद, मानचित्र का उपयोग इनपुट स्पेस वेक्टर के निकटतम वजन वेक्टर (सबसे छोटी दूरी मीट्रिक) के साथ नोड को ढूंढकर इनपुट स्पेस के लिए अतिरिक्त अवलोकनों को वर्गीकृत करने के लिए किया जा सकता है।

लर्निंग एल्गोरिथम
स्व-संगठित मानचित्र में सीखने का लक्ष्य नेटवर्क के विभिन्न भागों को कुछ इनपुट पैटर्न के समान प्रतिक्रिया देने के लिए प्रेरित करना है। यह आंशिक रूप से इस बात से प्रेरित है कि मानव मस्तिष्क में सेरेब्रल कॉर्टेक्स के अलग-अलग हिस्सों में दृश्य, श्रवण या अन्य संवेदी जानकारी को कैसे नियंत्रित किया जाता है।

न्यूरॉन्स के वजन को या तो छोटे यादृच्छिक मूल्यों के लिए आरंभ किया जाता है या दो सबसे बड़े प्रमुख घटक ईजेनवेक्टरों द्वारा फैलाए गए उप-स्थान से समान रूप से नमूना लिया जाता है। बाद वाले विकल्प के साथ, सीखना बहुत तेज है क्योंकि शुरुआती वजन पहले से ही एसओएम वजन का अच्छा अनुमान देते हैं। नेटवर्क को बड़ी संख्या में उदाहरण वैक्टर खिलाए जाने चाहिए जो मानचित्रण के दौरान अपेक्षित वैक्टरों के जितना करीब हो सके प्रतिनिधित्व करते हैं। उदाहरणों को आमतौर पर पुनरावृत्तियों के रूप में कई बार प्रशासित किया जाता है।

प्रशिक्षण प्रतिस्पर्धी सीखने का उपयोग करता है। जब एक प्रशिक्षण उदाहरण नेटवर्क को खिलाया जाता है, तो सभी भार वैक्टरों के लिए इसकी यूक्लिडियन दूरी की गणना की जाती है। न्यूरॉन जिसका वजन वेक्टर इनपुट के समान होता है, उसे सर्वश्रेष्ठ मिलान इकाई (बीएमयू) कहा जाता है। एसओएम ग्रिड में बीएमयू और इसके करीब के न्यूरॉन्स के वजन को इनपुट वेक्टर की ओर समायोजित किया जाता है। परिवर्तन का परिमाण समय के साथ और बीएमयू से ग्रिड-दूरी के साथ घटता जाता है। वजन वेक्टर डब्ल्यू के साथ एक न्यूरॉन वी के लिए अद्यतन सूत्रv(स) है
 * $$W_{v}(s + 1) = W_{v}(s) + \theta(u, v, s) \cdot \alpha(s) \cdot (D(t) - W_{v}(s))$$,

जहाँ s स्टेप इंडेक्स है, t ट्रेनिंग सैंपल में एक इंडेक्स है, u इनपुट वेक्टर 'D'(t) के लिए BMU का इंडेक्स है, α(s) एक नीरस रूप से घटता सीखने का गुणांक है; θ(यू, वी, एस) पड़ोस का कार्य है जो चरण एस में न्यूरॉन यू और न्यूरॉन वी के बीच की दूरी देता है। कार्यान्वयन के आधार पर, टी प्रशिक्षण डेटा सेट को व्यवस्थित रूप से स्कैन कर सकता है (टी 0, 1, 2 ... टी -1 है, फिर दोहराएं, टी प्रशिक्षण नमूने का आकार है), डेटा सेट (बूटस्ट्रैप नमूनाकरण) से यादृच्छिक रूप से खींचा जा सकता है।, या कुछ अन्य नमूना विधि लागू करें (जैसे कि पुन: नमूनाकरण (सांख्यिकी)#Jackknife)।

पड़ोस का कार्य θ(यू, वी, एस) (पार्श्व संपर्क का कार्य भी कहा जाता है) बीएमयू (न्यूरॉन यू) और न्यूरॉन वी के बीच ग्रिड-दूरी पर निर्भर करता है। सरलतम रूप में, यह सभी न्यूरॉन्स के लिए 1 है जो काफी करीब है दूसरों के लिए बीएमयू और 0, लेकिन गाऊसी समारोह और मैक्सिकन टोपी तरंगिका|मैक्सिकन-हैट कार्य भी सामान्य विकल्प हैं। कार्यात्मक रूप के बावजूद, पड़ोस का कार्य समय के साथ सिकुड़ता है। शुरुआत में जब पड़ोस व्यापक होता है, तो वैश्विक स्तर पर आत्म-संगठन होता है। जब आस-पड़ोस सिर्फ कुछ न्यूरॉन्स तक सिकुड़ गया है, तो वजन स्थानीय अनुमानों में परिवर्तित हो रहे हैं। कुछ कार्यान्वयनों में, सीखने का गुणांक α और पड़ोस का कार्य θ बढ़ते हुए s के साथ लगातार घटता है, दूसरों में (विशेष रूप से जहां t प्रशिक्षण डेटा सेट को स्कैन करता है) वे प्रत्येक T चरणों में एक बार चरणबद्ध तरीके से घटते हैं।

यह प्रक्रिया प्रत्येक इनपुट वेक्टर के लिए (आमतौर पर बड़ी) चक्रों की संख्या λ के लिए दोहराई जाती है। नेटवर्क आउटपुट नोड्स को इनपुट डेटा सेट में समूह या पैटर्न के साथ जोड़ता है। यदि इन पैटर्नों को नाम दिया जा सकता है, तो प्रशिक्षित नेट में संबंधित नोड्स से नाम जोड़े जा सकते हैं।

मैपिंग के दौरान, एक एकल 'विजेता' न्यूरॉन होगा: न्यूरॉन जिसका वजन वेक्टर इनपुट वेक्टर के सबसे करीब होता है। यह केवल इनपुट वेक्टर और वेट वेक्टर के बीच यूक्लिडियन दूरी की गणना करके निर्धारित किया जा सकता है।

इस आलेख में वैक्टर के रूप में इनपुट डेटा का प्रतिनिधित्व करते समय जोर दिया गया है, किसी भी प्रकार की वस्तु जिसे डिजिटल रूप से प्रदर्शित किया जा सकता है, जिसके साथ उचित दूरी माप जुड़ा हुआ है, और जिसमें प्रशिक्षण के लिए आवश्यक संचालन संभव है, स्वयं का निर्माण करने के लिए उपयोग किया जा सकता है - आयोजन मानचित्र। इसमें मैट्रिसेस, निरंतर कार्य या यहां तक ​​कि अन्य स्व-आयोजन मानचित्र शामिल हैं।

चर
बोल्ड में वैक्टर के साथ ये आवश्यक चर हैं,
 * $$s$$ वर्तमान पुनरावृत्ति है
 * $$\lambda$$ पुनरावृत्ति सीमा है
 * $$t$$ इनपुट डेटा सेट में लक्ष्य इनपुट डेटा वेक्टर का सूचकांक है $$\mathbf{D}$$
 * $${D}(t)$$ एक लक्ष्य इनपुट डेटा वेक्टर है
 * $$v$$ मानचित्र में नोड का सूचकांक है
 * $$\mathbf{W}_v$$ नोड का वर्तमान वजन वेक्टर है $$v$$
 * $$u$$ मानचित्र में सर्वोत्तम मिलान इकाई (बीएमयू) का सूचकांक है
 * $$\theta (u, v, s)$$ बीएमयू से दूरी के कारण एक संयम है, जिसे आमतौर पर पड़ोस का कार्य कहा जाता है, और
 * $$\alpha (s)$$ पुनरावृत्ति प्रगति के कारण एक सीखने का संयम है।

एल्गोरिदम

 * 1) मैप में नोड वेट वैक्टर को रैंडमाइज करें
 * 2) बेतरतीब ढंग से एक इनपुट वेक्टर चुनें $${D}(t)$$
 * 3) मानचित्र में प्रत्येक नोड को पार करें
 * 4) इनपुट वेक्टर और मैप के नोड के वेट वेक्टर के बीच समानता खोजने के लिए यूक्लिडियन दूरी सूत्र का उपयोग करें
 * 5) सबसे छोटी दूरी पैदा करने वाले नोड को ट्रैक करें (यह नोड सबसे अच्छी मिलान इकाई है, बीएमयू)
 * 6) इनपुट वेक्टर के करीब खींचकर बीएमयू (स्वयं बीएमयू सहित) के पड़ोस में नोड्स के वजन वैक्टर को अपडेट करें
 * 7) $$W_{v}(s + 1) = W_{v}(s) + \theta(u, v, s) \cdot \alpha(s) \cdot (D(t) - W_{v}(s))$$
 * 8) बढ़ोतरी $$s$$ और चरण 2 से दोहराएँ $$s < \lambda$$

वैकल्पिक एल्गोरिथ्म

 * 1) मैप के नोड्स के वेट वैक्टर को रैंडमाइज करें
 * 2) इनपुट डेटा सेट में प्रत्येक इनपुट वेक्टर को ट्रैवर्स करें
 * 3) मानचित्र में प्रत्येक नोड को पार करें
 * 4) इनपुट वेक्टर और मैप के नोड के वेट वेक्टर के बीच समानता खोजने के लिए यूक्लिडियन दूरी सूत्र का उपयोग करें
 * 5) उस नोड को ट्रैक करें जो सबसे छोटी दूरी पैदा करता है (यह नोड सबसे अच्छी मिलान इकाई है, बीएमयू)
 * 6) इनपुट वेक्टर के करीब खींचकर बीएमयू (स्वयं बीएमयू सहित) के पड़ोस में नोड्स को अपडेट करें
 * 7) $$W_{v}(s + 1) = W_{v}(s) + \theta(u, v, s) \cdot \alpha(s) \cdot (D(t) - W_{v}(s))$$
 * 8) बढ़ोतरी $$s$$ और चरण 2 से दोहराएँ $$s < \lambda$$

प्रारंभिक विकल्प
अंतिम वज़न के अच्छे सन्निकटन के रूप में प्रारंभिक वज़न का चयन स्व-संगठित मानचित्रों सहित कृत्रिम तंत्रिका नेटवर्क के सभी पुनरावृत्त तरीकों के लिए एक प्रसिद्ध समस्या है। कोहोनेन ने मूल रूप से वज़न की यादृच्छिक दीक्षा प्रस्तावित की थी। (यह दृष्टिकोण ऊपर वर्णित एल्गोरिदम द्वारा परिलक्षित होता है।) हाल ही में, प्रमुख घटक आरंभीकरण, जिसमें प्रारंभिक मानचित्र भार पहले प्रमुख घटकों के स्थान से चुने गए हैं, परिणामों की सटीक पुनरुत्पादन के कारण लोकप्रिय हो गए हैं। हालांकि, एक आयामी मानचित्र के लिए प्रमुख घटक आरंभीकरण के लिए यादृच्छिक आरंभीकरण की सावधानीपूर्वक तुलना, हालांकि, पाया गया कि प्रमुख घटक आरंभीकरण के लाभ सार्वभौमिक नहीं हैं। सर्वोत्तम आरंभीकरण विधि विशिष्ट डेटासेट की ज्यामिति पर निर्भर करती है। प्रिंसिपल कंपोनेंट इनिशियलाइज़ेशन (एक-आयामी मानचित्र के लिए) बेहतर था, जब डेटासेट का अनुमान लगाने वाला प्रिंसिपल कर्व पहले प्रिंसिपल कंपोनेंट (क्वासिलिनियर सेट) पर एकतरफा और रैखिक रूप से प्रोजेक्ट किया जा सकता था। हालांकि, गैर-रैखिक डेटासेट के लिए, यादृच्छिक शुरुआत ने बेहतर प्रदर्शन किया।

व्याख्या


SOM की व्याख्या करने के दो तरीके हैं। क्योंकि प्रशिक्षण चरण में पूरे पड़ोस के वजन एक ही दिशा में चले जाते हैं, इसी तरह की वस्तुएं आसन्न न्यूरॉन्स को उत्तेजित करती हैं। इसलिए, एसओएम एक सिमेंटिक मैप बनाता है जहां समान नमूनों को एक साथ करीब से मैप किया जाता है और अलग-अलग लोगों को अलग किया जाता है। यह एसओएम के यू-मैट्रिक्स (पड़ोसी कोशिकाओं के वजन वैक्टर के बीच यूक्लिडियन दूरी) द्वारा देखा जा सकता है। दूसरा तरीका यह है कि न्यूरोनल वेट को इनपुट स्पेस के पॉइंटर्स के रूप में सोचा जाए। वे प्रशिक्षण नमूनों के वितरण का असतत अनुमान लगाते हैं। अधिक न्यूरॉन्स उच्च प्रशिक्षण नमूना एकाग्रता वाले क्षेत्रों को इंगित करते हैं और कम जहां नमूने दुर्लभ हैं।

एसओएम को प्रधान घटक विश्लेषण (पीसीए) का एक अरैखिक सामान्यीकरण माना जा सकता है। यह कृत्रिम और वास्तविक भूभौतिकीय डेटा दोनों का उपयोग करके दिखाया गया है कि एसओएम के कई फायदे हैं अनुभवजन्य ऑर्थोगोनल फ़ंक्शंस (ईओएफ) या पीसीए जैसे पारंपरिक फीचर निष्कर्षण विधियों पर।

मूल रूप से, SOM को अनुकूलन समस्या के समाधान के रूप में तैयार नहीं किया गया था। फिर भी, एसओएम की परिभाषा को संशोधित करने और एक अनुकूलन समस्या तैयार करने के कई प्रयास किए गए हैं जो समान परिणाम देती हैं। उदाहरण के लिए, लोचदार मानचित्र लोच के यांत्रिक रूपक का उपयोग अनुमानित गैर-रैखिक आयामीता में कमी # प्रमुख घटता और कई गुना करने के लिए करते हैं: सादृश्य एक लोचदार झिल्ली और प्लेट है।

फिशर आईरिस फूल डेटा
एक पर विचार करें $n×m$ नोड्स की सरणी, जिनमें से प्रत्येक में वजन वेक्टर होता है और सरणी में इसके स्थान से अवगत होता है। प्रत्येक वज़न वेक्टर नोड के इनपुट वेक्टर के समान आयाम का होता है। वजन शुरू में यादृच्छिक मूल्यों पर सेट किया जा सकता है।

अब हमें मानचित्र को फीड करने के लिए इनपुट की आवश्यकता है। रंगों को उनके लाल, हरे और नीले घटकों द्वारा दर्शाया जा सकता है। नतीजतन, हम नि: शुल्क मॉड्यूल # औपचारिक रैखिक संयोजनों की इकाई घन में वैक्टर के रूप में रंगों का प्रतिनिधित्व करेंगे। नि: शुल्क वेक्टर स्थान $ℝ$ आधार द्वारा उत्पन्न:
 * आर = <255, 0, 0>
 * जी = <0, 255, 0>
 * बी = <0, 0, 255>

The diagram shown डेटा सेट पर प्रशिक्षण के परिणामों की तुलना करता है
 * तीन रंग = [255, 0, 0], [0, 255, 0], [0, 0, 255]
 * आठ रंग = [0, 0, 0], [255, 0, 0], [0, 255, 0], [0, 0, 255], [255, 255, 0], [0, 255, 255], [255, 0, 255], [255, 255, 255]

और मूल चित्र। दोनों के बीच आश्चर्यजनक समानता पर ध्यान दें।

इसी तरह प्रशिक्षण के बाद ए $40×40$ फिशर आइरिस पर 0.1 की सीखने की दर के साथ 250 पुनरावृत्तियों के लिए न्यूरॉन्स का ग्रिड, the map can already detect the main differences between species.

अन्य

 * परियोजना प्राथमिकता और चयन
 * बैंकिंग के साथ-साथ इंटरबैंक भुगतान व्यवसाय की जांच करना
 * तेल और गैस की खोज के लिए भूकंपीय विश्लेषण
 * विफलता मोड और प्रभाव विश्लेषण
 * बड़े डेटासेट में प्रतिनिधि डेटा ढूँढना
 * पारिस्थितिक समुदायों के लिए प्रतिनिधि प्रजातियां
 * ऊर्जा प्रणाली मॉडल के लिए प्रतिनिधि दिन



विकल्प

 * जनरेटिव स्थलाकृतिक मानचित्र (जीटीएम) एसओएम का एक संभावित विकल्प है। इस अर्थ में कि GTM को स्पष्ट रूप से इनपुट स्पेस से मैप स्पेस तक एक सहज और निरंतर मैपिंग की आवश्यकता होती है, यह टोपोलॉजी संरक्षित है। हालाँकि, व्यावहारिक अर्थ में, सामयिक संरक्षण के इस उपाय का अभाव है।
 * टाइम एडाप्टिव सेल्फ-ऑर्गेनाइजिंग मैप (TASOM) नेटवर्क बेसिक SOM का एक विस्तार है। TASOM अनुकूली सीखने की दरों और पड़ोस के कार्यों को नियोजित करता है। इसमें इनपुट स्पेस के स्केलिंग, ट्रांसलेशन और रोटेशन के लिए नेटवर्क को अपरिवर्तनीय बनाने के लिए स्केलिंग पैरामीटर भी शामिल है। अनुकूली क्लस्टरिंग, बहुस्तरीय थ्रेशोल्डिंग, इनपुट स्पेस सन्निकटन और सक्रिय समोच्च मॉडलिंग सहित कई अनुप्रयोगों में TASOM और इसके वेरिएंट का उपयोग किया गया है। इसके अलावा, एक बाइनरी ट्री TASOM या BTASOM, एक बाइनरी नेचुरल ट्री जैसा दिखता है, जिसमें TASOM नेटवर्क से बने नोड्स होते हैं, जहां इसके स्तरों की संख्या और इसके नोड्स की संख्या इसके पर्यावरण के अनुकूल होती है।
 * बढ़ता हुआ स्व-संगठित मानचित्र (GSOM) स्व-संगठित मानचित्र का बढ़ता हुआ रूप है। जीएसओएम को एसओएम में उपयुक्त मानचित्र आकार की पहचान करने के मुद्दे को हल करने के लिए विकसित किया गया था। यह न्यूनतम संख्या में नोड्स (आमतौर पर चार) से शुरू होता है और एक अनुमानी के आधार पर सीमा पर नए नोड्स को बढ़ाता है। 'स्प्रेड फैक्टर' नामक मूल्य का उपयोग करके, डेटा विश्लेषक के पास जीएसओएम के विकास को नियंत्रित करने की क्षमता होती है।
 * लोचदार मानचित्र दृष्टिकोण तख़्ता प्रक्षेप से लोचदार ऊर्जा को कम करने का विचार उधार लेता है। सीखने में, यह कम से कम वर्ग सन्निकटन त्रुटि के साथ द्विघात झुकने और खींचने वाली ऊर्जा के योग को कम करता है।
 * अनुरूप दृष्टिकोण  जो एक सतत सतह में ग्रिड नोड्स के बीच प्रत्येक प्रशिक्षण नमूने को प्रक्षेपित करने के लिए अनुरूप मानचित्रण का उपयोग करता है। इस दृष्टिकोण में एक-से-एक चिकनी मैपिंग संभव है।
 * ओरिएंटेड और स्केलेबल मैप (OS-Map) नेबरहुड फ़ंक्शन और विजेता चयन का सामान्यीकरण करता है। सजातीय गाऊसी पड़ोस समारोह को मैट्रिक्स घातीय के साथ बदल दिया गया है। इस प्रकार कोई भी मानचित्र स्थान या डेटा स्थान में ओरिएंटेशन निर्दिष्ट कर सकता है। एसओएम का एक निश्चित पैमाना (=1) है, जिससे कि मानचित्र अवलोकन के क्षेत्र का इष्टतम वर्णन करते हैं। लेकिन डोमेन को दो बार या एन-फोल्ड में कवर करने वाले मानचित्र के बारे में क्या? इसमें स्केलिंग की अवधारणा शामिल है। ओएस-मैप पैमाने को एक सांख्यिकीय विवरण के रूप में मानता है कि मानचित्र में कितने सर्वोत्तम मिलान वाले नोड्स हैं।

यह भी देखें

 * ध्यान लगा के पढ़ना या सीखना
 * हाइब्रिड कोहोनेन स्व-आयोजन मानचित्र
 * वेक्टर परिमाणीकरण सीखना
 * तरल राज्य मशीन
 * नियोकॉग्निट्रोन
 * तंत्रिका गैस
 * विरल कोडिंग
 * विरल वितरित स्मृति
 * सामयिक डेटा विश्लेषण