ऑटोएन्कोडर
| Part of a series on |
| Machine learning and data mining |
|---|
| Scatterplot featuring a linear support vector machine's decision boundary (dashed line) |
एक स्वतः कूटलेखन एक प्रकार का कृत्रिम तंत्रिका जाल है जिसका उपयोग बिना लेबल वाले डेटा (अनियंत्रित शिक्षा) की कुशल कोडिंग को सीखने के लिए किया जाता है।[1][2] एक स्वतः कूटलेखन दो कार्य सीखता है: एक कूटलेखन फ़ंक्शन जो इनपुट डेटा को रूपांतरित करता है, और एक कूटवाचन फ़ंक्शन जो कूटलिखित विषयबोधक से इनपुट डेटा को फिर से बनाता है। स्वतः कूटलेखन डेटा के एक समुच्चय के लिए, सामान्यतः आयामीता में कमी के लिए कुशल कोडिंग (कूटलेखन) सीखता है,।
उपयोगी गुण ग्रहण करने के लिए सीखे गए अभ्यावेदन को बाध्य करने के उद्देश्य से परिवर्ती उपलब्ध हैं।[3]उदाहरण नियमित स्वतः कूटलेखन (विरल, डेनोइजिंग और संकोचक) हैं, जो बाद के सांख्यिकीय वर्गीकरण कार्यों के लिए सीखने के विषयबोधक में प्रभावी हैं,[4]और परिवर्तनशील स्वतः कूटलेखन, प्रजनक मॉडल के रूप में अनुप्रयोगों के साथ।[5] स्वतः कूटलेखन चेहरे की पहचान सहित कई समस्याओं पर लागू होते हैं,[6] विशेष गुण संसूचक,[7] विसंगति का पता लगाना और शब्दों का अर्थ प्राप्त करना।[8][9] स्वतः कूटलेखन भी प्रजनक मॉडल हैं जो बेतरतीब ढंग से नया डेटा उत्पन्न कर सकते हैं जो इनपुट डेटा (प्रशिक्षण डेटा) के समान है।[7]
गणितीय सिद्धांत
परिभाषा
एक स्वतः कूटलेखन को निम्नलिखित घटकों द्वारा परिभाषित किया गया है:
दो समुच्चय: डिकोड किए गए संदेशों का स्थान ; कूटलिखित संदेशों का स्थान . लगभग सदैव, दोनों और यूक्लिडियन रिक्त स्थान हैं, अर्थात्, कुछ के लिए .
कार्यों के दो पैरामीट्रिज्ड परिवार: एनकोडर परिवार , द्वारा पैरामीट्रिज्ड ; डिकोडर परिवार , द्वारा पैरामीट्रिज्ड
किसी के लिए भी , हम सामान्यतः लिखते हैं , और इसे कोड, अव्यक्त चर, अव्यक्त प्रतिनिधित्व, अव्यक्त सदिश, आदि के रूप में देखें। इसके विपरीत, किसी के लिए , हम सामान्यतः लिखते हैं , और इसे (डिकोडेड) संदेश के रूप में देखें।
सामान्यतः , एनकोडर और डिकोडर दोनों को बहुपरत परसेप्ट्रॉन के रूप में परिभाषित किया जाता है। उदाहरण के लिए, एक परत एमएलपी एनकोडर है:
कहाँ अवग्रह फलन या परिशोधित रेखीय इकाई जैसे अवयव-वार सक्रियण फलन है, एक मैट्रिक्स है जिसे वजन कहा जाता है, और एक वेक्टर है जिसे पूर्वाग्रह कहा जाता है।
एक स्वतः कूटलेखन का प्रशिक्षण
एक स्वतः कूटलेखन , अपने आप में, केवल दो कार्यों का एक टपल है। इसकी गुणवत्ता का न्याय करने के लिए, हमें एक कार्य की आवश्यकता है। एक कार्य एक संदर्भ संभाव्यता वितरण द्वारा परिभाषित किया गया है ऊपर , और एक पुनर्निर्माण गुणवत्ता समारोह , ऐसा है कि कितना मापता है से मतभेद होना .
उन के साथ, हम स्वतः कूटलेखन के लिए हानि फ़ंक्शन को परिभाषित कर सकते हैं
ज्यादातर स्थितियों में, संदर्भ वितरण केवल डेटासमुच्चय द्वारा दिया गया अनुभवजन्य माप है , ताकि
व्याख्या
एक स्वतः कूटलेखन के दो मुख्य भाग होते हैं: एक एनकोडर जो संदेश को एक कोड में मैप करता है, और एक डिकोडर जो कोड से संदेश का पुनर्निर्माण करता है। एक इष्टतम स्वतः कूटलेखन जितना संभव हो सके पूर्ण पुनर्निर्माण के करीब प्रदर्शन करेगा, पुनर्निर्माण गुणवत्ता समारोह द्वारा परिभाषित पूर्ण के करीब .
कॉपी करने के कार्य को पूरी तरह से करने का सबसे सरल तरीका सिग्नल की नकल करना होगा। इस व्यवहार को दबाने के लिए, कोड स्थान सामान्यतः संदेश स्थान की तुलना में कम आयाम होते हैं .
ऐसे स्वतः कूटलेखन को अंडरकंप्लीट कहा जाता है। इसे डेटा संपीड़न संदेश, या आयामीता में कमी के रूप में व्याख्या किया जा सकता है।[1][10]
एक आदर्श अपूर्ण स्वतः कूटलेखन की सीमा पर, हर संभव कोड कोड स्थान में किसी संदेश को एन्कोड करने के लिए उपयोग किया जाता है जो वास्तव में वितरण में दिखाई देता है , और डिकोडर भी सही है: . इस आदर्श स्वतः कूटलेखन का उपयोग इसके डिकोडर मनमाने कोड को फीड करके वास्तविक संदेशों से अप्रभेद्य संदेशों को उत्पन्न करने के लिए किया जा सकता है। और प्राप्त करना , जो एक संदेश है जो वास्तव में वितरण में प्रकट होता है .
यदि कोड स्थान इसका आयाम (अपूर्ण) से बड़ा है, या संदेश स्थान के बराबर है , या छिपी हुई इकाइयों को पर्याप्त क्षमता दी जाती है, एक स्वतः कूटलेखन पहचान समारोह सीख सकता है और बेकार हो सकता है। हालाँकि, प्रायोगिक परिणामों में पाया गया कि अधूरे स्वतः कूटलेखन में अभी भी सीखने की सुविधा हो सकती है।[11] आदर्श समुच्चय िंग में, कोड आयाम और मॉडल क्षमता को मॉडल किए जाने वाले डेटा वितरण की जटिलता के आधार पर समुच्चय किया जा सकता है। ऐसा करने का एक मानक तरीका मूल स्वतः कूटलेखन में संशोधन जोड़ना है, जिसका विवरण नीचे दिया गया है।[3]
इतिहास
क्रेमर द्वारा स्वतः कूटलेखन को पहले प्रधान घटक विश्लेषण (पीसीए) के एक गैर-रैखिक सामान्यीकरण के रूप में प्रस्तावित किया गया था।[1]स्वतः कूटलेखन को autoassociator भी कहा जाता है,[12] या डायबोलो नेटवर्क।[13][11]1990 के दशक की शुरुआत में इसके पहले आवेदन की तारीख।[3][14][15] उनका सबसे पारंपरिक अनुप्रयोग डायमेंशनलिटी रिडक्शन या विशेष गुण लर्निंग था, लेकिन डेटा के प्रजनक मॉडल सीखने के लिए इस अवधारणा का व्यापक रूप से उपयोग किया जाने लगा।[16][17] 2010 के कुछ सबसे शक्तिशाली कृत्रिम होशियारी में ध्यान लगा के पढ़ना या सीखना न्यूरल नेटवर्क के अंदर स्वतः कूटलेखन शामिल थे। रेफरी नाम = रविवार >Domingos, Pedro (2015). "4". द मास्टर एल्गोरिथम: हाउ द क्वेस्ट फॉर द अल्टीमेट लर्निंग मशीन विल रीमेक अवर वर्ल्ड. Basic Books. "Deeper into the Brain" subsection. ISBN 978-046506192-1.</ref>
रूपांतर
नियमित स्वतः कूटलेखन
स्वतः कूटलेखन को आइडेंटिटी फंक्शन सीखने से रोकने और महत्वपूर्ण सूचनाओं को कैप्चर करने और समृद्ध अभ्यावेदन सीखने की उनकी क्षमता में सुधार करने के लिए विभिन्न तकनीकें उपलब्ध हैं।
विरल स्वतः कूटलेखन (SAE)
न्यूरोसाइंस में विरल कोडिंग परिकल्पना से प्रेरित, विरल स्वतः कूटलेखन स्वतः कूटलेखन के परिवर्ती हैं, जैसे कि कोड संदेशों के लिए विरल कोड होते हैं, अर्थात, अधिकांश प्रविष्टियों में शून्य के करीब है। विरल स्वतः कूटलेखन में इनपुट की तुलना में अधिक (कम के बजाय) छिपी हुई इकाइयाँ शामिल हो सकती हैं, लेकिन एक ही समय में केवल कुछ ही छिपी हुई इकाइयों को सक्रिय होने की अनुमति है।[18]विरलता को प्रोत्साहित करने से वर्गीकरण कार्यों के प्रदर्शन में सुधार होता है।[19]
विरलता को लागू करने के दो मुख्य तरीके हैं। एक तरीका यह है कि अव्यक्त कोड की उच्चतम-के सक्रियता को छोड़कर सभी को शून्य पर दबा दिया जाए। यह k-sparse स्वतः कूटलेखन है।[20]
K-sparse स्वतः कूटलेखन एक मानक स्वतः कूटलेखन की अव्यक्त परत में निम्न k-sparse फ़ंक्शन सम्मिलित करता है:
बैकप्रोपैगेटिंग के माध्यम से सरल है: के लिए ग्रेडिएंट को 0 पर समुच्चय करें प्रविष्टियाँ, और के लिए ग्रेडिएंट रखें प्रविष्टियाँ। यह अनिवार्य रूप से एक सामान्यीकृत शुद्ध करनेवाला (तंत्रिका जाल ) कार्य है।[20]
दूसरा तरीका k-sparse स्वतः कूटलेखन का विश्राम (सन्निकटन) है। विरलता को मजबूर करने के बजाय, हम एक विरल नियमितीकरण हानि जोड़ते हैं, फिर इसके लिए अनुकूलन करते हैं
बता दें कि स्वतः कूटलेखन आर्किटेक्चर है परतें। स्पार्सिटी नियमितीकरण हानि को परिभाषित करने के लिए, हमें वांछित स्पार्सिटी की आवश्यकता होती है प्रत्येक परत के लिए, एक वजन प्रत्येक विरलता और एक समारोह को कितना लागू करना है यह मापने के लिए कि दो स्पार्सिटी में कितना अंतर है।
प्रत्येक इनपुट के लिए , प्रत्येक परत में सक्रियण की वास्तविक विरलता दें होना
इनपुट पर विरलता हानि एक परत के लिए है , और संपूर्ण स्वतः कूटलेखन के लिए विरलता नियमितीकरण हानि विरलता हानियों का अपेक्षित भारित योग है:
या L1 हानि, जैसा , या L2 नुकसान, जैसा .
वैकल्पिक रूप से, स्पार्सिटी नियमितीकरण हानि को किसी भी वांछित स्पार्सिटी के संदर्भ के बिना परिभाषित किया जा सकता है, लेकिन जितना संभव हो उतना स्पार्सिटी को बल दें। इस मामले में, एक विरल नियमितीकरण हानि के रूप में हो सकता है
डीनोइजिंग स्वतः कूटलेखन (डीएई)
Denoising स्वतः कूटलेखन (DAE) पुनर्निर्माण मानदंड को बदलकर एक अच्छा विषयबोधक प्राप्त करने का प्रयास करते हैं।[3][4]
एक डीएई को मानक स्वतः कूटलेखन में शोर प्रक्रिया जोड़कर परिभाषित किया जाता है। एक शोर प्रक्रिया को संभाव्यता वितरण द्वारा परिभाषित किया गया है कार्यों से अधिक . यानी फंक्शन संदेश लेता है , और इसे शोर वाले संस्करण में बदल देता है . कार्यक्रम संभाव्यता वितरण के साथ यादृच्छिक रूप से चुना जाता है .
एक कार्य दिया DAE के प्रशिक्षण की समस्या अनुकूलन समस्या है:
सामान्यतः , शोर प्रक्रिया केवल प्रशिक्षण और परीक्षण के दौरान लागू किया जाता है, डाउनस्ट्रीम उपयोग के दौरान नहीं।
डीएई का उपयोग दो मान्यताओं पर निर्भर करता है:
- उन संदेशों के विषयबोधक उपलब्ध हैं जो अपेक्षाकृत स्थिर हैं और हमारे द्वारा सामना किए जाने वाले शोर के प्रकार के लिए मजबूत हैं;
- उक्त विषयबोधक इनपुट वितरण में संरचनाओं को कैप्चर करते हैं जो हमारे उद्देश्यों के लिए उपयोगी होते हैं।[4]
उदाहरण शोर प्रक्रियाओं में शामिल हैं:
- योज्य आइसोट्रोपिक योगात्मक सफेद गाऊसी शोर,
- मास्किंग शोर (इनपुट का एक अंश यादृच्छिक रूप से चुना जाता है और 0 पर समुच्चय होता है)
- नमक और काली मिर्च का शोर (इनपुट का एक अंश बेतरतीब ढंग से चुना जाता है और बेतरतीब ढंग से इसके न्यूनतम या अधिकतम मूल्य पर समुच्चय किया जाता है)।[4]
संविदात्मक स्वतः कूटलेखन (सीएई)
एक संविदात्मक स्वतः कूटलेखन मानक स्वतः कूटलेखन हानि के लिए संविदात्मक नियमितीकरण हानि जोड़ता है:
डीएई को सीएई की एक अतिसूक्ष्म सीमा के रूप में समझा जा सकता है: छोटे गॉसियन इनपुट शोर की सीमा में, डीएई पुनर्निर्माण कार्य को छोटे लेकिन परिमित आकार के इनपुट गड़बड़ी का विरोध करते हैं, जबकि सीएई निकाले गए सुविधाओं को अनंत इनपुट गड़बड़ी का विरोध करते हैं।
न्यूनतम विवरण लंबाई स्वतः कूटलेखन
कंक्रीट स्वतः कूटलेखन
कंक्रीट स्वतः कूटलेखन असतत सुविधा चयन के लिए डिज़ाइन किया गया है।[25] एक ठोस स्वतः कूटलेखन अव्यक्त स्थान को केवल उपयोगकर्ता द्वारा निर्दिष्ट सुविधाओं की संख्या से युक्त करने के लिए बाध्य करता है। कंक्रीट स्वतः कूटलेखन विशेष गुण चयनकर्ता परत के माध्यम से ग्रेडियेंट को पारित करने की अनुमति देने के लिए श्रेणीबद्ध वितरण के निरंतर विश्राम (सन्निकटन) का उपयोग करता है, जो पुनर्निर्माण नुकसान को कम करने वाले इनपुट सुविधाओं के इष्टतम सबसमुच्चय को सीखने के लिए मानक backpropagation का उपयोग करना संभव बनाता है।
परिवर्तनशील स्वतः कूटलेखन (वीएई)
Variational स्वतः कूटलेखन (VAE) Variational Bayesian विधियों के परिवारों से संबंधित हैं। बुनियादी स्वतः कूटलेखन के साथ वास्तुशिल्प समानता के बावजूद, वीएई विभिन्न लक्ष्यों के साथ और पूरी तरह से अलग गणितीय सूत्रीकरण के साथ वास्तुकला हैं। अव्यक्त स्थान इस मामले में एक निश्चित वेक्टर के बजाय वितरण के मिश्रण से बना है।
एक इनपुट डेटासमुच्चय दिया गया एक अज्ञात संभाव्यता समारोह द्वारा विशेषता और एक बहुभिन्नरूपी अव्यक्त कूटलेखन वेक्टर , उद्देश्य डेटा को वितरण के रूप में मॉडल करना है , साथ नेटवर्क मापदंडों के समुच्चय के रूप में परिभाषित किया गया है ताकि .
गहराई के लाभ
स्वतः कूटलेखन को अक्सर सिंगल लेयर एनकोडर और सिंगल लेयर डिकोडर के साथ प्रशिक्षित किया जाता है, लेकिन कई लेयर्ड (डीप) एनकोडर और डिकोडर का उपयोग करने से कई फायदे मिलते हैं।[3]
- गहराई कुछ कार्यों का विषयबोधक करने की कम्प्यूटेशनल लागत को तेजी से कम कर सकती है।[3]* गहराई कुछ कार्यों को सीखने के लिए आवश्यक प्रशिक्षण डेटा की मात्रा को तेजी से कम कर सकती है।[3]* प्रयोगात्मक रूप से, गहरे स्वतः कूटलेखन उथले या रैखिक स्वतः कूटलेखन की तुलना में बेहतर संपीड़न उत्पन्न करते हैं।[10]
प्रशिक्षण
जेफ्री हिंटन ने कई-स्तरित गहरे स्वतः कूटलेखन के प्रशिक्षण के लिए गहरी विश्वास नेटवर्क तकनीक विकसित की। उनकी पद्धति में दो परतों के प्रत्येक पड़ोसी समुच्चय को एक प्रतिबंधित बोल्ट्जमान मशीन के रूप में इलाज करना शामिल है, ताकि पूर्व-प्रशिक्षण एक अच्छे समाधान का अनुमान लगा सके, फिर परिणामों को ठीक करने के लिए बैकप्रोपैजेशन का उपयोग करना।[10] शोधकर्ताओं ने इस बात पर बहस की है कि क्या संयुक्त प्रशिक्षण (यानी अनुकूलन के लिए एक वैश्विक पुनर्निर्माण उद्देश्य के साथ पूरे आर्किटेक्चर को एक साथ प्रशिक्षण देना) गहरे ऑटो-एनकोडर के लिए बेहतर होगा।[26] 2015 के एक अध्ययन से पता चला है कि संयुक्त प्रशिक्षण परतवार विधि की तुलना में वर्गीकरण के लिए अधिक प्रतिनिधि सुविधाओं के साथ बेहतर डेटा मॉडल सीखता है।[26]हालांकि, उनके प्रयोगों से पता चला है कि संयुक्त प्रशिक्षण की सफलता अपनाई गई नियमितीकरण रणनीतियों पर बहुत अधिक निर्भर करती है।[26][27]
अनुप्रयोग
स्वतः कूटलेखन के दो मुख्य अनुप्रयोग हैं आयामीता में कमी और सूचना पुनर्प्राप्ति,[3] लेकिन आधुनिक विविधताओं को अन्य कार्यों में लागू किया गया है।
आयाम में कमी
आयामीता में कमी पहले गहन शिक्षण अनुप्रयोगों में से एक थी।[3]
हिंटन के 2006 के अध्ययन के लिए,[10]उन्होंने प्रतिबंधित बोल्ट्जमैन मशीन के ढेर के साथ एक बहु-परत स्वतः कूटलेखन का पूर्व-प्रशिक्षण दिया और फिर 30 न्यूरॉन्स की बाधा को मारने तक धीरे-धीरे छोटी छिपी परतों के साथ एक गहरे स्वतः कूटलेखन को प्रारंभ करने के लिए अपने वजन का उपयोग किया। कोड के परिणामी 30 आयामों ने एक प्रमुख घटक विश्लेषण (पीसीए) के पहले 30 घटकों की तुलना में एक छोटी पुनर्निर्माण त्रुटि उत्पन्न की, और एक विषयबोधक सीखा जो व्याख्या करने के लिए गुणात्मक रूप से आसान था, डेटा समूहों को स्पष्ट रूप से अलग करना।[3][10]
आयामों का विषयबोधक वर्गीकरण जैसे कार्यों पर प्रदर्शन में सुधार कर सकता है।[3]दरअसल, आयामीता में कमी की पहचान शब्दार्थ से संबंधित उदाहरणों को एक दूसरे के पास रखना है।[29]
प्रमुख घटक विश्लेषण
यदि रैखिक सक्रियण का उपयोग किया जाता है, या केवल एक सिग्मॉइड छिपी हुई परत होती है, तो एक स्वतः कूटलेखन का इष्टतम समाधान प्रमुख घटक विश्लेषण (पीसीए) से दृढ़ता से संबंधित होता है।[30][31] आकार की एक छिपी हुई परत के साथ एक स्वतः कूटलेखन का वजन (कहाँ इनपुट के आकार से कम है) उसी वेक्टर सबस्पेस को फैलाते हैं जो पहले द्वारा फैलाया गया था प्रमुख घटक, और स्वतः कूटलेखन का आउटपुट इस उप-स्थान पर एक ऑर्थोगोनल प्रक्षेपण है। स्वतः कूटलेखन वजन प्रमुख घटकों के बराबर नहीं होते हैं, और आम तौर पर ऑर्थोगोनल नहीं होते हैं, फिर भी एकवचन मूल्य अपघटन का उपयोग करके मुख्य घटकों को उनसे पुनर्प्राप्त किया जा सकता है।[32]
हालांकि, स्वतः कूटलेखन की क्षमता उनकी गैर-रैखिकता में रहती है, जिससे मॉडल को पीसीए की तुलना में अधिक शक्तिशाली सामान्यीकरण सीखने की अनुमति मिलती है, और काफी कम सूचना हानि के साथ इनपुट का पुनर्निर्माण करने की अनुमति मिलती है।[10]
सूचना पुनर्प्राप्ति
सूचना पुनर्प्राप्ति लाभ विशेष रूप से उस खोज में आयामीता में कमी से कुछ प्रकार के निम्न आयामी स्थानों में अधिक कुशल हो सकते हैं। 2007 में Russ Salakhutdinov और Hinton द्वारा प्रस्तावित सिमेंटिक हैशिंग के लिए स्वतः कूटलेखन वास्तव में लागू किए गए थे।[29]कम-आयामी बाइनरी कोड बनाने के लिए एल्गोरिदम को प्रशिक्षित करके, सभी डेटाबेस प्रविष्टियों को हैश तालिका मैपिंग बाइनरी कोड वैक्टर में प्रविष्टियों में संग्रहीत किया जा सकता है। यह तालिका तब क्वेरी के समान बाइनरी कोड वाली सभी प्रविष्टियों को लौटाकर या क्वेरी कूटलेखन से कुछ बिट्स को फ़्लिप करके थोड़ी कम समान प्रविष्टियों को वापस करके सूचना पुनर्प्राप्ति का समर्थन करेगी।
विसंगति का पता लगाना
स्वतः कूटलेखन के लिए एक अन्य एप्लिकेशन विसंगति का पता लगाना है।[2][33][34][35][36][37] पहले वर्णित कुछ बाधाओं के तहत प्रशिक्षण डेटा में सबसे मुख्य विशेषताओं को दोहराने के लिए सीखकर, मॉडल को सबसे अधिक बार देखी जाने वाली विशेषताओं को सटीक रूप से पुन: उत्पन्न करने के लिए सीखने के लिए प्रोत्साहित किया जाता है। विसंगतियों का सामना करते समय, मॉडल को अपने पुनर्निर्माण के प्रदर्शन को खराब करना चाहिए। ज्यादातर मामलों में, स्वतः कूटलेखन को प्रशिक्षित करने के लिए केवल सामान्य उदाहरणों वाले डेटा का उपयोग किया जाता है; दूसरों में, अवलोकन समुच्चय की तुलना में विसंगतियों की आवृत्ति कम होती है ताकि सीखा विषयबोधक में इसके योगदान को अनदेखा किया जा सके। प्रशिक्षण के बाद, अपरिचित असंगत डेटा के साथ ऐसा करने में विफल होने पर, स्वतः कूटलेखन सामान्य डेटा को सटीक रूप से पुनर्निर्माण करेगा।[35]पुनर्निर्माण त्रुटि (मूल डेटा और इसके निम्न आयामी पुनर्निर्माण के बीच की त्रुटि) का उपयोग विसंगतियों का पता लगाने के लिए एक विसंगति स्कोर के रूप में किया जाता है।[35]
हाल के साहित्य ने हालांकि दिखाया है कि कुछ ऑटोकूटलेखन मॉडल, विपरीत रूप से, विषम उदाहरणों के पुनर्निर्माण में बहुत अच्छे हो सकते हैं और फलस्वरूप विसंगति का पता लगाने में सक्षम नहीं हो सकते हैं।[38][39]
इमेज प्रोसेसिंग
इमेज प्रोसेसिंग में स्वतः कूटलेखन की विशेषताएँ उपयोगी होती हैं।
एक उदाहरण हानिपूर्ण छवि संपीड़न में पाया जा सकता है, जहां स्वतः कूटलेखन ने अन्य तरीकों से बेहतर प्रदर्शन किया और जेपीईजी 2000 के खिलाफ प्रतिस्पर्धी साबित हुए।[40][41] इमेज प्रीप्रोसेसिंग में स्वतः कूटलेखन का एक अन्य उपयोगी अनुप्रयोग छवि denoising है।[42][43][44] स्वतः कूटलेखन को अधिक मांग वाले संदर्भों में उपयोग किया जाता है जैसे कि मेडिकल इमेजिंग जहां उनका उपयोग इमेज डीनोइज़िंग के लिए किया गया है[45] साथ ही सुपर संकल्प[46][47] छवि-सहायता निदान में, प्रयोगों ने स्तन कैंसर का पता लगाने के लिए स्वतः कूटलेखन लागू किया है[48] और अल्जाइमर रोग के संज्ञानात्मक गिरावट और एमआरआई के साथ प्रशिक्षित एक स्वतः कूटलेखन की गुप्त विशेषताओं के बीच संबंध मॉडलिंग के लिए।[49]
दवा की खोज
2019 में वैरिएंटल स्वतः कूटलेखन के साथ उत्पन्न अणुओं को चूहों में प्रयोगात्मक रूप से मान्य किया गया था।[50][51]
लोकप्रियता भविष्यवाणी
हाल ही में, एक स्टैक्ड स्वतः कूटलेखन ढांचे ने सोशल मीडिया पोस्ट की लोकप्रियता की भविष्यवाणी करने में आशाजनक परिणाम उत्पन्न किए,[52] जो ऑनलाइन विज्ञापन रणनीतियों के लिए सहायक है।
मशीनी अनुवाद
मशीनी अनुवाद के लिए स्वतः कूटलेखन लागू किया गया है, जिसे सामान्यतः [[ तंत्रिका मशीन अनुवाद ]] (NMT) के रूप में जाना जाता है।[53][54] पारंपरिक स्वतः कूटलेखन के विपरीत, आउटपुट इनपुट से मेल नहीं खाता - यह दूसरी भाषा में है। एनएमटी में, ग्रंथों को सीखने की प्रक्रिया में एन्कोड किए जाने वाले अनुक्रमों के रूप में माना जाता है, जबकि लक्ष्य भाषा (भाषाओं) में डिकोडर साइड अनुक्रम उत्पन्न होते हैं। भाषा-विशिष्ट स्वतः कूटलेखन सीखने की प्रक्रिया में और अधिक भाषाई विशेषताओं को शामिल करते हैं, जैसे कि चीनी अपघटन सुविधाएँ।[55] मशीन अनुवाद अभी भी शायद ही कभी स्वतः कूटलेखन के साथ किया जाता है, बल्कि ट्रांसफार्मर (मशीन लर्निंग मॉडल) नेटवर्क के साथ किया जाता है।
यह भी देखें
- विषयबोधक सीखना
- विरल शब्दकोश सीखने
- ध्यान लगा के पढ़ना या सीखना
संदर्भ
- ↑ 1.0 1.1 1.2 Kramer, Mark A. (1991). "ऑटोएसोसिएटिव न्यूरल नेटवर्क का उपयोग करते हुए नॉनलाइनियर प्रिंसिपल कंपोनेंट एनालिसिस" (PDF). AIChE Journal. 37 (2): 233–243. doi:10.1002/aic.690370209.
- ↑ 2.0 2.1 Kramer, M. A. (1992-04-01). "Autoassociative तंत्रिका नेटवर्क". Computers & Chemical Engineering. Neutral network applications in chemical engineering (in English). 16 (4): 313–328. doi:10.1016/0098-1354(92)80051-A. ISSN 0098-1354.
- ↑ 3.00 3.01 3.02 3.03 3.04 3.05 3.06 3.07 3.08 3.09 3.10 Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). ध्यान लगा के पढ़ना या सीखना. MIT Press. ISBN 978-0262035613.
- ↑ 4.0 4.1 4.2 4.3 Vincent, Pascal; Larochelle, Hugo (2010). "Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion". Journal of Machine Learning Research. 11: 3371–3408.
- ↑ Welling, Max; Kingma, Diederik P. (2019). "परिवर्तनशील ऑटोएन्कोडर का परिचय". Foundations and Trends in Machine Learning. 12 (4): 307–392. arXiv:1906.02691. Bibcode:2019arXiv190602691K. doi:10.1561/2200000056. S2CID 174802445.
- ↑ Hinton GE, Krizhevsky A, Wang SD. Transforming auto-encoders. In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.
- ↑ 7.0 7.1 Géron, Aurélien (2019). स्किकिट-लर्न, केरस और टेंसरफ्लो के साथ हैंड्स-ऑन मशीन लर्निंग. Canada: O’Reilly Media, Inc. pp. 739–740.
- ↑ Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). "Elman नेटवर्क का उपयोग करके मॉडलिंग शब्द धारणा". Neurocomputing. 71 (16–18): 3150. doi:10.1016/j.neucom.2008.04.030.
- ↑ Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). "शब्दों के लिए ऑटोएन्कोडर". Neurocomputing. 139: 84–96. doi:10.1016/j.neucom.2013.09.055.
- ↑ 10.0 10.1 10.2 10.3 10.4 10.5 Hinton, G. E.; Salakhutdinov, R.R. (2006-07-28). "न्यूरल नेटवर्क्स के साथ डेटा की डायमेंशनलिटी को कम करना". Science. 313 (5786): 504–507. Bibcode:2006Sci...313..504H. doi:10.1126/science.1127647. PMID 16873662. S2CID 1658773.
- ↑ 11.0 11.1 Bengio, Y. (2009). "एआई के लिए डीप आर्किटेक्चर सीखना" (PDF). Foundations and Trends in Machine Learning. 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550. doi:10.1561/2200000006. PMID 23946944.
- ↑ Japkowicz, Nathalie; Hanson, Stephen José; Gluck, Mark A. (2000-03-01). "नॉनलाइनियर ऑटोएसोसिएशन पीसीए के समतुल्य नहीं है". Neural Computation. 12 (3): 531–545. doi:10.1162/089976600300015691. ISSN 0899-7667. PMID 10769321. S2CID 18490972.
- ↑ Schwenk, Holger; Bengio, Yoshua (1997). "तंत्रिका नेटवर्क के अनुकूली बूस्टिंग के लिए प्रशिक्षण के तरीके". Advances in Neural Information Processing Systems. MIT Press. 10.
- ↑ Schmidhuber, Jürgen (January 2015). "Deep learning in neural networks: An overview". Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
- ↑ Hinton, G. E., & Zemel, R. S. (1994). Autoencoders, minimum description length and Helmholtz free energy. In Advances in neural information processing systems 6 (pp. 3-10).
- ↑ Diederik P Kingma; Welling, Max (2013). "ऑटो-एन्कोडिंग वेरिएशनल बेज़". arXiv:1312.6114 [stat.ML].
- ↑ मशाल के साथ चेहरे बनाना, बोसेन ए, लार्सन एल और सोंडरबी एसके, 2015 {{url|http://torch.ch/blog/2015/11/13/gan.html}
- ↑ Cite error: Invalid
<ref>tag; no text was provided for refs nameddomingos - ↑ 19.0 19.1 Frey, Brendan; Makhzani, Alireza (2013-12-19). "के-स्पार्स ऑटोएन्कोडर्स". arXiv:1312.5663. Bibcode:2013arXiv1312.5663M.
{{cite journal}}: Cite journal requires|journal=(help) - ↑ 20.0 20.1 Makhzani, Alireza; Frey, Brendan (2013). "के-स्पार्स ऑटोएन्कोडर". arXiv:1312.5663 [cs.LG].
- ↑ 21.0 21.1 Ng, A. (2011). Sparse autoencoder. CS294A Lecture notes, 72(2011), 1-19.
- ↑ Nair, Vinod; Hinton, Geoffrey E. (2009). "3D Object Recognition with Deep Belief Nets". Proceedings of the 22nd International Conference on Neural Information Processing Systems. NIPS'09. USA: Curran Associates Inc.: 1339–1347. ISBN 9781615679119.
- ↑ Zeng, Nianyin; Zhang, Hong; Song, Baoye; Liu, Weibo; Li, Yurong; Dobaie, Abdullah M. (2018-01-17). "गहरे विरल ऑटोएन्कोडर्स सीखने के माध्यम से चेहरे की अभिव्यक्ति की पहचान". Neurocomputing. 273: 643–649. doi:10.1016/j.neucom.2017.08.043. ISSN 0925-2312.
- ↑ Hinton, Geoffrey E; Zemel, Richard (1993). "Autoencoders, न्यूनतम विवरण लंबाई और Helmholtz मुक्त ऊर्जा". Advances in Neural Information Processing Systems. Morgan-Kaufmann. 6.
- ↑ Abid, Abubakar; Balin, Muhammad Fatih; Zou, James (2019-01-27). "अलग-अलग फ़ीचर चयन और पुनर्निर्माण के लिए कंक्रीट ऑटोएनकोडर". arXiv:1901.09346 [cs.LG].
- ↑ 26.0 26.1 26.2 Zhou, Yingbo; Arpit, Devansh; Nwogu, Ifeoma; Govindaraju, Venu (2014). "Is Joint Training Better for Deep Auto-Encoders?". arXiv:1405.1380 [stat.ML].
- ↑ R. Salakhutdinov and G. E. Hinton, “Deep boltzmann machines,” in AISTATS, 2009, pp. 448–455.
- ↑ 28.0 28.1 "फैशन एमएनआईएसटी". GitHub. 2019-07-12.
- ↑ 29.0 29.1 Salakhutdinov, Ruslan; Hinton, Geoffrey (2009-07-01). "सिमेंटिक हैशिंग". International Journal of Approximate Reasoning. Special Section on Graphical Models and Information Retrieval. 50 (7): 969–978. doi:10.1016/j.ijar.2008.11.006. ISSN 0888-613X.
- ↑ Bourlard, H.; Kamp, Y. (1988). "बहुपरत परसेप्ट्रॉन और विलक्षण मूल्य अपघटन द्वारा ऑटो-एसोसिएशन". Biological Cybernetics. 59 (4–5): 291–294. doi:10.1007/BF00332918. PMID 3196773. S2CID 206775335.
- ↑ Chicco, Davide; Sadowski, Peter; Baldi, Pierre (2014). "Deep autoencoder neural networks for gene ontology annotation predictions". Proceedings of the 5th ACM Conference on Bioinformatics, Computational Biology, and Health Informatics - BCB '14. p. 533. doi:10.1145/2649387.2649442. hdl:11311/964622. ISBN 9781450328944. S2CID 207217210.
- ↑ Plaut, E (2018). "लीनियर ऑटोएन्कोडर के साथ प्रिंसिपल सबस्पेस से लेकर प्रिंसिपल कंपोनेंट्स तक". arXiv:1804.10253 [stat.ML].
- ↑ Morales-Forero, A.; Bassetto, S. (December 2019). "Case Study: A Semi-Supervised Methodology for Anomaly Detection and Diagnosis". 2019 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM). Macao, Macao: IEEE: 1031–1037. doi:10.1109/IEEM44572.2019.8978509. ISBN 978-1-7281-3804-6. S2CID 211027131.
- ↑ Sakurada, Mayu; Yairi, Takehisa (December 2014). "गैर-रैखिक आयाम में कमी के साथ ऑटोएन्कोडर का उपयोग करके विसंगति का पता लगाना". Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis - MLSDA'14 (in English). Gold Coast, Australia QLD, Australia: ACM Press: 4–11. doi:10.1145/2689746.2689747. ISBN 978-1-4503-3159-3. S2CID 14613395.
- ↑ 35.0 35.1 35.2 An, J., & Cho, S. (2015). Variational Autoencoder based Anomaly Detection using Reconstruction Probability. Special Lecture on IE, 2, 1-18.
- ↑ Zhou, Chong; Paffenroth, Randy C. (2017-08-04). "मजबूत डीप ऑटोएन्कोडर के साथ विसंगति का पता लगाना". Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (in English). Halifax NS Canada: ACM: 665–674. doi:10.1145/3097983.3098052. ISBN 978-1-4503-4887-4. S2CID 207557733.
- ↑ Ribeiro, Manassés; Lazzaretti, André Eugênio; Lopes, Heitor Silvério (2018). "वीडियो में विसंगति का पता लगाने के लिए डीप कन्वेन्शनल ऑटो-एनकोडर का अध्ययन". Pattern Recognition Letters. 105: 13–22. Bibcode:2018PaReL.105...13R. doi:10.1016/j.patrec.2017.07.016.
- ↑ Nalisnick, Eric; Matsukawa, Akihiro; Teh, Yee Whye; Gorur, Dilan; Lakshminarayanan, Balaji (2019-02-24). "Do Deep Generative Models Know What They Don't Know?". arXiv:1810.09136 [stat.ML].
- ↑ Xiao, Zhisheng; Yan, Qing; Amit, Yali (2020). "Likelihood Regret: An Out-of-Distribution Detection Score For Variational Auto-encoder". Advances in Neural Information Processing Systems (in English). 33. arXiv:2003.02977.
- ↑ Theis, Lucas; Shi, Wenzhe; Cunningham, Andrew; Huszár, Ferenc (2017). "कंप्रेसिव ऑटोएन्कोडर्स के साथ हानिपूर्ण छवि संपीड़न". arXiv:1703.00395 [stat.ML].
- ↑ Balle, J; Laparra, V; Simoncelli, EP (April 2017). "End-to-end optimized image compression". लर्निंग रिप्रेजेंटेशन पर अंतर्राष्ट्रीय सम्मेलन. arXiv:1611.01704.
- ↑ Cho, K. (2013, February). Simple sparsification improves sparse denoising autoencoders in denoising highly corrupted images. In International Conference on Machine Learning (pp. 432-440).
- ↑ Cho, Kyunghyun (2013). "इमेज डीनॉइज़िंग के लिए बोल्ट्जमैन मशीनें और डीनोइज़िंग ऑटोएनकोडर्स". arXiv:1301.3468 [stat.ML].
- ↑ Buades, A.; Coll, B.; Morel, J. M. (2005). "एक नए के साथ इमेज डेनोइजिंग एल्गोरिदम की समीक्षा". Multiscale Modeling & Simulation. 4 (2): 490–530. doi:10.1137/040616024. S2CID 218466166.
- ↑ Gondara, Lovedeep (December 2016). "कनवॉल्यूशनल डीनोइज़िंग ऑटोएनकोडर्स का उपयोग करके मेडिकल इमेज डीनोइज़िंग". 2016 IEEE 16th International Conference on Data Mining Workshops (ICDMW). Barcelona, Spain: IEEE: 241–246. arXiv:1608.04667. Bibcode:2016arXiv160804667G. doi:10.1109/ICDMW.2016.0041. ISBN 9781509059102. S2CID 14354973.
- ↑ Zeng, Kun; Yu, Jun; Wang, Ruxin; Li, Cuihua; Tao, Dacheng (January 2017). "सिंगल इमेज सुपर-रिज़ॉल्यूशन के लिए युग्मित डीप ऑटोएन्कोडर". IEEE Transactions on Cybernetics. 47 (1): 27–37. doi:10.1109/TCYB.2015.2501373. ISSN 2168-2267. PMID 26625442. S2CID 20787612.
- ↑ Tzu-Hsi, Song; Sanchez, Victor; Hesham, EIDaly; Nasir M., Rajpoot (2017). "अस्थि मज्जा ट्रेफिन बायोप्सी छवियों में विभिन्न प्रकार की कोशिकाओं का पता लगाने के लिए कर्वेचर गॉसियन के साथ हाइब्रिड डीप ऑटोएनकोडर". 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI 2017): 1040–1043. doi:10.1109/ISBI.2017.7950694. ISBN 978-1-5090-1172-8. S2CID 7433130.
- ↑ Xu, Jun; Xiang, Lei; Liu, Qingshan; Gilmore, Hannah; Wu, Jianzhong; Tang, Jinghai; Madabhushi, Anant (January 2016). "स्तन कैंसर हिस्टोपैथोलॉजी छवियों पर नाभिक जांच के लिए स्टैक्ड स्पार्स ऑटोएन्कोडर (एसएसएई)". IEEE Transactions on Medical Imaging. 35 (1): 119–130. doi:10.1109/TMI.2015.2458702. PMC 4729702. PMID 26208307.
- ↑ Martinez-Murcia, Francisco J.; Ortiz, Andres; Gorriz, Juan M.; Ramirez, Javier; Castillo-Barnes, Diego (2020). "Studying the Manifold Structure of Alzheimer's Disease: A Deep Learning Approach Using Convolutional Autoencoders". IEEE Journal of Biomedical and Health Informatics. 24 (1): 17–26. doi:10.1109/JBHI.2019.2914970. PMID 31217131. S2CID 195187846.
- ↑ Zhavoronkov, Alex (2019). "डीप लर्निंग शक्तिशाली DDR1 किनेज अवरोधकों की तेजी से पहचान को सक्षम बनाता है". Nature Biotechnology. 37 (9): 1038–1040. doi:10.1038/s41587-019-0224-x. PMID 31477924. S2CID 201716327.
- ↑ Gregory, Barber. "एआई द्वारा डिज़ाइन किया गया एक अणु 'ड्रगलाइक' गुण प्रदर्शित करता है". Wired.
- ↑ De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). "Predicting the popularity of instagram posts for a lifestyle magazine using deep learning". 2017 2nd IEEE International Conference on Communication Systems, Computing and IT Applications (CSCITA). pp. 174–177. doi:10.1109/CSCITA.2017.8066548. ISBN 978-1-5090-4381-1. S2CID 35350962.
- ↑ Cho, Kyunghyun; Bart van Merrienboer; Bahdanau, Dzmitry; Bengio, Yoshua (2014). "On the Properties of Neural Machine Translation: Encoder-Decoder Approaches". arXiv:1409.1259 [cs.CL].
- ↑ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). "तंत्रिका नेटवर्क के साथ सीक्वेंस टू सीक्वेंस लर्निंग". arXiv:1409.3215 [cs.CL].
- ↑ Han, Lifeng; Kuang, Shaohui (2018). "Incorporating Chinese Radicals into Neural Machine Translation: Deeper Than Character Level". arXiv:1805.01565 [cs.CL].