नाँलेज ग्राफ एम्बेडिंग: Difference between revisions

From Vigyanwiki
 
(No difference)

Latest revision as of 22:14, 18 December 2023

नाँलेज ग्राफ का एम्बेडिंग। एम्बेडिंग और संबंधों के सदिश प्रतिनिधित्व का उपयोग विभिन्न मशीन सीखने के अनुप्रयोगों के लिए किया जा सकता है।

प्रतिनिधित्व शिक्षण में, नाँलेज ग्राफ एम्बेडिंग (KGE), जिसे नाँलेज प्रतिनिधित्व शिक्षण (KRL), या बहु-संबंध शिक्षण भी कहा जाता है,[1] नाँलेज ग्राफ की एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को संरक्षित करते हुए उनके निम्न-आयामी प्रतिनिधित्व को सीखने का एक मशीन सीखने का क्रिया है।[1][2][3] उनके एम्बेडिंग प्रतिनिधित्व का लाभ उठाते हुए, नाँलेज ग्राफ़ (केजी) का उपयोग लिंक भविष्यवाणी, ट्रिपल वर्गीकरण, इकाई मान्यता, क्लस्टर विश्लेषण और संबंध निष्कर्षण जैसे विभिन्न अनुप्रयोगों के लिए किया जा सकता है।[1][4]

परिभाषा

इस प्रकार से एक नाँलेज ग्राफ इकाई , संबंध , और तथ्य का एक संग्रह है।[5] एक तथ्य एक ट्रिपल है जो ट्रिपल के शीर्ष और पुंछ के बीच एक लिंक को दर्शाता है। इस प्रकार से एक अन्य संकेतन जो प्रायः साहित्य में ट्रिपल (या तथ्य) का प्रतिनिधित्व करने के लिए उपयोग किया जाता है अर्थात । इस नोटेशन को संसाधन विवरण संरचना (आरडीएफ) कहा जाता है।[1][5] एक नाँलेज ग्राफ़ विशिष्ट डोमेन से संबंधित नाँलेज का प्रतिनिधित्व करता है; इस संरचित प्रतिनिधित्व का लाभ उठाते हुए, कुछ शोधन चरणों के बाद इससे नवीन नाँलेज का अनुमान लगाना संभव है।[6] यद्यपि, आजकल, लोगों को वास्तविक संसार के एप्लिकेशन में उनका उपयोग करने के लिए डेटा की विरलता और कम्प्यूटेशनल अक्षमता से निपटना पड़ता है।[3][7]

अतः नाँलेज ग्राफ का एम्बेडिंग प्रत्येक इकाई और नाँलेज ग्राफ के संबंध, को किसी दिए गए आयाम , के सदिश में अनुवादित करता है, जिसे एम्बेडिंग आयाम कहा जाता है।[7] सामान्य स्थिति में, हमारे निकट इकाई और संबंध के लिए अलग-अलग एम्बेडिंग आयाम हो सकते हैं।[7] नाँलेज ग्राफ में सभी एम्बेडिंग और संबंधों के लिए एम्बेडिंग सदिश का संग्रह तब डाउनस्ट्रीम क्रियाओं के लिए पूर्ण रूप से उपयोग किया जा सकता है।

इस प्रकार से एक नाँलेज ग्राफ़ एम्बेडिंग को चार अलग-अलग निम्नलिखित गुणों की विशेषता है:[1]

  1. प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।[1]
  2. स्कोरिंग फलन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का एक उपाय है।[1]
  3. एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।[1]
  4. अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।[1] सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फलन को सामान्य स्कोरिंग फलन में पूर्ण रूप से एकीकृत किया जाता है।[5][1][8]

एंबेडिंग प्रक्रिया

अतः सभी अलग-अलग नाँलेज ग्राफ एम्बेडिंग मॉडल तथ्यों के अर्थपूर्ण अर्थ को जानने के लिए लगभग एक ही प्रक्रिया का पालन करते हैं।[7] सबसे पहले, नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व को सीखने के लिए, एम्बेडिंग और संबंधों के एम्बेडिंग सदिश को यादृच्छिक मानों के लिए प्रारंभ किया जाता है।[7] फिर, प्रशिक्षण सेट से प्रारंभ करके स्टॉप स्थिति तक पहुंचने तक, एल्गोरिदम निरंतर एम्बेडिंग को अनुकूलित करता है।[7] सामान्यतः, स्टॉप की स्थिति प्रशिक्षण सेट पर ओवरफिटिंग द्वारा दी जाती है।[7] प्रत्येक पुनरावृत्ति के लिए, प्रशिक्षण सेट से आकार के एक बैच का प्रतिदर्श लिया जाता है, और बैच के प्रत्येक ट्रिपल के लिए एक यादृच्छिक भ्रष्ट तथ्य का प्रतिदर्श लिया जाता है—अर्थात, ट्रिपल जो नाँलेज ग्राफ में उचित तथ्य का प्रतिनिधित्व नहीं करता है।[7] ट्रिपल के भ्रष्टाचार में ट्रिपल के शीर्ष या पूंछ (या दोनों) को किसी अन्य इकाई के साथ प्रतिस्थापित करना सम्मिलित है जो तथ्य को अनुचित बनाता है।[7] इस प्रकार से मूल ट्रिपल और दूषित ट्रिपल को प्रशिक्षण बैच में जोड़ा जाता है, और फिर स्कोरिंग फलन को अनुकूलित करते हुए एम्बेडिंग को अपडेट किया जाता है।[5][7] एल्गोरिदम के अंत में, सीखे गए एम्बेडिंग को ट्रिपल से अर्थपूर्ण अर्थ निकालना चाहिए और नाँलेज ग्राफ में अनदेखे उचित तथ्यों की उचित भविष्यवाणी करनी चाहिए।[5]

स्यूडोकोड

इस प्रकार से सामान्य एम्बेडिंग प्रक्रिया के लिए छद्मकोड निम्नलिखित है।[9][7]

algorithm Compute entity and relation embeddings is
   input: The training set , 
           entity set , 
           relation set ,     
           embedding dimension 
    output: Entity and relation embeddings

    initialization: the entities  and relations  embeddings (vectors) are randomly initialized

    while stop condition do
         // From the training set randomly sample a batch of size b
        for each  in  do
              // sample a corrupted fact of triple
             
        end for
        Update embeddings by minimizing the loss function
    end while

परफॉरमेंस संकेतक

अतः इन सूचकांकों का उपयोग प्रायः किसी मॉडल की एम्बेडिंग गुणवत्ता को मापने के लिए किया जाता है। सूचकांकों की सरलता उन्हें बड़े पैमाने पर भी एम्बेडिंग एल्गोरिदम के परफॉरमेंस का मूल्यांकन करने के लिए बहुत उपयुक्त बनाती है।[10] इस प्रकार से किसी मॉडल की सभी पद की गई भविष्यवाणियों के सेट के रूप में को देखते हुए, तीन अलग-अलग परफॉरमेंस सूचकांकों को परिभाषित करना संभव है: Hits@K, MR, और MRR।[10]

Hits@K

Hits@K या संक्षेप में, H@K, परफॉरमेंस सूचकांक है जो पहले शीर्ष के मॉडल भविष्यवाणियों में उचित भविष्यवाणी खोजने की संभावना को मापता है।[10] सामान्यतः इसका प्रयोग किया जाता है।[10] इस प्रकार से Hits@K दो दिए गए ट्रिपल के बीच संबंध की उचित भविष्यवाणी करने के लिए एम्बेडिंग मॉडल की यथार्थता को दर्शाता है।[10]

Hits@K

बड़े मानों का अर्थ स्पष्ट अनुमानित परफॉरमेंस है।[10]

औसत पद (एमआर)

औसत पद सभी संभावित वस्तुओं के बीच मॉडल द्वारा अनुमानित वस्तुओं की औसत पद स्थिति है।[10]

अतः मान जितना छोटा होगा, मॉडल उतना ही स्पष्ट होगा।[10]

माध्य पारस्परिक पद (एमआरआर)

माध्य पारस्परिक पद उचित रूप से अनुमानित ट्रिपल की संख्या को मापता है।[10] यदि पहला अनुमानित ट्रिपल उचित है, तो 1 जोड़ा जाता है, यदि दूसरा उचित है तो का योग किया जाता है, और इसी प्रकार।[10]

अतः औसत पारस्परिक पद का उपयोग सामान्यतः खोज एल्गोरिदम के प्रभाव को मापने के लिए किया जाता है।[10]

इस प्रकार से सूचकांक जितना बड़ा होगा, मॉडल उतना ही स्पष्ट होगा।[10]

अनुप्रयोग

मशीन लर्निंग क्रिया

अतः नाँलेज ग्राफ पूर्णता (केजीसी) एम्बेडेड नाँलेज ग्राफ प्रतिनिधित्व से नाँलेज का अनुमान लगाने के लिए तकनीकों का संग्रह है।[11] विशेष रूप से, यह तकनीक लुप्त इकाई या संबंध का अनुमान लगाते हुए ट्रिपल को पूर्ण करती है।[11] संबंधित उप-क्रियाओं को लिंक या इकाई भविष्यवाणी (अर्थात, ट्रिपल की दूसरी इकाई और संबंध को देखते हुए एम्बेडिंग से इकाई का अनुमान लगाना), और संबंध भविष्यवाणी (अर्थात, दो इकाइयों को जोड़ने वाले सबसे प्रशंसनीय संबंध की भविष्यवाणी करना) नाम दिया गया है।[11]

इस प्रकार से ट्रिपल वर्गीकरण द्विआधारी वर्गीकरण समस्या है।[1] एक ट्रिपल को देखते हुए, प्रशिक्षित मॉडल एम्बेडिंग का उपयोग करके ट्रिपल की संभाव्यता का मूल्यांकन करता है ताकि यह निर्धारित किया जा सके कि ट्रिपल उचित है या अनुचित।[11] अतः निर्णय मॉडल स्कोर फलन और दी गई सीमा के साथ किया जाता है।[11] क्लस्टरिंग अन्य एप्लिकेशन है जो 2डी स्पेस में समान सिमेंटिक इकाइयों के प्रतिनिधित्व को संक्षिप्त करने के लिए विरल नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व का पूर्ण रूप से लाभ उठाता है।[4]

वास्तविक संसार के अनुप्रयोग

कई अनुप्रयोगों में नाँलेज ग्राफ एम्बेडिंग का उपयोग तीव्र से व्यापक हो रहा है। अतः अनुशंसा प्रणाली की स्थिति में, नाँलेज ग्राफ एम्बेडिंग का उपयोग सामान्य सुदृढीकरण सीखने की सीमाओं को दूर कर सकता है।[12][13] इस प्रकार की अनुशंसा प्रणाली को प्रशिक्षित करने के लिए उपयोगकर्ताओं से भारी मात्रा में सूचना की आवश्यकता होती है; यद्यपि, नाँलेज ग्राफ़ तकनीकें आइटम सहसंबंध के पूर्व नाँलेज पर पहले से ही बनाए गए ग्राफ़ का उपयोग करके और उससे अनुशंसा का अनुमान लगाने के लिए एम्बेडिंग का उपयोग करके इस समस्या को पूर्ण रूप से हल कर सकती हैं।[12] इस प्रकार से औषधि पुनर्प्रयोजन पहले से ही अनुमोदित औषधि का उपयोग है,परंतु चिकित्सीय उद्देश्य के लिए उस उद्देश्य से भिन्न होता है जिसके लिए इसे प्रारंभ में डिज़ाइन किया गया था।[14] बड़े पैमाने पर साहित्य और जैव चिकित्सा डेटाबेस की उपलब्धता का लाभ उठाकर निर्मित जैव चिकित्सा नाँलेज ग्राफ का उपयोग करके पहले से स्थित औषधि और बीमारी के बीच नवीन संबंध का अनुमान लगाने के लिए लिंक भविष्यवाणी के क्रिया का उपयोग करना संभव है।[14] अतः नाँलेज ग्राफ एम्बेडिंग का उपयोग सामाजिक राजनीति के क्षेत्र में भी किया जा सकता है।[4]

मॉडल

कुछ नाँलेज ग्राफ एम्बेडिंग मॉडल की प्रकाशन समयरेखा। लाल रंग में टेंसर अपघटन मॉडल, नीले रंग में ज्यामितीय मॉडल और हरे रंग में गहन शिक्षण मॉडल। RESCAL[15] (2011) पहला आधुनिक केजीई दृष्टिकोण था। इसमें[16] YAGO नाँलेज ग्राफ को लागू किया गया था। यह बड़े पैमाने पर नाँलेज ग्राफ के लिए KGE का पहला अनुप्रयोग था।

इस प्रकार से ट्रिपल (या तथ्यों) के संग्रह को देखते हुए, नाँलेज ग्राफ एम्बेडिंग मॉडल नाँलेज ग्राफ में स्थित प्रत्येक इकाई और संबंध के लिए एक सतत सदिश प्रतिनिधित्व उत्पन्न करता है।[7] अतः , और के साथ ट्रिपल का संगत एम्बेडिंग है, जहां एम्बेडिंग के लिए एम्बेडिंग आयाम है, और संबंधों के लिए है।[7] अतः किसी दिए गए मॉडल का स्कोर फलन द्वारा दर्शाया गया है और संबंध के एम्बेडिंग को देखते हुए पूंछ के एम्बेडिंग से शीर्ष के एम्बेडिंग की दूरी को मापता है, या दूसरे शब्दों में, यह किसी दिए गए तथ्य के एम्बेडेड प्रतिनिधित्व की संभाव्यता को मापता है।[5]

इस प्रकार से रॉसी एट अल. एम्बेडिंग मॉडल की वर्गीकरण का प्रस्ताव करें और मॉडल के तीन मुख्य वर्गों की पहचान करें: टेंसर अपघटन मॉडल, ज्यामितीय मॉडल और गहन शिक्षण मॉडल।[5]

टेंसर अपघटन मॉडल

अतः टेंसर अपघटन नाँलेज ग्राफ एम्बेडिंग मॉडल का वर्ग है जो नाँलेज ग्राफ का प्रतिनिधित्व करने के लिए बहु-आयामी आव्यूह का उपयोग करता है,[1][5][17] यह किसी विशेष डोमेन का पूर्ण रूप से वर्णन करने वाले नाँलेज ग्राफ के अंतराल के कारण आंशिक रूप से जानने योग्य है।[5] इस प्रकार से विशेष रूप से, ये मॉडल तीन-पक्षीय (3डी) टेन्सर का उपयोग करते हैं, जिसे बाद में निम्न-आयामी सदिश में विभाजित किया जाता है जो कि इकाइयां और संबंध एम्बेडिंग होते हैं।[5][17] तीसरे क्रम का टेंसर नाँलेज ग्राफ का प्रतिनिधित्व करने के लिए उपयुक्त पद्धति है क्योंकि यह मात्र एम्बेडिंग के बीच संबंध के अस्तित्व या अनुपस्थिति को रिकॉर्ड करता है,[17] और इस कारण से यह सरल है, और नेटवर्क संरचना को प्राथमिकता से जानने की कोई आवश्यकता नहीं है,[15] एम्बेडिंग मॉडल के इस वर्ग को हल्का और प्रशिक्षित करना सरल बनाता है, यद्यपि वे उच्च-आयामी और डेटा की विरलता से पीड़ित हों।[5][17]

द्विरेखीय मॉडल

अतः मॉडलों का यह वर्ग संबंध के माध्यम से एम्बेडिंग के बीच संबंध को एम्बेड करने के लिए रैखिक समीकरण का उपयोग करता है।[1] विशेष रूप से, संबंधों का अंतर्निहित प्रतिनिधित्व द्विआयामी आव्यूह है।[5] इस प्रकार से ये मॉडल, एम्बेडिंग प्रक्रिया के समय, एम्बेडेड प्रतिनिधित्व की गणना करने के लिए मात्र एकल तथ्यों का उपयोग करते हैं और उसी इकाई या संबंध के अन्य संघों को अनदेखा करते हैं।[18]

  • DistMult[19]: चूँकि संबंध का एम्बेडिंग आव्यूह एक विकर्ण आव्यूह है, स्कोरिंग फलन असममित तथ्यों को अलग नहीं कर सकता है।[5][5][18]
  • ComplEx[20]: चूँकि DistMult एम्बेडिंग संबंधों का प्रतिनिधित्व करने के लिए एक विकर्ण आव्यूह का उपयोग करता है, परंतु जटिल सदिश समष्टि और हर्मिटियन उत्पाद में एक प्रतिनिधित्व जोड़ता है, यह सममित और असममित तथ्यों को पूर्ण रूप से अलग कर सकता है।[5][17] अतः यह दृष्टिकोण समय और समष्टि लागत के संदर्भ में बड़े नाँलेज ग्राफ के लिए मापनीय है।[20]
  • ANALOGY[21]: यह मॉडल आगमनात्मक तर्क को अनुकरण करने के लिए नाँलेज ग्राफ की अनुरूप संरचना को एम्बेड करने में एन्कोड करता है।[21][5][1] एक भिन्न उद्देश्य फलन का उपयोग करते हुए, ANALOGY में उचित सैद्धांतिक व्यापकता और कम्प्यूटेशनल मापनीयता है।[21] अतः यह सिद्ध है कि ANALOGY द्वारा निर्मित एम्बेडिंग DistMult, ComplEx, और HolE की एम्बेडिंग को पूर्ण रूप से पुनर्प्राप्त करती है।[21]
  • SimplE[22]: यह मॉडल विहित बहुपद अपघटन (सीपी) का एक संशोधन है, जिसमें संबंध के लिए एम्बेडिंग सदिश और प्रत्येक इकाई के लिए दो स्वतंत्र एम्बेडिंग सदिश सीखे जाते हैं, यह इस पर निर्भर करता है कि यह नाँलेज ग्राफ तथ्य में शीर्ष या पुंछ है या नहीं।[22] इस प्रकार से SimpleE एक व्युत्क्रम संबंध का उपयोग करके दो इकाई एम्बेडिंग की स्वतंत्र सीखने की समस्या को हल करता है और और के सीपी स्कोर को औसत करता है।[7][17] अतः इस प्रकार, SimpleE एम्बेडिंग के बीच संबंध एकत्र करता है जबकि वे किसी तथ्य के भीतर विषय या वस्तु की भूमिका में दिखाई देते हैं, और यह असममित संबंधों को एम्बेड करने में पूर्ण रूप से सक्षम है।[5]

गैर-द्विरेखीय मॉडल

  • HolE:[23] नाँलेज ग्राफ का एम्बेडेड प्रतिनिधित्व बनाने के लिए HolE परिपत्र सहसंबंध का उपयोग करता है,[23] जिसे आव्यूह उत्पाद के संपीड़न के रूप में देखा जा सकता है,परंतु असममित संबंध व्यक्त करने की क्षमताओं को बनाए रखते हुए अधिक कम्प्यूटेशनल रूप से कुशल और मापनीय है क्योंकि परिपत्र सहसंबंध क्रमविनिमेय नहीं है।[18] अतः HolE होलोग्राफिक और जटिल एम्बेडिंग को पूर्ण रूप से जोड़ता है, यदि फूरियर रूपांतरण के साथ साथ उपयोग किया जाता है, तो इसे ComplEx की विशेष स्थिति के रूप में देखा जा सकता है।[1]
  • TuckER:[24] TuckER नाँलेज ग्राफ को टेंसर के रूप में देखता है जिसे सदिश के संग्रह में TuckER अपघटन का उपयोग करके विघटित किया जा सकता है—अर्थात, एम्बेडिंग और संबंधों का एम्बेडिंग— एक साझा कोर के साथ।[24][5] कोर टेंसर का भार एम्बेडिंग के साथ मिलकर सीखा जाता है और प्रविष्टियों के परस्पर क्रिया के स्तर का प्रतिनिधित्व करता है।[25] इस प्रकार से प्रत्येक इकाई और संबंध का अपना एम्बेडिंग आयाम होता है, और कोर टेंसर का आकार परस्पर क्रिया करने वाली एम्बेडिंग और संबंधों के आकार से निर्धारित होता है।[5] किसी तथ्य के विषय और वस्तु के एम्बेडिंग को उसी प्रकार से संक्षेपित किया जाता है, जिससे TuckER पूर्ण रूप से अभिव्यंजक हो जाता है, और अन्य एम्बेडिंग मॉडल जैसे कि RESCAL, DistMult, ComplEx और SimplE को TuckER के विशेष सूत्रीकरण के रूप में व्यक्त किया जा सकता है।[24]
  • MEI:[26] MEI कक्ष पद टेंसर प्रारूप के साथ बहु-विभाजन एम्बेडिंग परस्पर क्रिया तकनीक प्रस्तुत करता है, जो सीपी अपघटन और TuckER अपघटन का सामान्यीकरण है। अतः यह एम्बेडिंग सदिश को कई विभाजनों में विभाजित करता है और ComplEx या SimpleE मॉडल जैसे निश्चित विशेष पैटर्न का उपयोग करने के अतिरिक्त डेटा से स्थानीय परस्पर क्रिया पैटर्न सीखता है। अतः यह MEI को इष्टतम दक्षता प्राप्त करने में सक्षम बनाता है - अभिव्यंजना व्यापार-संवृत, न कि मात्र पूर्ण रूप से अभिव्यंजक होना।[26] पूर्व मॉडल जैसे TuckER, RESCAL, DistMult, ComplEx, और SimpleE MEI की उप-इष्टतम प्रतिबंधित विशेष स्थिति हैं।
  • MEIM:[27] MEIM बहु-विभाजन एम्बेडिंग परस्पर क्रिया के अतिरिक्त, एसेम्बल बूस्टिंग प्रभावों के लिए स्वतंत्र कोर टेंसर और अधिकतम-पद संबंधपरक प्रतिचित्रण के लिए मृदु लंबकोणीयता को प्रस्तुत करने के लिए कक्ष पद टेंसर प्रारूप से आगे जाता है। इस प्रकार से MEIM कई पूर्व मॉडलों जैसे MEI और इसके सम्मिलित मॉडल, RotaE और QuatE को सामान्यीकृत करता है।[27] इस प्रकार से MEIN व्यवहार में अत्यधिक कुशल होते हुए भी अभिव्यंजना में संशोधन करता है, जिससे इसे अत्यधिक छोटे मॉडल आकारों का उपयोग करके स्पष्ट परिणाम प्राप्त करने में सहायता मिलती है।

ज्यामितीय मॉडल

इस प्रकार से मॉडलों के इस वर्ग द्वारा परिभाषित ज्यामितीय समष्टि किसी तथ्य के शीर्ष और पूंछ के बीच ज्यामितीय परिवर्तन के रूप में संबंध को कूटबद्ध करता है।[5] अतः इस कारण से, पूंछ के एम्बेडिंग की गणना करने के लिए, शीर्ष एम्बेडिंग में एक परिवर्तन लागू करना आवश्यक है, और एक दूरी फलन का उपयोग एम्बेडिंग की स्पष्टता को मापने या किसी तथ्य की विश्वसनीयता को स्कोर करने के लिए किया जाता है।[5]

ज्यामितीय मॉडल टेंसर अपघटन मॉडल के समान हैं, परंतु दोनों के बीच मुख्य अंतर यह है कि उन्हें ज्यामितीय समष्टि में परिवर्तन की प्रयोज्यता को संरक्षित करना है जिसमें इसे पूर्ण रूप से परिभाषित किया गया है।[5]

शुद्ध अनुवादात्मक मॉडल

मॉडलों का यह वर्ग Word2vec में प्रस्तुत किए गए अनुवाद अपरिवर्तनीयता के विचार से प्रेरित है।[7] एक शुद्ध अनुवादात्मक मॉडल इस तथ्य पर निर्भर करता है कि इकाइयों के एम्बेडिंग सदिश ज्यामितीय समष्टि में उचित संबंधपरक अनुवाद लागू करने के बाद एक-दूसरे के निकट होते हैं जिसमें उन्हें परिभाषित किया जाता है।[18] अतः दूसरे शब्दों में, तथ्य को देखते हुए, जब संबंध के एम्बेडिंग में शीर्ष का एम्बेडिंग जोड़ा जाता है, तो अपेक्षित परिणाम पुंछ का एम्बेडिंग होना चाहिए।[5] इस प्रकार से एम्बेडिंग एम्बेडिंग की निकटता कुछ दूरी माप द्वारा दी जाती है और किसी तथ्य की विश्वसनीयता को पूर्ण रूप से निर्धारित करती है।[17]

  • TransE[9]: यह मॉडल स्कोरिंग फलन का उपयोग करता है जो एम्बेडिंग को प्रत्येक तथ्य में साधारण सदिश योग समीकरण को संतुष्ट करने के लिए विवश करता है जिसमें वे दिखाई देते हैं: [7] एम्बेडिंग यथार्थ होगी यदि प्रत्येक इकाई और संबंध मात्र एक ही तथ्य में प्रकट होता है, और इस कारण से, व्यवहार में एक-से-अनेक, अनेक-से-एक और असममित संबंधों का ठीक रूप से प्रतिनिधित्व नहीं करता है।[5][7]
  • TransH[28]: यह संबंधों के प्रकारों को उचित रूप से प्रस्तुत करने की समस्या को हल करने के लिए अधिसमतल को ज्यामितीय समष्टि के रूप में प्रस्तुत करने वाले TransE का विकास है।[28] TransH में, प्रत्येक संबंध का अलग अधिसमतल पर अलग एम्बेडेड प्रतिनिधित्व होता है, यह इस पर आधारित होता है कि यह किन एम्बेडिंग के साथ परस्पर क्रिया करता है।[7] अतः इसलिए, उदाहरण के लिए, किसी तथ्य के स्कोर फलन की गणना करने के लिए, संबंध के उचित अधिसमतल पर संबंधपरक प्रक्षेपण आव्यूह का उपयोग करके शीर्ष और पुंछ के एम्बेडेड प्रतिनिधित्व को प्रक्षेपित करने की आवश्यकता होती है।[1][7]
  • TransR[29]: TransR, TransH का विकास है क्योंकि यह एम्बेडिंग और संबंधों के अंतर्निहित प्रतिनिधित्व का प्रतिनिधित्व करने के लिए दो अलग-अलग समष्टियों का उपयोग करता है,[1][18]और एम्बेडिंग और संबंधों के शब्दार्थ समष्टि को पूर्ण रूप से अलग कर दें।[7] इस प्रकार से इसके अतिरिक्त TransR इकाइयों के एम्बेडिंग को संबंध समष्टि में अनुवाद करने के लिए संबंधपरक प्रक्षेपण आव्यूह का पूर्ण रूप से उपयोग करता है।[7]
  • TransD:[30] किसी तथ्य को देखते हुए, TransR में, किसी तथ्य का शीर्ष और पूर्व भाग दो अलग-अलग प्रकार की एम्बेडिंग से संबंधित हो सकता है, उदाहरण के लिए, तथ्य में, ओबामा और यूएसए दो संस्थाएं हैं परंतु एक एक व्यक्ति है और दूसरा एक देश है।[30][7] अतः प्रक्षेपण की गणना करने के लिए TransR में आव्यूह गुणन भी बहु मानित प्रक्रिया है।[7][30] अतः इस संदर्भ में, TransD गतिशील प्रतिचित्रण की गणना करने के लिए प्रत्येक इकाई-संबंध युग्मन के लिए दो सदिश को नियोजित करता है जो आयामी जटिलता को कम करते हुए प्रक्षेपण आव्यूह को प्रतिस्थापित करता है।[1][7][30] पहले सदिश का उपयोग एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को दर्शाने के लिए किया जाता है, दूसरे का उपयोग प्रतिचित्रण आव्यूह की गणना करने के लिए किया जाता है।[30]
  • TransA:[31] सभी अनुवादात्मक मॉडल अपने प्रतिनिधित्व समष्टि में स्कोर फलन को परिभाषित करते हैं, परंतु वे इस मीट्रिक हानि को अधिक सरल बनाते हैं।[31] चूंकि एम्बेडिंग और संबंधों का सदिश प्रतिनिधित्व उचित नहीं है, का शुद्ध अनुवाद से दूर हो सकता है, और एक गोलाकार समविभव यूक्लिडियन दूरी से यह भेद करना कठिन हो जाता है कि निकटतम इकाई कौन सी है।[31] अतः इसके अतिरिक्त, TransA, अस्पष्टता को दूर करने के लिए दीर्घवृत्त सतहों के साथ, एम्बेडिंग आयामों को भारित करने के लिए अनुकूली महालनोबिस दूरी का परिचय देता है।[1][7][31]

अतिरिक्त एम्बेडिंग के साथ अनुवादात्मक मॉडल

नाँलेज ग्राफ में प्रत्येक तत्व और उनके सामान्य प्रतिनिधित्व तथ्यों के साथ अतिरिक्त सूचना जोड़ना संभव है।[1] नाँलेज ग्राफ के साथ डोमेन के समग्र विवरण को स्पष्ट बनाने के लिए प्रत्येक इकाई और संबंध को पाठ विवरण, भार, बाधाओं और अन्य से समृद्ध किया जा सकता है।[1] इस प्रकार से नाँलेज ग्राफ के एम्बेडिंग के समय, इस सूचना का उपयोग इन विशेषताओं के लिए विशेष एम्बेडिंग सीखने के लिए किया जा सकता है, साथ ही अधिक महत्वपूर्ण संख्या में सदिश सीखने की लागत के साथ, एम्बेडिंग और संबंधों के सामान्य एम्बेडेड प्रतिनिधित्व को भी सीखा जा सकता है।[5]

  • STransE:[32] यह मॉडल TransE और संरचना एम्बेडिंग के संयोजन का परिणाम है जिससे यह एक-से-अनेक, अनेक-से-एक और अनेक-से-अनेक संबंधों का बेहतर प्रतिनिधित्व करने में सक्षम है।[32][5] ऐसा करने पर, मॉडल में केजी में प्रत्येक एम्बेडेड संबंध के लिए दो अतिरिक्त स्वतंत्र आव्यूह और सम्मिलित होते हैं।[32] अतः प्रत्येक अतिरिक्त आव्यूह का उपयोग इस तथ्य के आधार पर किया जाता है कि विशिष्ट संबंध तथ्य के शीर्ष या पूंछ के साथ परस्पर क्रिया करता है।[32] दूसरे शब्दों में, एक तथ्य दिया गया है, सदिश अनुवाद लागू करने से पहले, शीर्ष को से गुणा किया जाता है और पुंछ को से गुणा किया जाता है।[7]
  • CrossE:[33] विनिमय परस्पर क्रिया का उपयोग संबंधित सूचना चयन के लिए किया जा सकता है, और एम्बेडिंग प्रक्रिया के लिए बहुत उपयोगी हो सकता है।[33] विनिमय परस्पर क्रिया सूचना चयन में दो अलग-अलग योगदान प्रदान करते हैं: संबंधों से एम्बेडिंग तक परस्पर क्रिया और एम्बेडिंग से संबंधों तक परस्पर क्रिया।[33] अतः इसका अर्थ यह है कि संबंध, उदाहरण के लिए 'President_of' स्वचालित रूप से उन एम्बेडिंग के प्रकार का चयन करता है जो विषय को किसी तथ्य की वस्तु से जोड़ रहे हैं।[33] इसी प्रकार, किसी तथ्य की इकाई अप्रत्यक्ष रूप से यह निर्धारित करती है कि संबंधित ट्रिपल की वस्तु की भविष्यवाणी करने के लिए कौन सा अनुमान पथ चुनना है।[33] CrossE, ऐसा करने के लिए, एक अतिरिक्त परस्पर क्रिया आव्यूह सीखता है, और के बीच परस्पर क्रिया की गणना करने के लिए तत्व-वार उत्पाद का उपयोग करता है।[5][33] यद्यपि, CrossE, तंत्रिका नेटवर्क आर्किटेक्चर पर विश्वास नहीं करता है, यह दिखाया गया है कि इस पद्धति को ऐसे आर्किटेक्चर में पूर्ण रूप से एन्कोड किया जा सकता है।[1]

रोटो-अनुवादात्मक मॉडल

इस प्रकार से मॉडलों का यह वर्ग, अनुवाद के अतिरिक्त या प्रतिस्थापन में घूर्णन-जैसे परिवर्तन को पूर्ण रूप से नियोजित करता है।[5]

  • TorusE:[34] TorusE का नियमितीकरण शब्द इकाई को गोलाकार स्थान बनाने के लिए एम्बेड करता है, और परिणामस्वरूप ज्यामितीय समष्टि के अनुवाद गुणों को खो देता है।[34] इस समस्या का हल करने के लिए, TorusE संहत लाई समूह के उपयोग का लाभ उठाता है जो इस विशिष्ट स्थिति में n-आयामी टोरस समष्टि है, और नियमितीकरण के उपयोग से बचता है।[1][34] अतः TorusE, TransE के L1 और L2 मानदंड को प्रतिस्थापित करने के लिए दूरी फलन को परिभाषित करता है।[5]
  • RotatE:[35] RotatE यूलर की पहचान से प्रेरित है और इसमें जटिल स्थान में शीर्ष से पूंछ तक घूर्णन के रूप में संबंध का प्रतिनिधित्व करने के लिए हैडामर्ड उत्पाद (मैट्रिसेस) का उपयोग पूर्ण रूप से सम्मिलित है।[35] ट्रिपल के प्रत्येक तत्व के लिए, एम्बेडिंग का जटिल भाग अक्ष के संबंध में वामावर्त घूर्णन का वर्णन करता है, जिसे यूलर की पहचान के साथ वर्णित किया जा सकता है, जबकि संबंध सदिश का मापांक 1 है।[35] अतः यह दिखाया गया है कि मॉडल नाँलेज ग्राफ से सममित, असममित, उलटा और संरचना संबंधों को एम्बेड करने में सक्षम है।[35]

गहन शिक्षण मॉडल

इस प्रकार से एम्बेडिंग मॉडल का यह समूह नाँलेज ग्राफ से पैटर्न सीखने के लिए गहन तंत्रिका नेटवर्क का उपयोग करता है जो इनपुट डेटा हैं।[5] अतः इन मॉडलों में इकाई और संबंध के प्रकार, अस्थायी सूचना, पथ सूचना, अंतर्निहित संरचित सूचना को अलग करने की व्यापकता है।[18] और नाँलेज ग्राफ की सभी विशेषताओं का प्रतिनिधित्व करने में दूरी-आधारित और अर्थ-मिलान-आधारित मॉडल की सीमाओं को हल करें।[1] अतः नाँलेज ग्राफ एम्बेडिंग के लिए गहन शिक्षण के उपयोग ने स्पष्ट अनुमानित परफॉरमेंस दिखाया है, यद्यपि वे प्रशिक्षण चरण में अधिक बहु मानित हों, डेटा की कमी हो, और प्रायः अलग एम्बेडिंग मॉडल से आने वाले नाँलेज ग्राफ के पूर्व-प्रशिक्षित एम्बेडिंग प्रतिनिधित्व की आवश्यकता होती है।[1][5]

संवादात्मक तंत्रिका नेटवर्क

इस प्रकार से मॉडलों का यह वर्ग, पूर्ण रूप से कनेक्टेड परतों का उपयोग करने के अतिरिक्त, या से अधिक ConvEन्शनल परतों को नियोजित करता है जो निम्न-आयामी फ़िल्टर लागू करके इनपुट डेटा को संयोजित करता है जो गैर रेखीय सुविधाओं को सीखकर कुछ मापदंडों के साथ जटिल संरचनाओं को एम्बेड करने में सक्षम होता है।[1][5][18]

  • ConvE:[36] ConvE एम्बेडिंग एक ऐसा मॉडल है जो गहन शिक्षण मॉडल और कम्प्यूटेशनल अधिकतम मूल्य की उचित ट्रेडऑफ़ अभिव्यक्ति का प्रतिनिधित्व करता है,[17] वस्तुतः यह दिखाया गया है कि DistMult की तुलना में इसमें 8x कम पैरामीटर का उपयोग किया गया है।[36] ConvE नाँलेज ग्राफ की संस्थाओं और संबंधों का प्रतिनिधित्व करने के लिए एक-आयामी आकार एम्बेडिंग का उपयोग करता है।[5][36] ट्रिपल के स्कोर फलन की गणना करने के लिए, ConvE एक सरल प्रक्रिया लागू करता है: पहले कॉनकैटेन्स और ट्रिपल के हेड के एम्बेडिंग और एकल डेटा में संबंध को मर्ज करता है, फिर इस आव्यूह को 2D कनवल्शनल लेयर के लिए इनपुट के रूप में उपयोग किया जाता है।[5][17] फिर परिणाम को एक गहन परत के माध्यम से पारित किया जाता है जो आव्यूह द्वारा पैरामीटरयुक्त एक रैखिक परिवर्तन लागू करता है और अंत में, आंतरिक उत्पाद के साथ पुंछ ट्रिपल से जुड़ा होता है।[5][18] अतः ConvE मूल्यांकन प्रक्रिया में भी विशेष रूप से कुशल है: 1-एन स्कोरिंग का उपयोग करके, मॉडल मिलान करता है, एक शीर्ष और एक संबंध दिया जाता है, एक ही समय में सभी पुंछ, अन्य मॉडलों के 1-1 मूल्यांकन फलन की तुलना में बहुत अधिक मूल्यांकन समय बचाते हैं।[18]
  • ConvR:[37] ConvR अनुकूली दृढ़ नेटवर्क है जिसका उद्देश्य एम्बेडिंग और संबंधों के बीच सभी संभावित परस्पर क्रिया का गहनता से प्रतिनिधित्व करना है।[37] इस क्रिया के लिए, ConvR, प्रत्येक संबंध के लिए संकेंद्रित फ़िल्टर की गणना करता है, और, जब आवश्यक हो, जटिल सुविधाओं को निकालने के लिए इन फ़िल्टरों को रुचि की इकाई पर लागू करता है।[37] अतः ट्रिपल के स्कोर की गणना करने की प्रक्रिया ConvE के समान है।[5]
  • ConvKB:[38] ConvKB, किसी दिए गए ट्रिपल के स्कोर फलन की गणना करने के लिए, यह बिना किसी आकार परिवर्तन के आयाम का एक इनपुट उत्पन्न करता है और इसे आकार के कन्वेन्शनल फ़िल्टर की श्रृंखला में भेजता है।[38] यह परिणाम मात्र न्यूरॉन के साथ सघन परत को पोषित करता है जो अंतिम स्कोर उत्पन्न करता है।[38] एकल अंतिम न्यूरॉन इस आर्किटेक्चर को बाइनरी क्लासिफायरियर के रूप में बनाता है जिसमें तथ्य उचित या अनुचित हो सकता है।[5] ConvE के साथ अंतर यह है कि एम्बेडिंग की आयामीता नहीं बदली जाती है।[17]

कैप्सूल तंत्रिका नेटवर्क

इस प्रकार से मॉडलों का यह वर्ग अधिक स्थिर प्रतिनिधित्व बनाने के लिए कैप्सूल न्यूरल नेटवर्क का उपयोग करता है जो स्थानिक सूचना समाप्त हुए बिना इनपुट में सुविधा को पहचानने में सक्षम है।[5] अतः नेटवर्क संकेंद्रित परतों से बना है,परंतु वे कैप्सूल में व्यवस्थित होते हैं, और कैप्सूल का समग्र परिणाम गतिशील प्रक्रिया रूटीन द्वारा निर्धारित किए गए उच्च-कैप्सूल को भेजा जाता है।[5]

CapsE:[39] CapsE एक तथ्य को मॉडल करने के लिए एक कैप्सूल नेटवर्क लागू करता है।[39] जैसा कि ConvKB में होता है, प्रत्येक ट्रिपल तत्व को आव्यूह बनाने के लिए संयोजित किया जाता है और कन्वेन्शनल फीचर्स को निकालने के लिए कन्वेन्शनल परत को फीड करने के लिए उपयोग किया जाता है।[5][39] फिर इन विशेषताओं को सतत सदिश बनाने के लिए कैप्सूल पर पुनर्निर्देशित किया जाता है, सदिश जितना लंबा होगा, तथ्य उतना ही अधिक सत्य होगा।[39]

आवर्तक तंत्रिका नेटवर्क

इस प्रकार से मॉडलों का यह वर्ग आवर्ती तंत्रिका नेटवर्क के उपयोग का लाभ उठाता है।[5] अतः इस आर्किटेक्चर का लाभ मात्र विस्तृत एकल घटनाओं के अतिरिक्त तथ्यों के अनुक्रम को याद रखना है।[40]

RSN:[40] एम्बेडिंग प्रक्रिया के समय सामान्यतः यह माना जाता है कि, समान एम्बेडिंग के समान संबंध होते हैं।[40] व्यवहार में, इस प्रकार की सूचना का लाभ नहीं उठाया जाता है, क्योंकि एम्बेडिंग की गणना तथ्यों के इतिहास के अतिरिक्त मात्र वर्तमान तथ्य पर की जाती है।[40] आवर्तक स्किपिंग नेटवर्क (RSN) रैंडम वॉक सैंपलिंग का उपयोग करके संबंधपरक पथ सीखने के लिए आवर्तक तंत्रिका नेटवर्क का उपयोग करता है।[5][40]

मॉडल परफॉरमेंस

अतः नाँलेज ग्राफ़ एम्बेडिंग के लिए मशीन लर्निंग क्रिया जो मॉडलों की एम्बेडिंग यथार्थता का मूल्यांकन करने के लिए अधिक बार उपयोग किया जाता है वह लिंक भविष्यवाणी है।[1][3][5][6][7][18] रॉसी एट अल.[5] मॉडलों का एक व्यापक बेंचमार्क तैयार किया, परंतु अन्य सर्वेक्षण भी समान परिणाम देते हैं।[3][7][18][25] बेंचमार्क (कंप्यूटिंग) में पांच डेटासेट FB15k, WN18, FB15k-237, WN18RR और YAGO3-10 सम्मिलित हैं।[9][9][41][36][42] वर्तमान में, यह चर्चा हुई है कि ये डेटासेट वास्तविक संसार के अनुप्रयोगों से बहुत दूर हैं, और अन्य डेटासेट को मानक बेंचमार्क के रूप में एकीकृत किया जाना चाहिए।[43]

एम्बेडिंग मॉडल को बेंचमार्क करने के लिए उपयोग किए गए डेटासेट की विशेषताओं का तालिका सारांश।
डेटासेट नाम विभिन्न एम्बेडिंग की संख्या विभिन्न संबंधों की संख्या ट्रिपल की संख्या
FB15k[9] 14951 1345 584,113
WN18[9] 40943 18 151,442
FB15k-237[41] 14541 237 310,116
WN18RR[36] 40943 11 93,003
YAGO3-10[42] 123182 37 1,089,040
Hits@10, MR, और MRR के संदर्भ में रॉसी एट अल के अनुसार मेमोरी जटिलता और नाँलेज ग्राफ एम्बेडिंग मॉडल की लिंक भविष्यवाणी यथार्थता का तालिका सारांश।[5] प्रत्येक डेटासेट के लिए प्रत्येक मीट्रिक पर सर्वोत्तम परिणाम बोल्ड में हैं।
मॉडल नाम मेमोरी जटिलता FB15K (Hits@10) FB15K (MR) FB15K (MRR) FB15K - 237 (Hits@10) FB15K - 237 (MR) FB15K - 237 (MRR) WN18 (Hits@10) WN18 (MR) WN18 (MRR) WN18RR (Hits@10) WN18RR (MR) WN18RR (MRR) YAGO3-10 (Hits@10) YAGO3-10 (MR) YAGO3-10 (MRR)
DistMul[19] 0.863 173 0.784 0.490 199 0.313 0.946 675 0.824 0.502 5913 0.433 0.661 1107 0.501
ComplEx[20] 0.905 34 0.848 0.529 202 0.349 0.955 3623 0.949 0.521 4907 0.458 0.703 1112 0.576
HolE[23] 0.867 211 0.800 0.476 186 0.303 0.949 650 0.938 0.487 8401 0.432 0.651 6489 0.502
ANALOGY[21] 0.837 126 0.726 0.353 476 0.202 0.944 808 0.934 0.380 9266 0.366 0.456 2423 0.283
SimplE[22] 0.836 138 0.726 0.343 651 0.179 0.945 759 0.938 0.426 8764 0.398 0.631 2849 0.453
TuckER[24] 0.888 39 0.788 0.536 162 0.352 0.958 510 0.951 0.514 6239 0.459 0.680 2417 0.544
MEI[26] 0.552 145 0.365 0.551 3268 0.481 0.709 756 0.578
MEIM[27] 0.557 137 0.369 0.577 2434 0.499 0.716 747 0.585
TransE[9] 0.847 45 0.628 0.497 209 0.310 0.948 279 0.646 0.495 3936 0.206 0.673 1187 0.501
STransE[32] 0.796 69 0.543 0.495 357 0.315 0.934 208 0.656 0.422 5172 0.226 0.073 5797 0.049
CrossE[33] 0.862 136 0.702 0.470 227 0.298 0.950 441 0.834 0.449 5212 0.405 0.654 3839 0.446
TorusE[34] 0.839 143 0.746 0.447 211 0.281 0.954 525 0.947 0.535 4873 0.463 0.474 19455 0.342
RotatE[35] 0.881 42 0.791 0.522 178 0.336 0.960 274 0.949 0.573 3318 0.475 0.570 1827 0.498
ConvE[36] 0.849 51 0.688 0.521 281 0.305 0.956 413 0.945 0.507 4944 0.427 0.657 2429 0.488
ConvKB[38] 0.408 324 0.211 0.517 309 0.230 0.948 202 0.709 0.525 3429 0.249 0.604 1683 0.420
ConvR[37] 0.885 70 0.773 0.526 251 0.346 0.958 471 0.950 0.526 5646 0.467 0.673 2582 0.527
CapsE[39] 0.217 610 0.087 0.356 405 0.160 0.950 233 0.890 0.559 720 0.415 0 60676 0.000
RSN[40] 0.870 51 0.777 0.444 248 0.280 0.951 346 0.928 0.483 4210 0.395 0.664 1339 0.511

लाइब्रेरी

यह भी देखें

संदर्भ

  1. 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 1.19 1.20 1.21 1.22 1.23 1.24 1.25 1.26 Ji, Shaoxiong; Pan, Shirui; Cambria, Erik; Marttinen, Pekka; Yu, Philip S. (2021). "A Survey on Knowledge Graphs: Representation, Acquisition, and Applications". IEEE Transactions on Neural Networks and Learning Systems. PP (2): 494–514. arXiv:2002.00388. doi:10.1109/TNNLS.2021.3070843. hdl:10072/416709. ISSN 2162-237X. PMID 33900922. S2CID 211010433.
  2. Mohamed, Sameh K; Nováček, Vít; Nounu, Aayah (2019-08-01). Cowen, Lenore (ed.). "नॉलेज ग्राफ एंबेडिंग का उपयोग करके प्रोटीन औषधि लक्ष्य की खोज करना". Bioinformatics (in English). 36 (2): 603–610. doi:10.1093/bioinformatics/btz600. hdl:10379/15375. ISSN 1367-4803. PMID 31368482.
  3. 3.0 3.1 3.2 3.3 Lin, Yankai; Han, Xu; Xie, Ruobing; Liu, Zhiyuan; Sun, Maosong (2018-12-28). "Knowledge Representation Learning: A Quantitative Review". arXiv:1812.10901 [cs.CL].
  4. 4.0 4.1 4.2 Abu-Salih, Bilal; Al-Tawil, Marwan; Aljarah, Ibrahim; Faris, Hossam; Wongthongtham, Pornpit; Chan, Kit Yan; Beheshti, Amin (2021-05-12). "नॉलेज ग्राफ एंबेडिंग का उपयोग करके सामाजिक राजनीति का संबंधपरक शिक्षण विश्लेषण". Data Mining and Knowledge Discovery (in English). 35 (4): 1497–1536. arXiv:2006.01626. doi:10.1007/s10618-021-00760-w. ISSN 1573-756X. S2CID 219179556.
  5. 5.00 5.01 5.02 5.03 5.04 5.05 5.06 5.07 5.08 5.09 5.10 5.11 5.12 5.13 5.14 5.15 5.16 5.17 5.18 5.19 5.20 5.21 5.22 5.23 5.24 5.25 5.26 5.27 5.28 5.29 5.30 5.31 5.32 5.33 5.34 5.35 5.36 5.37 5.38 5.39 5.40 5.41 5.42 5.43 5.44 Rossi, Andrea; Barbosa, Denilson; Firmani, Donatella; Matinata, Antonio; Merialdo, Paolo (2020). "Knowledge Graph Embedding for Link Prediction: A Comparative Analysis". ACM Transactions on Knowledge Discovery from Data (in English). 15 (2): 1–49. arXiv:2002.00819. doi:10.1145/3424672. hdl:11573/1638610. ISSN 1556-4681. S2CID 211011226.
  6. 6.0 6.1 Paulheim, Heiko (2016-12-06). Cimiano, Philipp (ed.). "Knowledge graph refinement: A survey of approaches and evaluation methods". Semantic Web. 8 (3): 489–508. doi:10.3233/SW-160218. S2CID 13151033.
  7. 7.00 7.01 7.02 7.03 7.04 7.05 7.06 7.07 7.08 7.09 7.10 7.11 7.12 7.13 7.14 7.15 7.16 7.17 7.18 7.19 7.20 7.21 7.22 7.23 7.24 7.25 7.26 7.27 Dai, Yuanfei; Wang, Shiping; Xiong, Neal N.; Guo, Wenzhong (May 2020). "A Survey on Knowledge Graph Embedding: Approaches, Applications and Benchmarks". Electronics (in English). 9 (5): 750. doi:10.3390/electronics9050750.
  8. Guo, Shu; Wang, Quan; Wang, Bin; Wang, Lihong; Guo, Li (2015). "Semantically Smooth Knowledge Graph Embedding". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (in English). Association for Computational Linguistics. pp. 84–94. doi:10.3115/v1/P15-1009. S2CID 205692.
  9. 9.0 9.1 9.2 9.3 9.4 9.5 9.6 Bordes, Antoine; Usunier, Nicolas; Garcia-Durán, Alberto; Weston, Jason; Yakhnenko, Oksana (May 2013). "Translating embeddings for modeling multi-relational data". NIPS'13: Proceedings of the 26th International Conference on Neural Information Processing Systems. Curran Associates Inc. pp. 2787–2795.
  10. 10.00 10.01 10.02 10.03 10.04 10.05 10.06 10.07 10.08 10.09 10.10 10.11 Chen, Zhe; Wang, Yuehan; Zhao, Bin; Cheng, Jing; Zhao, Xin; Duan, Zongtao (2020). "Knowledge Graph Completion: A Review". IEEE Access. 8: 192435–192456. doi:10.1109/ACCESS.2020.3030076. ISSN 2169-3536. S2CID 226230006.
  11. 11.0 11.1 11.2 11.3 11.4 Cai, Hongyun; Zheng, Vincent W.; Chang, Kevin Chen-Chuan (2018-02-02). "A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications". arXiv:1709.07604 [cs.AI].
  12. 12.0 12.1 Zhou, Sijin; Dai, Xinyi; Chen, Haokun; Zhang, Weinan; Ren, Kan; Tang, Ruiming; He, Xiuqiang; Yu, Yong (2020-06-18). "नॉलेज ग्राफ-एन्हांस्ड रीइन्फोर्समेंट लर्निंग के माध्यम से इंटरैक्टिव अनुशंसा प्रणाली". arXiv:2006.10389 [cs.IR].
  13. Liu, Chan; Li, Lun; Yao, Xiaolu; Tang, Lin (August 2019). "A Survey of Recommendation Algorithms Based on Knowledge Graph Embedding". 2019 IEEE International Conference on Computer Science and Educational Informatization (CSEI). pp. 168–171. doi:10.1109/CSEI47661.2019.8938875. ISBN 978-1-7281-2308-0. S2CID 209459928.
  14. 14.0 14.1 Sosa, Daniel N.; Derry, Alexander; Guo, Margaret; Wei, Eric; Brinton, Connor; Altman, Russ B. (2020). "दुर्लभ बीमारियों में दवा के पुनरुत्पादन के अवसरों की पहचान के लिए एक साहित्य-आधारित ज्ञान ग्राफ एम्बेडिंग विधि". Pacific Symposium on Biocomputing. Pacific Symposium on Biocomputing. 25: 463–474. ISSN 2335-6936. PMC 6937428. PMID 31797619.
  15. 15.0 15.1 Nickel, Maximilian; Tresp, Volker; Kriegel, Hans-Peter (2011-06-28). "A three-way model for collective learning on multi-relational data". ICML'11: Proceedings of the 28th International Conference on International Conference on Machine Learning. Omnipress. pp. 809–816. ISBN 978-1-4503-0619-5.
  16. Nickel, Maximilian; Tresp, Volker; Kriegel, Hans-Peter (2012-04-16). "Factorizing YAGO". Proceedings of the 21st international conference on World Wide Web. Association for Computing Machinery. pp. 271–280. doi:10.1145/2187836.2187874. ISBN 978-1-4503-1229-5. S2CID 6348464.
  17. 17.0 17.1 17.2 17.3 17.4 17.5 17.6 17.7 17.8 17.9 Alshahrani, Mona; Thafar, Maha A.; Essack, Magbubah (2021-02-18). "बायोमेडिकल डेटा में ज्ञान ग्राफ एम्बेडिंग का अनुप्रयोग और मूल्यांकन". PeerJ Computer Science (in English). 7: e341. doi:10.7717/peerj-cs.341. ISSN 2376-5992. PMC 7959619. PMID 33816992.
  18. 18.00 18.01 18.02 18.03 18.04 18.05 18.06 18.07 18.08 18.09 18.10 Wang, Meihong; Qiu, Linling; Wang, Xiaoli (2021-03-16). "लिंक भविष्यवाणी के लिए ज्ञान ग्राफ एंबेडिंग पर एक सर्वेक्षण". Symmetry (in English). 13 (3): 485. Bibcode:2021Symm...13..485W. doi:10.3390/sym13030485. ISSN 2073-8994.
  19. 19.0 19.1 Yang, Bishan; Yih, Wen-tau; He, Xiaodong; Gao, Jianfeng; Deng, Li (2015-08-29). "ज्ञान के आधारों में सीखने और अनुमान के लिए संस्थाओं और संबंधों को एम्बेड करना". arXiv:1412.6575 [cs.CL].
  20. 20.0 20.1 20.2 Trouillon, Théo; Welbl, Johannes; Riedel, Sebastian; Gaussier, Éric; Bouchard, Guillaume (2016-06-20). "सरल लिंक भविष्यवाणी के लिए जटिल एंबेडिंग". arXiv:1606.06357 [cs.AI].
  21. 21.0 21.1 21.2 21.3 21.4 Liu, Hanxiao; Wu, Yuexin; Yang, Yiming (2017-07-06). "बहु-संबंधपरक एंबेडिंग के लिए अनुरूप अनुमान". arXiv:1705.02426 [cs.LG].
  22. 22.0 22.1 22.2 Kazemi, Seyed Mehran; Poole, David (2018-10-25). "ज्ञान ग्राफ़ में लिंक भविष्यवाणी के लिए सरल एम्बेडिंग". arXiv:1802.04868 [stat.ML].
  23. 23.0 23.1 23.2 Nickel, Maximilian; Rosasco, Lorenzo; Poggio, Tomaso (2015-12-07). "ज्ञान ग्राफ़ की होलोग्राफ़िक एंबेडिंग". arXiv:1510.04935 [cs.AI].
  24. 24.0 24.1 24.2 24.3 Balažević, Ivana; Allen, Carl; Hospedales, Timothy M. (2019). "TuckER: Tensor Factorization for Knowledge Graph Completion". Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). pp. 5184–5193. arXiv:1901.09590. doi:10.18653/v1/D19-1522. S2CID 59316623.
  25. 25.0 25.1 Ali, Mehdi; Berrendorf, Max; Hoyt, Charles Tapley; Vermue, Laurent; Galkin, Mikhail; Sharifzadeh, Sahand; Fischer, Asja; Tresp, Volker; Lehmann, Jens (2021). "Bringing Light into the Dark: A Large-scale Evaluation of Knowledge Graph Embedding Models under a Unified Framework". IEEE Transactions on Pattern Analysis and Machine Intelligence. PP (12): 8825–8845. arXiv:2006.13365. doi:10.1109/TPAMI.2021.3124805. PMID 34735335. S2CID 220041612.
  26. 26.0 26.1 26.2 Tran, Hung Nghiep; Takasu, Atsuhiro (2020). "Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion". Proceedings of the European Conference on Artificial Intelligence (ECAI 2020). Frontiers in Artificial Intelligence and Applications. Vol. 325. IOS Press. pp. 833–840. doi:10.3233/FAIA200173. S2CID 220265751.
  27. 27.0 27.1 27.2 Tran, Hung-Nghiep; Takasu, Atsuhiro (2022-07-16). "MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction". आर्टिफिशियल इंटेलिजेंस पर इकतीसवें अंतर्राष्ट्रीय संयुक्त सम्मेलन की कार्यवाही (in English). Vol. 3. pp. 2262–2269. doi:10.24963/ijcai.2022/314. ISBN 978-1-956792-00-3. S2CID 250635995.
  28. 28.0 28.1 Wang, Zhen (2014). "Knowledge Graph Embedding by Translating on Hyperplanes". आर्टिफिशियल इंटेलिजेंस पर एएएआई सम्मेलन की कार्यवाही. Vol. 28. doi:10.1609/aaai.v28i1.8870. S2CID 15027084.
  29. Lin, Yankai; Liu, Zhiyuan; Sun, Maosong; Liu, Yang; Zhu, Xuan (2015-01-25). ज्ञान ग्राफ पूरा करने के लिए सीखने की इकाई और संबंध एम्बेडिंग. AAAI Press. pp. 2181–2187. ISBN 978-0-262-51129-2.
  30. 30.0 30.1 30.2 30.3 30.4 Ji, Guoliang; He, Shizhu; Xu, Liheng; Liu, Kang; Zhao, Jun (July 2015). "Knowledge Graph Embedding via Dynamic Mapping Matrix". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Association for Computational Linguistics. pp. 687–696. doi:10.3115/v1/P15-1067. S2CID 11202498.
  31. 31.0 31.1 31.2 31.3 Xiao, Han; Huang, Minlie; Hao, Yu; Zhu, Xiaoyan (2015-09-27). "TransA: An Adaptive Approach for Knowledge Graph Embedding". arXiv:1509.05490 [cs.CL].
  32. 32.0 32.1 32.2 32.3 32.4 Nguyen, Dat Quoc; Sirts, Kairit; Qu, Lizhen; Johnson, Mark (June 2016). "STransE: A novel embedding model of entities and relationships in knowledge bases". Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics. pp. 460–466. arXiv:1606.08140. doi:10.18653/v1/N16-1054. S2CID 9884935.
  33. 33.0 33.1 33.2 33.3 33.4 33.5 33.6 Zhang, Wen; Paudel, Bibek; Zhang, Wei; Bernstein, Abraham; Chen, Huajun (2019-01-30). "Interaction Embeddings for Prediction and Explanation in Knowledge Graphs". वेब खोज और डेटा माइनिंग पर बारहवें एसीएम अंतर्राष्ट्रीय सम्मेलन की कार्यवाही. pp. 96–104. arXiv:1903.04750. doi:10.1145/3289600.3291014. ISBN 9781450359405. S2CID 59516071.
  34. 34.0 34.1 34.2 34.3 Ebisu, Takuma; Ichise, Ryutaro (2017-11-15). "TorusE: Knowledge Graph Embedding on a Lie Group". arXiv:1711.05435 [cs.AI].
  35. 35.0 35.1 35.2 35.3 35.4 Sun, Zhiqing; Deng, Zhi-Hong; Nie, Jian-Yun; Tang, Jian (2019-02-26). "RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space". arXiv:1902.10197 [cs.LG].
  36. 36.0 36.1 36.2 36.3 36.4 36.5 Dettmers, Tim; Minervini, Pasquale; Stenetorp, Pontus; Riedel, Sebastian (2018-07-04). "Convolutional 2D Knowledge Graph Embeddings". arXiv:1707.01476 [cs.LG].
  37. 37.0 37.1 37.2 37.3 Jiang, Xiaotian; Wang, Quan; Wang, Bin (June 2019). "Adaptive Convolution for Multi-Relational Learning". Proceedings of the 2019 Conference of the North. Association for Computational Linguistics. pp. 978–987. doi:10.18653/v1/N19-1103. S2CID 174800352.
  38. 38.0 38.1 38.2 38.3 Nguyen, Dai Quoc; Nguyen, Tu Dinh; Nguyen, Dat Quoc; Phung, Dinh (2018). "A Novel Embedding Model for Knowledge Base Completion Based on Convolutional Neural Network". Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). pp. 327–333. arXiv:1712.02121. doi:10.18653/v1/N18-2053. S2CID 3882054.
  39. 39.0 39.1 39.2 39.3 39.4 Nguyen, Dai Quoc; Vu, Thanh; Nguyen, Tu Dinh; Nguyen, Dat Quoc; Phung, Dinh (2019-03-06). "ज्ञान ग्राफ़ पूर्णता और खोज वैयक्तिकरण के लिए एक कैप्सूल नेटवर्क-आधारित एंबेडिंग मॉडल". arXiv:1808.04122 [cs.CL].
  40. 40.0 40.1 40.2 40.3 40.4 40.5 Guo, Lingbing; Sun, Zequn; Hu, Wei (2019-05-13). "ज्ञान ग्राफ़ में दीर्घकालिक संबंधपरक निर्भरता का दोहन करना सीखना". arXiv:1905.04914 [cs.AI].
  41. 41.0 41.1 Toutanova, Kristina; Chen, Danqi (July 2015). "Observed versus latent features for knowledge base and text inference". Proceedings of the 3rd Workshop on Continuous Vector Space Models and their Compositionality. Association for Computational Linguistics. pp. 57–66. doi:10.18653/v1/W15-4007. S2CID 5378837.
  42. 42.0 42.1 Mahdisoltani, F.; Biega, J.; Suchanek, Fabian M. (2015). "YAGO3: A Knowledge Base from Multilingual Wikipedias". CIDR. S2CID 6611164.
  43. Hu, Weihua; Fey, Matthias; Zitnik, Marinka; Dong, Yuxiao; Ren, Hongyu; Liu, Bowen; Catasta, Michele; Leskovec, Jure (2021-02-24). "Open Graph Benchmark: Datasets for Machine Learning on Graphs". arXiv:2005.00687 [cs.LG].

बाहरी संबंध