कृत्रिम सामान्य बुद्धि

From Vigyanwiki

Unsolved problem in computer science:

Could an artificial general intelligence be created? If so, how?

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार की काल्पनिक बुद्धिमत्ता है। एजीआई मे अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य पशु कर सकते हैं।[1][2] वैकल्पिक रूप से एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। एजीआई बनाना कुछ कृत्रिम बुद्धिमत्ता शोध और ओपीईएनएआई,[3] डीपमाइंड[4] और एंथ्रोपिक जैसी संस्थाओ का प्राथमिक लक्ष्य है। वैज्ञानिक साहित्य और भविष्य अध्ययन में एजीआई एक सामान्य विषय है।[3]

एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही वार्तालाप का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है दूसरों लोगों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है और अल्पसंख्यक मानते हैं कि इसे कभी प्राप्त नहीं किया जा सकता है।[5] इसके अतिरिक्त इस विषय पर भी वार्तालाप चल रही है कि क्या आधुनिक सघन अध्ययन प्रणाली जैसे कि जीपीटी-4, एजीआई का प्रारंभिक अभी तक अपेक्षाकृत अर्ध रूप है।[6] या इसके लिए नए दृष्टिकोण की आवश्यकता है।[7]

एजीआई के मानवता के लिए जिखिम उत्पन्न करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है जबकि अन्य एजीआई के विकास को एक जोखिम प्रस्तुत करने के लिए बहुत दूरस्थ पाते हैं।[8][5][7]

2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई है।[9]

शब्दावली

एजीआई को दृढ़ एआई[10][11][12] और पूर्ण एआई[13] को सामान्य बुद्धिमत्ता प्रक्रिया के रूप में भी जाना जाता है।[14] हालांकि, कुछ शैक्षणिक स्रोत कंप्यूटर प्रोग्राम के लिए "दृढ़ एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। इसके विपरीत कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।[15][11] कुछ शैक्षणिक स्रोत "कममहत्व एआई" का उपयोग किसी भी प्रोग्राम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान स्मरण शक्ति रखते हैं।[lower-alpha 1] संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई और उच्च बुद्धिमत्ता सम्मिलित हैं।[5]

विशेषताएं

एआई के लिए विभिन्न मानदंड (सबसे प्रसिद्ध ट्यूरिंग परीक्षण) प्रस्तावित किए गए हैं लेकिन व्यापक रूप से कोई परिभाषा स्वीकृत नहीं की गई है।[lower-alpha 2]

एआई लक्षण

हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:[17]

और यदि आवश्यक हो तो किसी दिए गए लक्ष्य को पूरा करने लिए कृत्रिम बुद्धिमत्ता एकीकरण प्रणाली का प्रयोग करना जो अन्य महत्वपूर्ण क्षमताओं में सम्मिलित हैं:[18]

  • मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि आदि)
  • कार्य करने की क्षमता (उदाहरण के लिए वस्तुओं को स्थानांतरित करना और परिवर्तित करना, शोध करने के लिए स्थान परिवर्तित करना आदि।)

इसमें जोखिम का पता लगाने और प्रतिक्रिया देने की क्षमता सम्मिलित है।[19] कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल बुद्धिमत्ता और निर्णय लेने) काल्पनिक उपन्यास, मानसिक छवियों या अवधारणाओं को बनाने की क्षमता और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।[20][21]

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमत्ता घटक आदि सम्मिलित हैं। हालाँकि इस विषय पर कोई सहमति नहीं है कि आधुनिक एआई प्रणाली उन्हें पर्याप्त मात्रा में सुरक्षित रखते हैं।

गणितीय औपचारिकताएँ

एजीआई का एक गणितीय शुद्ध विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित प्रस्तावित एजीआई घटक "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता को अधिकतम करता है।[22] इस प्रकार के एजीआई मानव-समान व्यवहार को प्रदर्शित करने के अतिरिक्त बुद्धिमत्ता की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता को सार्वभौमिक कृत्रिम बुद्धिमत्ता भी कहा जाता है।[23][24]

2015 में जनलीक और मार्कस हटर ने दिखाया कि लेग-हटर बुद्धिमत्ता वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक घटक की क्षमता एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (यूटीएम) के संबंध में मापा जाता है।[25] एआईएक्सआई सबसे बुद्धिमत्ता नीति है यदि यह उसी यूटीएम का उपयोग करती है जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलित इष्टतमता गुणों को कम करता है।"[26] यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है। जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलग होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह भौतिक द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।[27] कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं यह धारणा अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है।[27] इसके बाद माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान के साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता या समकक्ष सामान्यीकरण करने की क्षमता होती है <रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी>Chollet, Francois (2019). "बुद्धि के माप पर". arXiv:1911.01547 [cs.AI].</ref> इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना, यदि सक्रियतावाद धारण है। भौतिक द्वैतवाद नहीं है तो बुद्धिमत्ता के लिए सम्पीडन आवश्यक या पर्याप्त नहीं होता है बुद्धिमत्ता पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें) इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है। जैसे कि प्राकृतिक भाषा का उपयोग कई कारकों पर निर्भर करता है।[28] उदाहरण के लिए जिस तरीके से घटक सन्निहित है[29] या इसका कोई पुरस्कृत कार्य है जो भूख, दर्द और इसी प्रकार की अनुभूति के मानवीय मनुष्यों के निकट है।[30]

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण

मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है जिनमें निम्नलिखित सम्मिलित हैं।[31][32]

ट्यूरिंग परीक्षण (ट्यूरिंग)

मशीन और मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है जो परीक्षण को स्वीकृत करती है यदि यह मूल्यांकन कर्ता को समय के एक महत्वपूर्ण भाग को मूर्ख बना सकती है। तब ध्यान दे कि ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धिमत्ता के रूप में क्या योग्यता होनी चाहिए और केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करने की आवश्यकता होती है।

कॉफ़ी परीक्षण (वोज्नियाक)

एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है। कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उपयुक्त बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट परीक्षण (गोएर्टज़ेल)

मशीन एक विश्वविद्यालय में पंजीकृत होती है वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)

मशीन कम से कम एक ही कार्य में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण कार्य करती है।

एआई-पूर्ण समस्याएं

ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का अनुसरण करें और जानें कि किस विषय में बात की जा रही है और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि) मानव-स्तरीय मशीन प्रदर्शन तक अभिगमन के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता होती है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए दृढ़ एआई को प्रयुक्त करने की आवश्यकता होती है क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।[33] एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से बचने के लिए की जाती है।[34]

एआई-पूर्ण समस्याओं को केवल वर्तमान[may be outdated as of April 2023] कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के अटैक को पीछे हटाना है।[35][36]

इतिहास

प्राचीन एआई

आधुनिक एआई शोध 1950 के दशक के मध्य में प्रारम्भ हुई।[37] एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी। जिसमे कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी।[38] एआई के निर्माता हर्बर्ट ए. साइमन ने 1965 में लिखा था कि "मशीनें बीस साल के भीतर कोई भी कार्य करने में सक्षम हो जाएंगी जो एक मनुष्य कर सकता है।[39]

उनका पूर्वानुमान स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं। जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे।[40] संभव के रूप में समय की सामान्य सहमति और पूर्वानुमान के अनुसार उन्होंने 1967 में कहा कि "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या अपेक्षाकृत रूप तक हल हो सकती है।"[41]

डौग लेनट की सीईसी परियोजना (जो 1984 में प्रारम्भ हुई) और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की प्रारम्भ में यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। वित्तीय संस्थाओ को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।[lower-alpha 3] 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर परियोजना ने एजीआई में रुचि को पुनर्जीवित किया था। जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य सम्मिलित थे जैसे "आकस्मिक बातचीत प्रारम्भ रखें"।[45] इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।[43][46] हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार रूप से गिर गया और पांचवीं पीढ़ी के कंप्यूटर परियोजना के लक्ष्य कभी पूरे नहीं हुए।[47]20 वर्षों में दूसरी बार एजीआई की आसन्न उपलब्धि का पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक एआई शोधकर्ताओं के पास अपेक्षाकृत व्यर्थ दायित्व करने की प्रतिष्ठा थी। वे पूर्वानुमान करने के लिए अनिच्छुक हो गए[lower-alpha 4] और "जंगली आंखों वाले सपने देखने वाले" वर्गीकृत किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धिमत्ता का उल्लेख करने से मना कर दिया था।[49]

संकीर्ण एआई अनुसंधान

1990 के दशक और 21वीं सदी की प्रारम्भ में मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और शैक्षणिक सम्मान प्राप्त किया था जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकते है।[50] ये "प्रयुक्त एआई" प्रणाली अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं और इस अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक विकसित प्रवृत्ति माना गया था और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद है।[51]

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले प्रोग्रामों को मिलाकर दृढ़ एआई को विकसित किया जा सकता है।[52] हंस मोरवेस ने 1988 में लिखा था कि मुझे विश्वास है कृत्रिम बुद्धिमत्ता के लिए यह बॉटम अप मार्ग एक दिन पारंपरिक टॉप-डाउन मार्ग को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और सामान्य ज्ञान प्रदान करने के लिए तैयार है जो तर्कबुद्धिमत्ता प्रोग्राम में निराशाजनक रूप से महत्वपूर्ण रहा है। पूरी तरह से बुद्धिमत्ता मशीनों का परिणाम तब होगा जब दो प्रयासों को एकत्र करते हुए रूपक बहुमुल्य स्पंदन को चलाया जाएगा।[52] हालाँकि यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सांकेतिक स्तरीय परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा प्रायः व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "ऊपरी भाग" (प्रतीकात्मक) दृष्टिकोण किसी प्रकर के "निम्न ऊपरी" (संवेदी) दृष्टिकोण को कहीं बीच में प्राप्त हो सकते है यदि इस पत्र में ग्स्तरीय विचार मान्य हैं तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है नीचे से ऊपर एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं अभिगम्य किया जा सकता है और न ही यह स्पष्ट है कि हमें इस प्रकार के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से अलग करने की राशि अर्थात जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करने की आवश्यकता है।[53]

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान

शब्द "कृत्रिम सामान्य बुद्धिमत्ता" का उपयोग 1997 के प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था।[54] पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से प्रस्तुत किया गया और इसे लोकप्रिय बनाया गया था।[55] 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था।[56] "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में एजीआई में पहला समर स्कूल ज़ियामेन चीन में 2009 में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010[57] और 2011[58] में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। एमआईटी ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया था। जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता सम्मिलित थे।

2023 तक अधिकांश एआई शोधकर्ता एजीआई पर अपेक्षाकृत ध्यान देते हैं कुछ विशेषज्ञों का अनुमान है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए गुप्त सूचना बहुत जटिल है। हालांकि कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं और कई कृत्रिम सामान्य बुद्धिमत्ता पर सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

घटनाओं से सम्बन्धित समय

अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है।[59] 2007 तक एजीआई अनुसंधान समुदाय में सामान्य सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है।[60] अर्थात 2015 और 2045 के बीच प्रशंसनीय थी।[61] मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक सुझाव दी है कि क्या प्रगति इतनी तीव्रता से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक पूर्वानुमानों के लिए समान रूप से 16-26 वर्षों के भीतर हो सकती है विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।[62]

2012 में एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया था जिसने छवि नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता था। जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से अपेक्षाकृत अच्छी है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया था। एलेक्सनेट को वर्तमान सघन अध्ययन का प्रारंभिक "ग्राउंड-ब्रेकर" माना जाता था।[63]

2017 में शोधकर्ताओं फेंग लियू, योंगशि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे गूगल एआई, ऐप्पल की सिरी और अन्य पर गुप्त परीक्षण किए। अधिकतम पर ये एआई लगभग 47 के आईक्यू मान तक पहुँच गए जो पहली कक्षा में लगभग छह साल के बच्चे के अनुरूप है। एक वयस्क औसतन लगभग 100 आता है। इसी प्रकार के परीक्षण 2014 में किए गए थे। जिसमें आईक्यू प्राप्तांक 27 के अधिकतम मान तक गया था।[64][65]

2020 में ओपीईएनएआई ने जीपीटी-3 विकसित किया था एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस विषय पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।[66]

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया था और "परियोजना दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया था। ओपीईएन एआई ने अपने सुरक्षा दिशानिर्देशों का अनुसरण करने के लिए चैटबॉट में परिवर्तन करने के लिए कहा तब रोहरर ने जीपीटी-3 एपीआई से परियोजना दिसंबर को असंबद्ध कर दिया था।[67]

2022 में गाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया था जो एक सामान्य-उद्देश्य प्रणाली है। जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।[68]

2023 में माइक्रोसॉफ्ट शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया था। जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और नियम जैसे कई डोमेन में विस्तृत कार्यों में मानव-स्तर के कार्यों का प्रदर्शन किया। इस शोध ने इस विषय पर वार्तालाप छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है। इस प्रकार की प्रणालियों के आगे शोध और मूल्यांकन की आवश्यकता पर महत्व दिया गया था।[69]

मस्तिष्क अनुरूपण

संपूर्ण मस्तिष्क अनुकरण

एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क के विस्तार से मस्तिष्क अवलोकन और मस्तिष्क चित्रण करके इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में प्रारूपित करके बनाया जाता है। कंप्यूटर अनुरूपण मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से सक्षम होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही कार्य करता है।[70] चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क अनुरूपण के संदर्भ में कम्प्यूटेशनल न्यूरो विज्ञान और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध [61] में दृढ़ एआई के दृष्टिकोण के रूप में की गई है। न्यूरो काल्पनिक प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं तीव्रता से सुधार कर रही हैं और "द सिंगुलैरिटी इज़ नियर"[60] पुस्तक में रे कुर्ज़वील ने पूर्वानुमान किया है कि पर्याप्त गुणवत्ता का मानचित्र एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर आधारित हो सकती है।

प्रारंभिक अनुमान

निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में अन्तर्ग्रथन होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक संबंधन (अन्तर्ग्रथन) होते हैं। तीन साल के बच्चे के मस्तिष्क में लगभग 1015 अन्तर्ग्रथ (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं 1014 से 5×1014 अन्तर्ग्रथ (100 से 500 ट्रिलियन) तक[71] न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) होता है।[72]

1997 में कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया था जिसकी तुलना के लिए यदि "गणना" एक "चल बिन्दु संचालन" के बराबर थी। वर्तमान मे सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में प्राप्त किया गया था। उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर का पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025 यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि प्रारम्भ हो रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग

कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई सम्मिलित कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क अनुरूपण को संभवतः जैविक न्यूरॉन्स के विस्तृत कोशिकीय व्यवहार पर अधिकृत करना होगा जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा प्रस्तुत किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई अनुक्रम इसके अतिरिक्त अनुमान ग्लियाल कोशिकाओं के लिए उत्तरदाई नहीं हैं। जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।[73]

वर्तमान शोध

कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग संरचना पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क अनुरूपण का परीक्षण कर रही हैं। कृत्रिम बुद्धिमत्ता प्रणाली परियोजना ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय अनुरूपण को प्रयुक्त किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे थे।[74] ब्लू मस्तिष्क परियोजना ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 अन्तर्ग्रथ वाले एकल नियोकोर्टिकल स्तम्भ का वास्तविक समय अनुरूपण बनाने के लिए सबसे तीव्र सुपरकंप्यूटर संरचना, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया था।[75] एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं" ब्लू मस्तिष्क के निदेशक हेनरी मार्कराम परियोजना 2009 में ऑक्सफोर्ड में टीईडी सम्मेलन में कहा गया था।[76] न्यूरो-सिलिकॉन अंतरापृष्ठ को वैकल्पिक कार्यान्वयन योजना के रूप में प्रस्तावित किया गया है जो अपेक्षाकृत अच्छा हो सकता है।[77] हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन मस्तिष्क?" में उपरोक्त तर्कों ("मस्तिष्क अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया था।[78] उन्होंने तंत्रिका ऊतक विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम[specify] ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं और न ही किसी प्रकार के प्रसंस्करण न्यूरॉन्स का प्रदर्शन करते हैं।

ओपनवॉर्म परियोजना में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 (कुल लगभग 1000 कोशिकाओं के बीच) न्यूरॉन्स हैं। परियोजना के प्रारम्भ से पहले पशु के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था। लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल कार्य नहीं करते थे। वर्तमान में,[may be outdated as of April 2023] प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के शुद्ध अनुकरण पर ध्यान केंद्रित करते हैं। लेकिन परिणाम को अभी तक पूरी तरह से सफल नहीं कहा जा सकता है।

अनुरूपण-आधारित दृष्टिकोणों की आलोचना

अनुरूपण-आधारित मस्तिष्क प्रस्ताव की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और सामान्य अर्थ के लिए आवश्यक है।[79] यदि यह सिद्धांत सही है तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक शरीर) से अधिक सम्मिलित करने की आवश्यकता होगी।[61] गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है। लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा। 109 समेकित भुगतान सांख्‍यिकी (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील और मोरेवेक द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए जो मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम हो लेकिन कुछ रुचि के अतिरिक्त[80] ऐसा कोई अनुकरण सम्मिलित नहीं है।[citation needed] इसके कई कारण हैं:

  1. न्यूरॉन मॉडल अतिसरलीकृत लगता है। (अगला भाग देखें)।
  2. उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है।[lower-alpha 5] शुद्ध रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरो काल्पनिक # कार्यात्मक चुंबकीय अनुनाद जैसी तकनीकों का उपयोग करके देखी गई है कि किससे संबंधित है।
  3. यहां तक ​​​​कि यदि अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है तो प्रारंभिक अनुरूपन प्रोग्राम बहुत ही अक्षम होने की संभावना है और इसलिए अपेक्षाकृत अधिक हार्डवेयर की आवश्यकता हो सकती है।
  4. एक जीव का मस्तिष्क महत्वपूर्ण होते हुए भी एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन अवधारणा इस दार्शनिक अवधारणा को औपचारिक रूप देती है और सेफैलोपॉड में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया है।[82]

इसके अतिरिक्त मानव मस्तिष्क का पैमाना वर्तमान में अपेक्षाकृत अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब अन्तर्ग्रथ होते हैं।[83][84] एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है। जिनमें से 16.3 बिलियन प्रमस्तिष्क प्रांतस्था में होते हैं और 69 बिलियन सेरिबैलम में होते हैं।[85] ग्लियाल कोशिकीय अन्तर्ग्रथ वर्तमान में अनिर्धारित हैं लेकिन अपेक्षाकृत बहुत अधिक होने के लिए जाने जाते हैं।

दार्शनिक दृष्टिकोण

दर्शनशास्त्र में परिभाषित दृढ़ एआई

1980 में दार्शनिक जॉन सियरल ने अपने चीनी कक्ष के तर्क के एक भाग के रूप में दृढ़ एआई शब्द का निर्माण किया था।[86] वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे।[lower-alpha 6]

  • दृढ़ एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली पर विचार कर सकती है जो एक मस्तिष्क और चेतना है।
  • कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसे कार्य' करती है वह उस पर विचार करती है और उसके पास मस्तिष्क और चेतना होती है।

पहले वाले को उन्होंने "दृढ़" कहा क्योंकि यह एक दृढ़ प्रामाण देता है यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "दृढ़ एआई" मशीन के समान होता है लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी हो सकता है। जिसका शैक्षणिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग सामान्य है।[87]

मुख्यधारा विषयक एआई की सबसे अधिक रुचि इस विषय में है कि कोई प्रोग्राम कैसे व्यवहार करता है।[88] रसेल और पीटर नॉरविग के अनुसार "जब तक प्रोग्राम कार्य करता है वे चिंता नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण" पता है कि क्या यह वास्तव में मन है। वास्तव में, यह बताने का कोई तरीका नहीं हो सकता है एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि के बराबर संभव है।" इस प्रकार रसेल और नॉरविग के अनुसार "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं और दृढ़ एआई परिकल्पना की चिंता नहीं करते हैं।"[89] इस प्रकार, शैक्षणिक एआई अनुसंधान के लिए "दृढ़ एआई" और "एजीआई" दो बहुत अलग वस्तुएं हैं।

सियरल और मुख्यधारा विषयक एआई के विपरीत कुछ पूर्वानुमान जैसे रे कुर्ज़वील "दृढ़ एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं।[60] यह सियरल के दृढ़ एआई के समान नहीं है जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल उनकी समझ से बाहर है।[89]

चेतना

बुद्धि के अतिरिक्त मानव मन के अन्य दृष्टिकोण दृढ़ एआई की अवधारणा के लिए प्रासंगिक हैं और ये विज्ञान कथन और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:

  • चेतनाः गुण और विचार होना।[lower-alpha 7]
  • आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
  • भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
  • ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है क्योंकि दृढ़ एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं। जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव पशुओ के अधिकार एकीकृत करने पर प्रारंभिक कार्य किया गया है। पूर्ण नैतिक प्रतिनिधित्व[clarification needed] दृढ़ एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलित कानूनी और सामाजिक संरचना के साथ[91] बिल जॉय, दूसरों के बीच तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए जोखिम हो सकती है।[92]</nowiki></ref> यह दिखाया जाना बाकी है कि दृढ़ एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या आवश्यक नही है। चेतना की भूमिका स्पष्ट नहीं है और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधों का अनुकरण करती है तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमत्ता मशीन से परिपूर्ण होते है यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमत्ता तरीके से कार्य करना प्रारम्भ कर सकते है।

कृत्रिम चेतना अनुसंधान

हालांकि दृढ़ एआई/एजीआई में चेतना की भूमिका विवादास्पद है। कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को प्रयुक्त करने की संभावनाओं की जांच करते है।[81] प्रारंभिक प्रयास में इगोर अलेक्जेंडर[93] ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लग सकते है।[clarification needed]

दृढ़ एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण

1956 में एआई अनुसंधान के प्रारम्भ के बाद से मानव स्तर पर बुद्धिमत्ता नियम के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है।[needs update][94] एक संभावित कारण यह है कि कंप्यूटर-विज्ञान उन्मुख और न्यूरो विज्ञान उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप और नम्यता की कमी है।[94][95][96] साथ ही एआई अनुसंधान में सम्मिलित जटिलता भी दृढ़ एआई अनुसंधान की प्रगति को सीमित करती है।[94]

एआई अनुसंधान मे कमी के लिए वैचारिक सीमाएं एक और संभावित कारण हैं।[94] एआई शोधकर्ताओं को दृढ़ एआई प्राप्त करने की खोज के लिए एक दृढ़ आधार प्रदान करने के लिए अपने अनुशासन की वैचारिक संरचना को संशोधित करने की आवश्यकता हो सकती है। इसका तात्पर्य यह है कि एक सामाजि सांस्कृतिक संदर्भ में एक दृढ़ एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है।[clarification needed][fact or opinion?] जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था कि यह संरचना[clarification needed] से प्रारम्भ होती है। वीज़ेनबाम[clarification needed] अवलोकन कि बुद्धिमत्ता केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।[94]

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे कार्य कर सकते हैं जो लोगों के लिए जटिल हैं जैसे कि गणित लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है जैसे चलना (मोरवेक का विरोधाभास)।[needs update][94] डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग विचार और तर्क को समान मानते हैं।[non sequitur][97] विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए इस विचार ने एआई शोधकर्ताओं को परेशान किया है।[non sequitur][97]

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास उत्पन्न करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल पूर्वानुमानों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है।[61] एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं।[98] अधिकांश जांचकर्ता 21वीं सदी में एजीआई प्राप्त करने को लेकर आशान्वित हैं।[61]

दृढ़ एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है।[99][100][101] कई शोधकर्ता एआई के भविष्य के पूर्वानुमान से जुड़े किसी भी संदेह को कम आंकते हैं। लेकिन मानव मस्तिष्क मॉडलिंग जैसे विचारों को गंभीरता से लिए अतिरिक्त एजीआई शोधकर्ता समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।[needs copy edit][61]

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे।[specify][94][non sequitur] जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना प्रारम्भ किया था तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी।[102] उस समय शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।[102] जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ कार्य करते समय फिर से परिभाषित करते हैं। एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है।[incomprehensible][102] एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है।[further explanation needed][102] हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है। जिसने अमूर्त संचालकों की भूमिका के लिए समस्याएँ उत्पन्न कर दी हैं।[further explanation needed][103]

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से अपेक्षाकृत अच्छा रहता है।[99] लेकिन तीव्रता से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को प्रयुक्त करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धिमत्ता से अनुरूपन की स्वीकृति देते हैं। जबकि दृढ़ एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है। यह व्यापक रूप से सहमत है।[weasel words] एआई शोधकर्ताओं ने इस विषय पर वार्तालाप की है कि भावात्मक कंप्यूटिंग है या नहीं है।[104] एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों को स्वीकृति देता है स्वयं का मस्तिष्क रखने के लिए[clarification needed].[94] भावनाएँ मनुष्य को अनुभवों को याद रखने में सहायता करती हैं।[97] डेविड गेलर्नटर लिखते हैं कि कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी सूक्ष्मताओ का अनुकरण नहीं कर सकता है।[97] भावना के दृढ़ एआई शोध का विषय बने रहने की संभावना है।[105][106]

विवाद और जोखिम

व्यवहार्यता

एजीआई 2022 से काल्पनिक बना हुआ है।[107][108] ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं इस पर सभी के विचार अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा कार्य करने में सक्षम हो सकती है जो एक मनुष्य कर सकता है।" यह पूर्वानुमान सच होने में विफल है। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस प्रकार की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं और अनुभूति की वैज्ञानिक रूप से गहरी समझ की आवश्यकता है।[109] द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तीव्र प्रकाश अंतरिक्ष उड़ान के बीच की खाई है।[110]

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि दृढ़ एआई को भविष्य में प्राप्त किया जा सकता है लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक दृढ़ एआई प्राप्त करने की संभावना को अस्वीकृत करते हैं।[94][111] जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जा सकता है लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का शुद्धता का अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर औसत 2081 के साथ विशेषज्ञों में से 16.5% ने उत्तर दिया "कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके अतिरिक्त 90% विशेषज्ञों ने आत्मविश्वास के साथ[112][113] आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

यांत्रिक बुद्धिमत्ता शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि " 60 साल की समय सीमा में मानव स्तर एआई के आगमन का पूर्वानुमान करने की दिशा में एक दृढ़ पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित" एआई उन्होंने 1950 और 2012 के बीच किए गए 95 पूर्वानुमान का विश्लेषण किया कि मानव स्तर एआई कब तक आ सकती है।[114]

मानव अस्तित्व के लिए संभावित जोखिम

एआई अभिधारणा मनुष्यों के लिए एक अस्तित्वगत जोखिम उत्पन्न करता है और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक आंकड़ा द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित जोखिम की मूल अभिधारणा का समर्थन करते हैं। बिल गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना को प्रस्तुत किया है।[115][91][116] [117]

इसलिए मानव के कई लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए प्रत्येक संभव प्रयास कर रहे हैं यदि अपेक्षाकृत एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा कि हम कुछ दशकों में अभिगम्य होते है तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है' जब आप यहां पहुंचें तो हमें कॉल करें–हम रोशनी चालू रखेंगे?' लगभग नहीं–लेकिन एआई के साथ संभव यही हो रहा है।[118]

एजीआई से सम्बद्ध जोखिमों को 2021 की व्यवस्थित समीक्षा में डेटा की कमी को ध्यान में रखते हुए निम्नलिखित संभावित जोखिम पाए गए है। जिसमे एजीआई स्वयं को मानव प्रबंधकों के नियंत्रण से अलग कर रहा है और असुरक्षित लक्ष्यों को सम्मिलित किया जा रहा है या असुरक्षित एजीआई, एजीआई की विकास नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन को विकसित कर रहा है।[119]

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं कि किस प्रकार के सुरक्षा उपाय, एल्गोरिदम या संरचनात्मक प्रोग्राम इस संभावना को अधिकतम करने के लिए प्रयुक्त कर सकते हैं कि उनकी पुनरावर्ती सुधार एआई मे उच्च बुद्धिमत्ता तक अभिगमन के बाद विनाशकारी के अतिरिक्त मैत्रीपूर्ण तरीके से व्यवहार करना प्रारम्भ रखें?[91][120] नियंत्रण समस्या को हल करना एआई उपकरणो की दौड़ से जटिल है[121][122] जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखने मे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई के परिणामस्वरूप एजीआई सक्षम युद्ध होता है और एआई मिसलिग्न्मेंट की स्थिति में एजीआई निर्देशित युद्ध संभावित रूप से सभी मानवता के विरुद्ध है।[123][124]

अवधारणा है कि एआई अस्तित्वगत जोखिम या कई अवरोधक उत्पन्न कर सकता है। संदेहवादी कभी-कभी यह आरोप लगाते हैं कि अवधारणा क्रिप्टो-धार्मिक है एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास के स्थान पर उच्च बुद्धिमत्ता की संभावना में एक तर्कहीन विश्वास के साथ जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि शीघ्रता मशीनें किसी भी प्रकार से बुद्धिमत्ता थीं। "एक भ्रम" और अमीरों द्वारा यह एक "अद्भुत चाल" है।[125] अत्यधिक आलोचना का तर्क है कि कम समय में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक अभिगमन से पहले ही मानव जाति स्वयं को नष्ट कर सकती है मूर के नियम के मूल प्रस्तावक गॉर्डन मूर ने घोषणा किया कि "मैं एक संदेहवादी हूं मुझे विश्वास नहीं है कि तकनीकी विलक्षणता होने की संभावना है कम से कम लंबे समय तक और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है।"[126] बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है जबकि हमने अभी तक ग्रह पर पैर भी नहीं रखा है।"[127]

यह भी देखें

टिप्पणियाँ

  1. Cite error: Invalid <ref> tag; no text was provided for refs named Searle's Strong AI
  2. AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent."[16] (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  3. The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.[42] In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research".[43][44]
  4. As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."[48]
  5. In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.[81]
  6. As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."[72]
  7. Note that consciousness is difficult to define. A popular definition, due to Thomas Nagel, is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.[90]

संदर्भ

  1. Hodson, Hal (1 March 2019). "DeepMind and Google: the battle to control artificial intelligence". 1843. Archived from the original on 7 July 2020. Retrieved 7 July 2020. AGI stands for Artificial General Intelligence, a hypothetical computer program...
  2. Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 October 2019). "The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge". EMBO Reports (in English). 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926.
  3. 3.0 3.1 "ओपनएआई चार्टर". openai.com (in English). Retrieved 6 April 2023.
  4. "के बारे में". openai.com (in English). Retrieved 6 April 2023.
  5. 5.0 5.1 5.2 "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. Retrieved 6 April 2023.
  6. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  7. 7.0 7.1 "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review (in English). Retrieved 6 April 2023.
  8. "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News (in English). 23 March 2023. Retrieved 6 April 2023.
  9. Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (PDF), Global Catastrophic Risk Institute Working Paper 20, archived (PDF) from the original on 14 November 2021, retrieved 13 January 2022
  10. Kurzweil 2005, p. 260.
  11. 11.0 11.1 Kurzweil, Ray (5 August 2005a), "Long Live AI", Forbes, archived from the original on 14 August 2005: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  12. Treder, Mike (10 August 2005), "Advanced Human Intelligence", Responsible Nanotechnology, archived from the original on 16 October 2019
  13. "The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013". Archived from the original on 26 February 2014. Retrieved 22 February 2014.
  14. Newell & Simon 1976, This is the term they use for "human-level" intelligence in the physical symbol system hypothesis.
  15. "मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय". Archived from the original on 25 September 2009. Retrieved 8 October 2007.
  16. McCarthy, John (2007a). "Basic Questions". Stanford University. Archived from the original on 26 October 2007. Retrieved 6 December 2007.
  17. This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  18. Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  19. White, R. W. (1959). "Motivation reconsidered: The concept of competence". Psychological Review. 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397.
  20. Johnson 1987
  21. de Charms, R. (1968). Personal causation. New York: Academic Press.
  22. Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  23. Goertzel, Ben (2014). "Artificial General Intelligence: Concept, State of the Art, and Future Prospects". Journal of Artificial General Intelligence. Lecture Notes in Computer Science. 8598. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID 8387410.
  24. Legg, Shane (2008). मशीन सुपर इंटेलिजेंस (PDF) (Thesis). University of Lugano. Archived (PDF) from the original on 15 June 2022. Retrieved 19 July 2022.
  25. Everitt, Tom; Lea, Gary; Hutter, Marcus. "एजीआई सेफ्टी लिटरेचर रिव्यू" (PDF). International Joint Conferences on Artificial Intelligence Organization. Retrieved 26 April 2023.
  26. Leike, Jan; Hutter, Marcus (2015). बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी. The 28th Conference on Learning Theory. arXiv:1510.04931. Archived from the original on 6 December 2022. Retrieved 6 December 2022.
  27. 27.0 27.1 {{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }
  28. {{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }
  29. Bennett, Michael Timothy (2021). प्रतीक उद्भव और किसी भी कार्य का समाधान. 14th Conference on Artificial General Intelligence. arXiv:2109.01281. doi:10.1007/978-3-030-93758-4_4. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  30. Bennett, Michael Timothy; Maruyama, Yoshihiro (2021). कृत्रिम वैज्ञानिक. 14th Conference on Artificial General Intelligence. arXiv:2110.01831. doi:10.1007/978-3-030-93758-4_6. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  31. Muehlhauser, Luke (11 August 2013). "What is AGI?". Machine Intelligence Research Institute. Archived from the original on 25 April 2014. Retrieved 1 May 2014.
  32. "What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence". Talky Blog (in English). 13 July 2019. Archived from the original on 17 July 2019. Retrieved 17 July 2019.
  33. Shapiro, Stuart C. (1992). "Artificial Intelligence" (PDF). In Stuart C. Shapiro (ed.). आर्टिफिशियल इंटेलिजेंस का विश्वकोश (Second ed.). New York: John Wiley. pp. 54–57. Archived (PDF) from the original on 1 February 2016. (Section 4 is on "AI-Complete Tasks".)
  34. Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "एआई-पूर्णता की परिभाषित विशेषता के रूप में ट्यूरिंग टेस्ट" (PDF). Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. Archived (PDF) from the original on 22 May 2013.
  35. Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Archived 4 March 2016 at the Wayback Machine. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  36. Bergmair, Richard (7 January 2006). "प्राकृतिक भाषा स्टेग्नोग्राफ़ी और एक "एआई-पूर्ण" सुरक्षा आदिम". CiteSeer. CiteSeerX 10.1.1.105.129.
  37. Crevier 1993, pp. 48–50
  38. "Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines". Archived from the original on 6 May 2022. Retrieved 12 March 2022.
  39. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  40. "Scientist on the Set: An Interview with Marvin Minsky". Archived from the original on 16 July 2012. Retrieved 5 April 2008.
  41. Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  42. Lighthill 1973; Howe 1994
  43. 43.0 43.1 NRC 1999, "Shift to Applied Research Increases Investment".
  44. Crevier 1993, pp. 115–117; Russell & Norvig 2003, pp. 21–22.
  45. Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  46. Crevier 1993, pp. 161–162, 197–203, 240; Russell & Norvig 2003, p. 25.
  47. Crevier 1993, pp. 209–212
  48. McCarthy, John (2000). "Reply to Lighthill". Stanford University. Archived from the original on 30 September 2008. Retrieved 29 September 2007.
  49. Markoff, John (14 October 2005). "आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन". The New York Times. Archived from the original on 2 February 2023. Retrieved 18 February 2017. इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।
  50. Russell & Norvig 2003, pp. 25–26
  51. "इमर्जिंग टेक हाइप साइकिल में रुझान". Gartner Reports. Archived from the original on 22 May 2019. Retrieved 7 May 2019.
  52. 52.0 52.1 Moravec 1988, p. 20
  53. Harnad, S (1990). "सिंबल ग्राउंडिंग प्रॉब्लम". Physica D. 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. S2CID 3204300.
  54. Gubrud 1997
  55. "Who coined the term "AGI"? » goertzel.org" (in English). Archived from the original on 28 December 2018. Retrieved 28 December 2018., via Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'
  56. "First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009". Archived from the original on 28 September 2020. Retrieved 11 May 2020.
  57. "Избираеми дисциплини 2009/2010 - пролетен триместър" [Elective courses 2009/2010 - spring trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in български). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  58. "Избираеми дисциплини 2010/2011 - зимен триместър" [Elective courses 2010/2011 - winter trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in български). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  59. Goertzel & Pennachin 2006.
  60. 60.0 60.1 60.2 (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Archived 30 June 2011 at the Wayback Machine where he defines strong AI as "machine intelligence with the full range of human intelligence."
  61. 61.0 61.1 61.2 61.3 61.4 61.5 Goertzel 2007.
  62. Katja Grace (2016). "Error in Armstrong and Sotala 2012". AI Impacts (blog). Archived from the original on 4 December 2020. Retrieved 24 August 2020.
  63. Butz, Martin V. (1 March 2021). "मजबूत एआई की ओर". KI - Künstliche Intelligenz (in English). 35 (1): 91–101. doi:10.1007/s13218-021-00705-x. ISSN 1610-1987. S2CID 256065190.
  64. Liu, Feng; Shi, Yong; Liu, Ying (2017). "आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड". Annals of Data Science. 4 (2): 179–191. arXiv:1709.10242. doi:10.1007/s40745-017-0109-0. S2CID 37900130.
  65. Brien, Jörn (5 October 2017). "Google AI सिरी से दोगुना स्मार्ट है" [Google AI is twice as smart as Siri - but a six-year-old beats both] (in Deutsch). Archived from the original on 3 January 2019. Retrieved 2 January 2019.
  66. Grossman, Gary (3 September 2020). "हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं". VentureBeat. Archived from the original on 4 September 2020. Retrieved 5 September 2020. Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI.
  67. Quach, Katyanna. "A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down". The Register. Archived from the original on 16 October 2021. Retrieved 16 October 2021.
  68. Wiggers, Kyle (13 May 2022), "DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots", TechCrunch, archived from the original on 16 June 2022, retrieved 12 June 2022
  69. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  70. Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  71. Drachman 2005.
  72. 72.0 72.1 Russell & Norvig 2003.
  73. Swaminathan, Nikhil (January–February 2011). "Glia—the other brain cells". Discover. Archived from the original on 8 February 2014. Retrieved 24 January 2014.
  74. Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). "स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल" (PDF). PNAS. 105 (9): 3593–3598. Bibcode:2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. Archived from the original (PDF) on 12 June 2009. Retrieved 23 June 2015.
  75. "परियोजना के मील के पत्थर". Blue Brain. Retrieved 11 August 2008.
  76. "कृत्रिम मस्तिष्क '10 साल दूर'". BBC News. 22 July 2009. Archived from the original on 26 July 2017. Retrieved 25 July 2009.
  77. University of Calgary news Archived 18 August 2009 at the Wayback Machine, NBC News news Archived 4 July 2017 at the Wayback Machine
  78. Moravec 1998.
  79. de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  80. "[links to bee brain studies]". Honey Bee Brain. Archived from the original on 25 July 2008. Retrieved 30 March 2010.
  81. 81.0 81.1 Yudkowsky 2006.
  82. Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). "ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स". J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID 15829594.
  83. Williams & Herrup 1988
  84. "nervous system, human." Encyclopædia Britannica. 9 January 2007
  85. Azevedo et al. 2009.
  86. Searle 1980
  87. For example:
  88. though see Explainable artificial intelligence for curiosity by the field about why a program behaves the way it does
  89. 89.0 89.1 Russell & Norvig 2003, p. 947.
  90. Nagel 1974.
  91. 91.0 91.1 91.2 {{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=Physica Scripta |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}
  92. <ref>Joy, Bill (April 2000). "भविष्य को हमारी आवश्यकता क्यों नहीं है". Wired.<nowiki>
  93. Aleksander 1996.
  94. 94.0 94.1 94.2 94.3 94.4 94.5 94.6 94.7 94.8 Clocksin 2003.
  95. James, Alex P. (2022). "आर्टिफिशियल जनरल इंटेलिजेंस चिप डेवलपमेंट क्यों, क्या और कैसे". IEEE Transactions on Cognitive and Developmental Systems. 14 (2): 333–347. arXiv:2012.06338. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Archived from the original on 28 August 2022. Retrieved 28 August 2022.
  96. Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; He, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "हाइब्रिड टियांजिक चिप आर्किटेक्चर के साथ आर्टिफिशियल जनरल इंटेलिजेंस की ओर". Nature (in English). 572 (7767): 106–111. Bibcode:2019Natur.572..106P. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Archived from the original on 29 August 2022. Retrieved 29 August 2022.
  97. 97.0 97.1 97.2 97.3 Gelernter 2010.
  98. Strickland, Eliza (2021). "The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle?". IEEE Spectrum. 58 (10): 26–31. doi:10.1109/mspec.2021.9563956. ISSN 0018-9235. S2CID 238478853.
  99. 99.0 99.1 McCarthy 2007.
  100. Yamakawa, Hiroshi (2021). "The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain". Neural Networks. 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. PMID 34600220. S2CID 232170707.
  101. Jones, David T.; Kerber, Kevin A. (7 February 2022). "Artificial Intelligence and the Practice of Neurology in 2035". Neurology. 98 (6): 238–245. doi:10.1212/wnl.0000000000013200. ISSN 0028-3878. PMID 35131918. S2CID 246635279. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  102. 102.0 102.1 102.2 102.3 Holte & Choueiry 2003.
  103. Zucker 2003.
  104. Deane, George (2022). "Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence". Artificial Life. 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
  105. Kaplan, Andreas; Haenlein, Michael (2019). "Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  106. Priyadarshini, Ishaani; Cotton, Chase (2022). "AI Cannot Understand Memes: Experiments with OCR and Facial Emotions". Computers, Materials & Continua (in English). 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. S2CID 239639188. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  107. Boucher, Philip (March 2019). "Concluding remarks". आर्टिफिशियल इंटेलिजेंस कैसे काम करता है (PDF) (Report). European Parliamentary Research Service. Archived (PDF) from the original on 3 March 2020. Retrieved 3 March 2020. आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।
  108. itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archived 9 November 2020 at the Wayback Machine, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  109. Allen, Paul; Greaves, Mark (12 October 2011). "विलक्षणता निकट नहीं है". MIT Technology Review. Retrieved 17 September 2014.
  110. Winfield, Alan. "आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा". The Guardian. Archived from the original on 17 September 2014. Retrieved 17 September 2014.
  111. Fjelland, Ragnar (17 June 2020). "सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा". Humanities and Social Sciences Communications (in English). 7 (1): 1–9. doi:10.1057/s41599-020-0494-4. ISSN 2662-9992. S2CID 219710554.
  112. Raffi Khatchadourian (23 November 2015). "The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?". The New Yorker. Archived from the original on 28 January 2016. Retrieved 7 February 2016.
  113. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  114. Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In Beyond AI: Artificial Dreams, edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia
  115. Müller, Vincent C. (3 July 2014). "सामान्य कृत्रिम बुद्धि के जोखिम". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. S2CID 31835019.
  116. Turchin, Alexey (1 March 2019). "भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना". Futures (in English). 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. S2CID 158975847.
  117. Rawlinson, Kevin. BBC News https://www.bbc.co.uk/news/31047780. Archived from the original on 29 January 2015. Retrieved 30 January 2015. {{cite news}}: Missing or empty |title= (help)
  118. "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent (UK). Archived from the original on 25 September 2015. Retrieved 3 December 2014.
  119. McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (13 August 2021). "The risks associated with Artificial General Intelligence: A systematic review". Journal of Experimental & Theoretical Artificial Intelligence: 1–15. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. S2CID 238643957.
  120. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112.
  121. Naudé, Wim; Dimitri, Nicola (1 June 2020). "The race for an artificial general intelligence: implications for public policy". AI & Society (in English). 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. S2CID 52045822.
  122. Torres, Phil (4 May 2019). "कृत्रिम सामान्य बुद्धि की संभावना और जोखिम". Bulletin of the Atomic Scientists. 75 (3): 105–108. Bibcode:2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. S2CID 150498464. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  123. Turchin, Alexey; Denkenberger, David (27 July 2018), "Military AI as a Convergent Goal of Self-Improving AI", Artificial Intelligence Safety and Security, First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC, pp. 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, S2CID 65323952, archived from the original on 2 February 2023, retrieved 29 August 2022{{citation}}: CS1 maint: location (link)
  124. Carayannis, Elias G.; Draper, John (11 January 2022). "एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन". AI & Society (in English): 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID 35035113. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  125. Hamblin, James (9 May 2014). "But What Would the End of Humanity Mean for Me?". The Atlantic. Archived from the original on 4 June 2014. Retrieved 12 December 2015.
  126. "टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी". IEEE Spectrum: Technology, Engineering, and Science News (in English). No. SPECIAL REPORT: THE SINGULARITY. 1 June 2008. Archived from the original on 30 April 2019. Retrieved 8 April 2020.
  127. Shermer, Michael (1 March 2017). "सर्वनाश एआई". Scientific American (in English). 316 (3): 77. Bibcode:2017SciAm.316c..77S. doi:10.1038/scientificamerican0317-77. PMID 28207698. Archived from the original on 1 December 2017. Retrieved 27 November 2017.


स्रोत

बाहरी संबंध