कृत्रिम सामान्य बुद्धि

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। AGI अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं। वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। [3] AGI बनाना कुछ कृत्रिम होशियारी रिसर्च और OpenAI, डीपमाइंड और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। साइंस फिक्शन और फ्यूचर स्टडीज में AGI एक सामान्य विषय है।

AGI के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है। इसके अतिरिक्त, इस बात पर भी बहस चल रही है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे कि GPT-4, AGI का प्रारंभिक अभी तक अधूरा रूप है या यदि नए दृष्टिकोण की आवश्यकता है।

एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद मौजूद है; उदाहरण के लिए, OpenAI इसे एक अस्तित्वगत जोखिम के रूप में मानता है, जबकि अन्य AGI के विकास को एक जोखिम पेश करने के लिए बहुत दूरस्थ पाते हैं।।

2020 के एक सर्वेक्षण में 37 देशों में फैली 72 सक्रिय AGI R&D परियोजनाओं की पहचान की गई।

शब्दावली
एजीआई को मजबूत एआई, पूर्ण एआई, या सामान्य बुद्धिमान कार्रवाई के रूप में भी जाना जाता है। हालांकि, कुछ अकादमिक स्रोत कंप्यूटर प्रोग्राम के लिए "मजबूत एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। [ए] इसके विपरीत, कमजोर एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है। कुछ अकादमिक स्रोत "कमजोर एआई" का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।

संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई, और अधीक्षण।

विशेषताएं
बुद्धि के लिए विभिन्न मानदंड प्रस्तावित किए गए हैं (सबसे प्रसिद्ध ट्यूरिंग टेस्ट) लेकिन व्यापक रूप से कोई परिभाषा स्वीकार नहीं की गई है।

बुद्धि लक्षण
हालाँकि, शोधकर्ता आमतौर पर यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है: * स्वचालित तर्क, रणनीति का उपयोग करें, पहेलियों को हल करें और अनिश्चितता के तहत निर्णय लें; और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में आर्टिफिशियल इंटेलिजेंस सिस्टम इंटीग्रेशन एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं: इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है। कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल इंटेलिजेंस और निर्णय लेने) कल्पना (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।
 * सामान्य ज्ञान_ज्ञान_(कृत्रिम_बुद्धिमत्ता) सहित ज्ञान प्रतिनिधित्व;
 * स्वचालित योजना और शेड्यूलिंग;
 * यंत्र अधिगम;
 * प्राकृतिक भाषा प्रसंस्करण में संवाद करें;
 * मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि, सुनना, आदि), और
 * कार्य करने की क्षमता (जैसे रोबोटिक्स, तलाशने के लिए स्थान बदलना आदि)

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, मौजूद हैं (उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमान एजेंट देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक AI सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।

गणितीय औपचारिकताएँ
AGI का एक गणितीय सटीक विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। AIXI नामित, प्रस्तावित AGI एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है। इस प्रकार के एजीआई, मानव-समान व्यवहार को प्रदर्शित करने के बजाय बुद्धि की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है को सार्वभौमिक कृत्रिम बुद्धि भी कहा जाता है।

2015 में जन लीक और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता" - "एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (UTM) के संबंध में मापा जाता है। AIXI है सबसे बुद्धिमान नीति अगर यह उसी UTM का उपयोग करती है", जिसका परिणाम "AIXI के लिए सभी मौजूदा इष्टतमता गुणों को कम करता है"। यह समस्या AIXI द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन-शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है। कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं - यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है। इसके बाद, माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कमजोरी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की। [27] साथ के प्रयोगों (कमजोरी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कमजोरी को अधिकतम करने से इष्टतम "कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता" [29] या समकक्ष "सामान्यीकरण करने की क्षमता" होती है रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी> (इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना ). यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें)।

इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा, उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है, या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है।

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण
मानव-स्तरीय AGI की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:

ट्यूरिंग टेस्ट (ट्यूरिंग)
 * एक मशीन और एक मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं, जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है, जो परीक्षण पास करती है यदि यह मूल्यांकनकर्ता को समय के एक महत्वपूर्ण अंश को मूर्ख बना सकती है। नोट: ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धि के रूप में क्या योग्यता होनी चाहिए, केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करना चाहिए।

कॉफ़ी टेस्ट (वोज्नियाक)
 * एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है: कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उचित बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट टेस्ट (गोएर्टज़ेल)
 * एक मशीन एक विश्वविद्यालय में दाखिला लेती है, वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)
 * एक मशीन कम से कम एक ही काम में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण काम करती है।

एआई-पूर्ण समस्याएं
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का पालन करें, जानें कि किस बारे में बात की जा रही है (ज्ञान), और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि)। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।

एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ, और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से निपटने के लिए की जाती है।

एआई-पूर्ण समस्याओं को केवल वर्तमान कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है, और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है, जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के हमलों को पीछे हटाना है।

शास्त्रीय एआई
आधुनिक एआई शोध 1950 के दशक के मध्य में शुरू हुआ। एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी कि कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी। एआई के अग्रदूत हर्बर्ट ए. साइमन ने 1965 में लिखा था: "मशीनें बीस साल के भीतर कोई भी काम करने में सक्षम हो जाएंगी जो एक आदमी कर सकता है।

उनकी भविष्यवाणियां स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं, जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे संभव के रूप में समय की आम सहमति भविष्यवाणियों के अनुसार। उन्होंने 1967 में कहा, "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या काफी हद तक हल हो जाएगी।"

डौग लेनट की सीईसी परियोजना (जो 1984 में शुरू हुई), और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की शुरुआत में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया। 1980 के दशक की शुरुआत में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य शामिल थे जैसे "आकस्मिक बातचीत जारी रखें"। इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया। हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार ढंग से गिर गया, और पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए। 20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की भविष्यवाणी करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने के लिए अनिच्छुक हो गए और "जंगली आंखों वाले सपने देखने वाले [एस]" लेबल किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।

संकीर्ण एआई अनुसंधान
1990 के दशक और 21वीं सदी की शुरुआत में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकता है। ये "एप्लाइड एआई" सिस्टम अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी।

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। हंस मोरवेस ने 1988 में लिखा था:

मुझे विश्वास है कि आर्टिफिशियल इंटेलिजेंस के लिए यह बॉटम-अप रूट एक दिन पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमन्सेंस ज्ञान प्रदान करने के लिए तैयार है, जो रीजनिंग प्रोग्राम में निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करते हुए रूपक सुनहरी कील को चलाया जाएगा।

हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सिंबल ग्राउंडिंग परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "टॉप-डाउन" (प्रतीकात्मक) दृष्टिकोण किसी तरह "नीचे-ऊपर" (संवेदी) दृष्टिकोण को कहीं बीच में मिलेंगे। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक पहुंचने का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां पहुंचने से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)।

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान
शब्द "आर्टिफिशियल जनरल इंटेलिजेंस" का इस्तेमाल 1997 की शुरुआत में मार्क गुब्रुड द्वारा किया गया था पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में। 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से पेश किया गया और इसे लोकप्रिय बनाया गया। 2006 में AGI अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में। एजीआई में पहला समर स्कूल ज़ियामेन, चीन में 2009[59] में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010 और 2011 में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। MIT ने 2018 में AGI में एक पाठ्यक्रम प्रस्तुत किया, जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।

2023 तक, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

समयमान
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक AGI अनुसंधान समुदाय में आम सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है (अर्थात 2015 और 2045 के बीच) प्रशंसनीय थी। मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेजी से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह भविष्यवाणी करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की शुरुआत आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।

2012 में, एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर, और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने इमेज नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया)। [66] एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।

2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कमजोर एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये AI लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था।

2020 में, OpenAI ने GPT-3 विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस बात पर सहमति है कि GPT-3 AGI का एक उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण AI प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने GPT-3 खाते का उपयोग किया, और "प्रोजेक्ट दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया। OpenAI ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने GPT-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया।

2022 मेंगाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।

2023 में, Microsoft रिसर्च ने OpenAI के GPT-4 के शुरुआती संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले AI मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या GPT-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर जोर दिया गया।

संपूर्ण मस्तिष्क अनुकरण
AGI को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क को विस्तार से मस्तिष्क स्कैनिंग और ब्रेन मैपिंग करके और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी करके बनाया जाता है। कंप्यूटर सिमुलेशन मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है। चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल न्यूरोसाइंस और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा आर्टिफिशियल इंटेलिजेंस रिसर्च में मजबूत एआई के दृष्टिकोण के रूप में की गई है। न्यूरोइमेजिंग प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और द सिंगुलैरिटी इज़ नियर पुस्तक में भविष्यवादी रे कुर्ज़वील ने भविष्यवाणी की है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर होगी।

प्रारंभिक अनुमान
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में सिनैप्स होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 1015 सिनेप्स (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 1014 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन) तक। न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (SUPS) है।

1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया। [ई] (तुलना के लिए, यदि "गणना" एक "फ्लोटिंग-पॉइंट" के बराबर थी ऑपरेशन" - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - फिर 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में हासिल किया गया था।) उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर की भविष्यवाणी करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025, यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग
Kurzweil द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई मौजूदा कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।

वर्तमान शोध
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। आर्टिफिशियल इंटेलिजेंस सिस्टम प्रोजेक्ट ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय सिमुलेशन को लागू किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे। ब्लू ब्रेन प्रोजेक्ट ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 सिनैप्स वाले एकल चूहे नियोकोर्टिकल कॉलम का वास्तविक समय सिमुलेशन बनाने के लिए सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया। एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं," ब्लू ब्रेन के निदेशक हेनरी मार्कराम प्रोजेक्ट, 2009 में ऑक्सफोर्ड में TED सम्मेलन में कहा गया। न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर हो सकता है।

हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन ब्रेन?" में उपरोक्त तर्कों ("दिमाग अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया। उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए मौजूदा सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।

ओपनवॉर्म प्रोजेक्ट में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की शुरुआत से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, शुरुआत में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में, प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।

सिमुलेशन-आधारित दृष्टिकोणों की आलोचना
सिम्युलेटेड ब्रेन एप्रोच की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर जोर देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य पहलू है और जमीनी अर्थ के लिए आवश्यक है। यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी। गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।

109 cps (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरेवेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम, लेकिन कुछ रुचि के बावजूद ऐसा कोई अनुकरण मौजूद नहीं है। इसके कई कारण हैं: इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब सिनैप्स होते हैं।  एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन सेरेब्रल कॉर्टेक्स में हैं और 69 बिलियन सेरिबैलम में हैं। ग्लियाल सेल सिनैप्स वर्तमान में अनिर्धारित हैं, लेकिन बहुत अधिक होने के लिए जाने जाते हैं।
 * 1) न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
 * 2) उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
 * 3) भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
 * 4) एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और cephalopods में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।

दर्शनशास्त्र में परिभाषित मजबूत एआई
1980 में, दार्शनिक जॉन सियरल ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा। वह कृत्रिम बुद्धिमत्ता के बारे में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे: पहले वाले को उन्होंने "मजबूत" कहा क्योंकि यह एक मजबूत बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कमजोर एआई" मशीन का व्यवहार ठीक "मजबूत एआई" मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।
 * मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
 * कमजोर एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।

मेनस्ट्रीम एआई की सबसे अधिक रुचि इस बात में है कि कोई प्रोग्राम कैसे व्यवहार करता है। रसेल और पीटर नॉरविग के अनुसार, "जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।" पता है कि क्या यह वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की "कमजोर एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि संभव है" के बराबर है। इस प्रकार, रसेल और नॉरविग के अनुसार, "अधिकांश एआई शोधकर्ता कमजोर एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।" इस प्रकार, अकादमिक एआई अनुसंधान के लिए, "मजबूत एआई" और "एजीआई" दो बहुत अलग चीजें हैं।

सरेल और मुख्यधारा एआई के विपरीत, कुछ भविष्यवादी जैसे रे कुर्ज़वील "मजबूत एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं। यह Searle के मजबूत AI के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के AGI के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है, और अधिकांश आर्टिफिशियल इंटेलिजेंस शोधकर्ताओं के लिए यह सवाल दायरे से बाहर है।

चेतना
बुद्धि के अलावा मानव मन के अन्य पहलू मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:
 * चेतनाः गुण और विचार होना।
 * आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के बारे में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
 * भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
 * ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए मौजूदा कानूनी और सामाजिक ढांचे के साथ। बिल जॉय, दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>

यह दिखाया जाना बाकी है कि मजबूत एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।

कृत्रिम चेतना अनुसंधान
हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को लागू करने की संभावनाओं की जांच करता है। प्रारंभिक प्रयास में इगोर अलेक्जेंडर ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही मौजूद थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लगेंगे।

मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण
1956 में एआई अनुसंधान के शुभारंभ के बाद से, मानव स्तर पर बुद्धिमान कार्रवाई के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है। एक संभावित कारण यह है कि कंप्यूटर-विज्ञान-उन्मुख और/या न्यूरोसाइंस-उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप लचीलेपन की कमी है। साथ ही एआई अनुसंधान में शामिल जटिलता भी मजबूत एआई अनुसंधान की प्रगति को सीमित करती है।

एआई अनुसंधान में सुस्ती के लिए वैचारिक सीमाएं एक और संभावित कारण हैं। एआई शोधकर्ताओं को मजबूत एआई प्राप्त करने की खोज के लिए एक मजबूत आधार प्रदान करने के लिए अपने अनुशासन के वैचारिक ढांचे को संशोधित करने की आवश्यकता हो सकती है। इसका मतलब है कि एक सामाजिक-सांस्कृतिक संदर्भ में एक मजबूत एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है। जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था: से शुरू होता है अवलोकन कि बुद्धि केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे काम कर सकते हैं जो लोगों के लिए जटिल हैं, जैसे कि गणित, लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है, जैसे चलना (मोरवेक का विरोधाभास)। डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग सोच और तर्क को समान मानते हैं। विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए, इस विचार ने एआई शोधकर्ताओं को परेशान किया है।

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास पैदा करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल भविष्यवाणियों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है। एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं। अधिकांश जांचकर्ता 21वीं सदी में एजीआई हासिल करने को लेकर आशान्वित हैं।

मजबूत एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है। कई शोधकर्ता एआई की भविष्य की भविष्यवाणियों से जुड़े किसी भी संदेह को कम आंकते हैं, लेकिन मानव मस्तिष्क मॉडलिंग जैसे मुद्दों को गंभीरता से लिए बिना, एजीआई शोधकर्ता तब समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे। जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना शुरू किया, तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी। उस समय, शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।

जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ काम करते समय फिर से परिभाषित करते हैं, एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है। एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है। हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है, अमूर्त संचालकों की भूमिका ने समस्याएँ खड़ी कर दी हैं।

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से बेहतर रहता है। लेकिन तेजी से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को लागू करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धि से मेल खाने की अनुमति देते हैं। जबकि मजबूत एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है, चुनौती होना।

एआई शोधकर्ताओं ने इस बात पर बहस की है कि भावात्मक कंप्यूटिंग है या नहीं। एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है, और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों की अनुमति देता है. भावनाएँ मनुष्य को अनुभवों को याद रखने में मदद करती हैं। डेविड गेलर्नटर लिखते हैं, कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी बारीकियों का अनुकरण नहीं कर सकता। भावना के मजबूत एआई शोध का विषय बने रहने की संभावना है।

व्यवहार्यता
2022 तक AGI सट्टा बना हुआ है। ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा काम करने में सक्षम होंगी जो एक आदमी कर सकता है"। यह भविष्यवाणी सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए "अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं" और "अनुभूति की वैज्ञानिक रूप से गहरी समझ" की आवश्यकता होगी। द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई।

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक मजबूत एआई हासिल करने की संभावना से इनकार करते हैं। जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है। AGI वैक्स और वेन की व्यवहार्यता पर AI विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया " कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ। आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि "[ए] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की भविष्यवाणी करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि भविष्यवाणी के समय से 15 से 25 साल के बीच निर्मित"। उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा।

मानव अस्तित्व के लिए संभावित खतरा
थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की, और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं। गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं, और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: इसलिए, अनगिनत लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए हर संभव प्रयास कर रहे हैं, है ना? गलत। अगर एक बेहतर एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा, 'हम कुछ दशकों में पहुंचेंगे,' तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है, जब आप यहां पहुंचें तो हमें कॉल करेंहम रोशनी चालू रखेंगे?' शायद नहींलेकिन AI के साथ कमोबेश यही हो रहा है।

एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: "एजीआई खुद को मानव मालिकों/प्रबंधकों के नियंत्रण से हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई, एजीआई का विकास खराब नैतिकता, नैतिकता और मूल्यों के साथ AGI और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन"।

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के बारे में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई होगी अधीक्षण तक पहुँचने के बाद विनाशकारी के बजाय मैत्रीपूर्ण तरीके से व्यवहार करना जारी रखें? नियंत्रण समस्या को हल करना एआई हथियारों की दौड़ से जटिल है, जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखेंगे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई का, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होता है, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।

थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ। जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, "एक भ्रम" और अमीरों द्वारा एक "अद्भुत चाल" है।

बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक पहुंचने से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक गॉर्डन मूर ने घोषणा की: "मैं एक संशयवादी हूं। मुझे विश्वास नहीं है कि [तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है रास्ता।" Baidu के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के बारे में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के बारे में चिंता करने जैसा है, जब हमने अभी तक ग्रह पर पैर भी नहीं रखा है।

बाहरी संबंध

 * The AGI portal maintained by Pei Wang
 * The Genesis Group at MIT's CSAIL – Modern research on the computations that underlay human intelligence
 * OpenCog – open source project to develop a human-level AI
 * Simulating logical human thought
 * What Do We Know about AI Timelines? – Literature review