कृत्रिम सामान्य बुद्धि

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। एजीआई अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं। वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। [3] एजीआई बनाना कुछ कृत्रिम बुद्धिमत्ता शोध और ओपीईएनएआई, डीपमाइंड और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। साइंस फिक्शन और फ्यूचर स्टडीज में एजीआई एक सामान्य विषय है।

एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है। इसके अतिरिक्त, इस बात पर भी बहस चल रही है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे कि जीपीटी-4, एजीआई का प्रारंभिक अभी तक अधूरा रूप है या यदि नए दृष्टिकोण की आवश्यकता है।

एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए, ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है, जबकि अन्य एजीआई के विकास को एक जोखिम पेश करने के लिए बहुत दूरस्थ पाते हैं।।

2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई।

शब्दावली
एजीआई को मजबूत एआई, पूर्ण एआई, या सामान्य बुद्धिमान कार्रवाई के रूप में भी जाना जाता है। हालांकि, कुछ अकादमिक स्रोत कंप्यूटर प्रोग्राम के लिए "मजबूत एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। [ए] इसके विपरीत, कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है। कुछ अकादमिक स्रोत "कममहत्व एआई" का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।

संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई, और अधीक्षण।

विशेषताएं
बुद्धि के लिए विभिन्न मानदंड प्रस्तावित किए गए हैं (सबसे प्रसिद्ध ट्यूरिंग टेस्ट) लेकिन व्यापक रूप से कोई परिभाषा स्वीकार नहीं की गई है।

बुद्धि लक्षण
हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है: * स्वचालित तर्क, रणनीति का उपयोग करें, पहेलियों को हल करें और अनिश्चितता के तहत निर्णय लें और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में कृत्रिम बुद्धिमत्ता सिस्टम इंटीग्रेशन एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं: इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है। कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल इंटेलिजेंस और निर्णय लेने) कल्पना (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।
 * सामान्य ज्ञान_ज्ञान_(कृत्रिम_बुद्धिमत्ता) सहित ज्ञान प्रतिनिधित्व;
 * स्वचालित योजना और शेड्यूलिंग;
 * यंत्र अधिगम;
 * प्राकृतिक भाषा प्रसंस्करण में संवाद करें;
 * मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि, सुनना, आदि), और
 * कार्य करने की क्षमता (जैसे रोबोटिक्स, तलाशने के लिए स्थान बदलना आदि)

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, सम्मिलित हैं (उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमान एजेंट देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक एआई सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।

गणितीय औपचारिकताएँ
एजीआई का एक गणितीय सटीक विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित, प्रस्तावित एजीआई एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है। इस प्रकार के एजीआई, मानव-समान व्यवहार को प्रदर्शित करने के बजाय बुद्धि की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है को सार्वभौमिक कृत्रिम बुद्धि भी कहा जाता है।

2015 में जन लीक और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता" - "एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (UTM) के संबंध में मापा जाता है। एआईएक्सआई है सबसे बुद्धिमान नीति अगर यह उसी UTM का उपयोग करती है", जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलिता इष्टतमता गुणों को कम करता है"। यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन-शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है। कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं - यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है। इसके बाद, माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की। [27] साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम "कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता" [29] या समकक्ष "सामान्यीकरण करने की क्षमता" होती है रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी> (इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना ). यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें)।

इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा, उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है, या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है।

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण
मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:

ट्यूरिंग टेस्ट (ट्यूरिंग)
 * एक मशीन और एक मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं, जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है, जो परीक्षण पास करती है यदि यह मूल्यांकनकर्ता को समय के एक महत्वपूर्ण अंश को मूर्ख बना सकती है। नोट: ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धि के रूप में क्या योग्यता होनी चाहिए, केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करना चाहिए।

कॉफ़ी टेस्ट (वोज्नियाक)
 * एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है: कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उचित बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट टेस्ट (गोएर्टज़ेल)
 * एक मशीन एक विश्वविद्यालय में दाखिला लेती है, वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)
 * एक मशीन कम से कम एक ही काम में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण काम करती है।

एआई-पूर्ण समस्याएं
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का पालन करें, जानें कि किस विषय में बात की जा रही है (ज्ञान), और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि)। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।

एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ, और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से निपटने के लिए की जाती है।

एआई-पूर्ण समस्याओं को केवल वर्तमान कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है, और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है, जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के हमलों को पीछे हटाना है।

शास्त्रीय एआई
आधुनिक एआई शोध 1950 के दशक के मध्य में शुरू हुआ। एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी कि कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी। एआई के अग्रदूत हर्बर्ट ए. साइमन ने 1965 में लिखा था: "मशीनें बीस साल के भीतर कोई भी काम करने में सक्षम हो जाएंगी जो एक आदमी कर सकता है।

उनकी भविष्यवाणियां स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं, जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे संभव के रूप में समय की आम सहमति भविष्यवाणियों के अनुसार। उन्होंने 1967 में कहा, "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या काफी हद तक हल हो जाएगी।"

डौग लेनट की सीईसी परियोजना (जो 1984 में शुरू हुई), और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की प्रारम्भ में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया। 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य शामिल थे जैसे "आकस्मिक बातचीत जारी रखें"। इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया। हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार ढंग से गिर गया, और पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए। 20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने के लिए अनिच्छुक हो गए और "जंगली आंखों वाले सपने देखने वाले [एस]" लेबल किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।

संकीर्ण एआई अनुसंधान
1990 के दशक और 21वीं सदी की प्रारम्भ में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकता है। ये "एप्लाइड एआई" सिस्टम अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी।

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। हंस मोरवेस ने 1988 में लिखा था:

मुझे विश्वास है कि कृत्रिम बुद्धिमत्ता के लिए यह बॉटम-अप रूट एक दिन पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमन्सेंस ज्ञान प्रदान करने के लिए तैयार है, जो रीजनिंग प्रोग्राम में निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करते हुए रूपक सुनहरी कील को चलाया जाएगा।

हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सिंबल ग्राउंडिंग परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "टॉप-डाउन" (प्रतीकात्मक) दृष्टिकोण किसी तरह "नीचे-ऊपर" (संवेदी) दृष्टिकोण को कहीं बीच में मिलेंगे। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)।

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान
शब्द "आर्टिफिशियल जनरल इंटेलिजेंस" का इस्तेमाल 1997 की प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में। 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से पेश किया गया और इसे लोकप्रिय बनाया गया। 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में। एजीआई में पहला समर स्कूल ज़ियामेन, चीन में 2009[59] में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010 और 2011 में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। MIT ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया, जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।

2023 तक, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

समयमान
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक एजीआई अनुसंधान समुदाय में आम सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है (अर्थात 2015 और 2045 के बीच) प्रशंसनीय थी। मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेजी से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।

2012 में, एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर, और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने इमेज नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया)। [66] एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।

2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये एआई लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था।

2020 में, ओपीईएनएआई ने जीपीटी-3 विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस बात पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया, और "प्रोजेक्ट दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया। ओपीईएनएआई ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने जीपीटी-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया।

2022 मेंगाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।

2023 में, Microsoft शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर महत्व दिया गया।

संपूर्ण मस्तिष्क अनुकरण
एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क को विस्तार से मस्तिष्क स्कैनिंग और ब्रेन मैपिंग करके और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी करके बनाया जाता है। कंप्यूटर सिमुलेशन मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है। चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल न्यूरोसाइंस और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध में मजबूत एआई के दृष्टिकोण के रूप में की गई है। न्यूरोइमेजिंग प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और द सिंगुलैरिटी इज़ नियर पुस्तक में भविष्यवादी रे कुर्ज़वील ने पूर्वानुमान की है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर होगी।

प्रारंभिक अनुमान
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में सिनैप्स होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 1015 सिनेप्स (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 1014 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन) तक। न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) है।

1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया। [ई] (तुलना के लिए, यदि "गणना" एक "फ्लोटिंग-पॉइंट" के बराबर थी ऑपरेशन" - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - फिर 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में हासिल किया गया था।) उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर की पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025, यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग
कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई सम्मिलिता कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।

वर्तमान शोध
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। कृत्रिम बुद्धिमत्ता सिस्टम प्रोजेक्ट ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय सिमुलेशन को लागू किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे। ब्लू ब्रेन प्रोजेक्ट ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 सिनैप्स वाले एकल चूहे नियोकोर्टिकल कॉलम का वास्तविक समय सिमुलेशन बनाने के लिए सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया। एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं," ब्लू ब्रेन के निदेशक हेनरी मार्कराम प्रोजेक्ट, 2009 में ऑक्सफोर्ड में TED सम्मेलन में कहा गया। न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर हो सकता है।

हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन ब्रेन?" में उपरोक्त तर्कों ("दिमाग अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया। उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।

ओपनवॉर्म प्रोजेक्ट में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की प्रारम्भ से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में, प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।

सिमुलेशन-आधारित दृष्टिकोणों की आलोचना
सिम्युलेटेड ब्रेन एप्रोच की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और जमीनी अर्थ के लिए आवश्यक है। यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी। गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।

109 cps (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरेवेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम, लेकिन कुछ रुचि के बावजूद ऐसा कोई अनुकरण सम्मिलित नहीं है। इसके कई कारण हैं: इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब सिनैप्स होते हैं। एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन सेरेब्रल कॉर्टेक्स में हैं और 69 बिलियन सेरिबैलम में हैं। ग्लियाल सेल सिनैप्स वर्तमान में अनिर्धारित हैं, लेकिन बहुत अधिक होने के लिए जाने जाते हैं।
 * 1) न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
 * 2) उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
 * 3) भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
 * 4) एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और cephalopods में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।

दर्शनशास्त्र में परिभाषित मजबूत एआई
1980 में, दार्शनिक जॉन सियरल ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा। वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे: पहले वाले को उन्होंने "मजबूत" कहा क्योंकि यह एक मजबूत बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "मजबूत एआई" मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।
 * मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
 * कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।

मेनस्ट्रीम एआई की सबसे अधिक रुचि इस बात में है कि कोई प्रोग्राम कैसे व्यवहार करता है। रसेल और पीटर नॉरविग के अनुसार, "जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।" पता है कि क्या यह वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि संभव है" के बराबर है। इस प्रकार, रसेल और नॉरविग के अनुसार, "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।" इस प्रकार, अकादमिक एआई अनुसंधान के लिए, "मजबूत एआई" और "एजीआई" दो बहुत अलग चीजें हैं।

सरेल और मुख्यधारा एआई के विपरीत, कुछ भविष्यवादी जैसे रे कुर्ज़वील "मजबूत एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं। यह Searle के मजबूत एआई के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है, और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल दायरे से बाहर है।

चेतना
बुद्धि के अलावा मानव मन के अन्य दृष्टिकोण मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:
 * चेतनाः गुण और विचार होना।
 * आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
 * भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
 * ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलिता कानूनी और सामाजिक ढांचे के साथ। बिल जॉय, दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>

यह दिखाया जाना बाकी है कि मजबूत एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।

कृत्रिम चेतना अनुसंधान
हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को लागू करने की संभावनाओं की जांच करता है। प्रारंभिक प्रयास में इगोर अलेक्जेंडर ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लगेंगे।

मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण
1956 में एआई अनुसंधान के शुभारंभ के बाद से, मानव स्तर पर बुद्धिमान कार्रवाई के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है। एक संभावित कारण यह है कि कंप्यूटर-विज्ञान-उन्मुख और/या न्यूरोसाइंस-उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप लचीलेपन की कमी है। साथ ही एआई अनुसंधान में शामिल जटिलता भी मजबूत एआई अनुसंधान की प्रगति को सीमित करती है।

एआई अनुसंधान में सुस्ती के लिए वैचारिक सीमाएं एक और संभावित कारण हैं। एआई शोधकर्ताओं को मजबूत एआई प्राप्त करने की खोज के लिए एक मजबूत आधार प्रदान करने के लिए अपने अनुशासन के वैचारिक ढांचे को संशोधित करने की आवश्यकता हो सकती है। इसका मतलब है कि एक सामाजिक-सांस्कृतिक संदर्भ में एक मजबूत एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है। जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था: से शुरू होता है अवलोकन कि बुद्धि केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे काम कर सकते हैं जो लोगों के लिए जटिल हैं, जैसे कि गणित, लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है, जैसे चलना (मोरवेक का विरोधाभास)। डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग सोच और तर्क को समान मानते हैं। विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए, इस विचार ने एआई शोधकर्ताओं को परेशान किया है।

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास पैदा करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल भविष्यवाणियों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है। एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं। अधिकांश जांचकर्ता 21वीं सदी में एजीआई हासिल करने को लेकर आशान्वित हैं।

मजबूत एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है। कई शोधकर्ता एआई की भविष्य की भविष्यवाणियों से जुड़े किसी भी संदेह को कम आंकते हैं, लेकिन मानव मस्तिष्क मॉडलिंग जैसे मुद्दों को गंभीरता से लिए बिना, एजीआई शोधकर्ता तब समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे। जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना शुरू किया, तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी। उस समय, शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।

जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ काम करते समय फिर से परिभाषित करते हैं, एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है। एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है। हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है, अमूर्त संचालकों की भूमिका ने समस्याएँ खड़ी कर दी हैं।

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से बेहतर रहता है। लेकिन तेजी से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को लागू करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धि से मेल खाने की अनुमति देते हैं। जबकि मजबूत एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है, चुनौती होना।

एआई शोधकर्ताओं ने इस बात पर बहस की है कि भावात्मक कंप्यूटिंग है या नहीं। एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है, और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों की अनुमति देता है. भावनाएँ मनुष्य को अनुभवों को याद रखने में मदद करती हैं। डेविड गेलर्नटर लिखते हैं, कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी बारीकियों का अनुकरण नहीं कर सकता। भावना के मजबूत एआई शोध का विषय बने रहने की संभावना है।

व्यवहार्यता
2022 तक एजीआई सट्टा बना हुआ है। ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा काम करने में सक्षम होंगी जो एक आदमी कर सकता है"। यह पूर्वानुमान सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए "अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं" और "अनुभूति की वैज्ञानिक रूप से गहरी समझ" की आवश्यकता होगी। द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई।

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक मजबूत एआई हासिल करने की संभावना से इनकार करते हैं। जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया " कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ। आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

मशीन इंटेलिजेंस शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि "[ए] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की पूर्वानुमान करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित"। उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा।

मानव अस्तित्व के लिए संभावित खतरा
थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की, और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं। गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं, और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: इसलिए, अनगिनत लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए हर संभव प्रयास कर रहे हैं, है ना? गलत। अगर एक बेहतर एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा, 'हम कुछ दशकों में पहुंचेंगे,' तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है, जब आप यहां पहुंचें तो हमें कॉल करेंहम रोशनी चालू रखेंगे?' शायद नहींलेकिन AI के साथ कमोबेश यही हो रहा है।

एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: "एजीआई खुद को मानव मालिकों/प्रबंधकों के नियंत्रण से हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई, एजीआई का विकास खराब नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन"।

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई होगी अधीक्षण तक पहुँचने के बाद विनाशकारी के बजाय मैत्रीपूर्ण तरीके से व्यवहार करना जारी रखें? नियंत्रण समस्या को हल करना एआई हथियारों की दौड़ से जटिल है, जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखेंगे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई का, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होता है, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।

थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, "एक भ्रम" और अमीरों द्वारा एक "अद्भुत चाल" है।

बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक अभिगमन से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक गॉर्डन मूर ने घोषणा की: "मैं एक संशयवादी हूं। मुझे विश्वास नहीं है कि [तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है रास्ता।" बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है, जब हमने अभी तक ग्रह पर पैर भी नहीं रखा है।

बाहरी संबंध

 * The एजीआई portal mएआईntएआईned by Pei Wang
 * The Genesis Group at MIT's CSएआईL – Modern research on the computations that underlay human intelligence
 * ओपीईएनCog – ओपीईएन source project to develop a human-level एआई
 * Simulating logical human thought
 * What Do We Know about एआई Timelines? – Literature review