कृत्रिम सामान्य बुद्धि

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। AGI अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं। वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। [3] AGI बनाना कुछ कृत्रिम होशियारी रिसर्च और OpenAI, डीपमाइंड और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। साइंस फिक्शन और फ्यूचर स्टडीज में AGI एक सामान्य विषय है।

AGI के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है। इसके अतिरिक्त, इस बात पर भी बहस चल रही है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे कि GPT-4, AGI का प्रारंभिक अभी तक अधूरा रूप है या यदि नए दृष्टिकोण की आवश्यकता है।

एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद मौजूद है; उदाहरण के लिए, OpenAI इसे एक अस्तित्वगत जोखिम के रूप में मानता है, जबकि अन्य AGI के विकास को एक जोखिम पेश करने के लिए बहुत दूरस्थ पाते हैं।।

2020 के एक सर्वेक्षण में 37 देशों में फैली 72 सक्रिय AGI R&D परियोजनाओं की पहचान की गई।

शब्दावली
एजीआई को मजबूत एआई, पूर्ण एआई, या सामान्य बुद्धिमान कार्रवाई के रूप में भी जाना जाता है। हालांकि, कुछ अकादमिक स्रोत कंप्यूटर प्रोग्राम के लिए "मजबूत एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। [ए] इसके विपरीत, कमजोर एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है। कुछ अकादमिक स्रोत "कमजोर एआई" का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।

संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई, और अधीक्षण।

विशेषताएं
बुद्धि के लिए विभिन्न मानदंड प्रस्तावित किए गए हैं (सबसे प्रसिद्ध ट्यूरिंग टेस्ट) लेकिन व्यापक रूप से कोई परिभाषा स्वीकार नहीं की गई है।

बुद्धि लक्षण
हालाँकि, शोधकर्ता आमतौर पर यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है: * स्वचालित तर्क, रणनीति का उपयोग करें, पहेलियों को हल करें और अनिश्चितता के तहत निर्णय लें; और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में आर्टिफिशियल इंटेलिजेंस सिस्टम इंटीग्रेशन एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं: इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है। कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल इंटेलिजेंस और निर्णय लेने) कल्पना (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।
 * सामान्य ज्ञान_ज्ञान_(कृत्रिम_बुद्धिमत्ता) सहित ज्ञान प्रतिनिधित्व;
 * स्वचालित योजना और शेड्यूलिंग;
 * यंत्र अधिगम;
 * प्राकृतिक भाषा प्रसंस्करण में संवाद करें;
 * मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि, सुनना, आदि), और
 * कार्य करने की क्षमता (जैसे रोबोटिक्स, तलाशने के लिए स्थान बदलना आदि)

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, मौजूद हैं (उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमान एजेंट देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक AI सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।

गणितीय औपचारिकताएँ
AGI का एक गणितीय सटीक विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। AIXI नामित, प्रस्तावित AGI एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है। इस प्रकार के एजीआई, मानव-समान व्यवहार को प्रदर्शित करने के बजाय बुद्धि की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है को सार्वभौमिक कृत्रिम बुद्धि भी कहा जाता है।

2015 में जन लीक और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता" - "एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (UTM) के संबंध में मापा जाता है। AIXI है सबसे बुद्धिमान नीति अगर यह उसी UTM का उपयोग करती है", जिसका परिणाम "AIXI के लिए सभी मौजूदा इष्टतमता गुणों को कम करता है"। यह समस्या AIXI द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन-शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है। कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं - यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है। इसके बाद, माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कमजोरी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की। [27] साथ के प्रयोगों (कमजोरी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कमजोरी को अधिकतम करने से इष्टतम "कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता" [29] या समकक्ष "सामान्यीकरण करने की क्षमता" होती है रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी> (इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना ). यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें)।

इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा, उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है, या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है।

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण
मानव-स्तरीय AGI की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:

ट्यूरिंग टेस्ट (एलन ट्यूरिंग)
 * एक मशीन और एक मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं, जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है, जो परीक्षण पास करती है यदि यह मूल्यांकनकर्ता को समय के एक महत्वपूर्ण अंश को मूर्ख बना सकती है। नोट: ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धि के रूप में क्या योग्यता होनी चाहिए, केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करना चाहिए।

द कॉफी टेस्ट (स्टीव वोज्नियाक)
 * एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने के तरीके का पता लगाने के लिए एक मशीन की आवश्यकता होती है: कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, मग ढूंढें और उचित बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट टेस्ट (बेन गोएर्टज़ेल)
 * एक मशीन एक विश्वविद्यालय में दाखिला लेती है, वही कक्षाएं लेती और उत्तीर्ण करती है जो मनुष्य करते हैं, और एक डिग्री प्राप्त करते हैं।

द एंप्लॉयमेंट टेस्ट (निल्स जॉन निल्सन)
 * एक मशीन कम से कम एक ही काम में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण काम करती है।

एआई-पूर्ण समस्याएं
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का पालन करें, जानें कि किस बारे में बात की जा रही है (ज्ञान), और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि)। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है, अगर यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान एक उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।

वास्तविक दुनिया की किसी भी समस्या को हल करते समय सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ और अप्रत्याशित परिस्थितियों से निपटने के लिए एआई-पूर्ण समस्याओं की परिकल्पना की जाती है।।

एआई-पूर्ण समस्याओं को केवल वर्तमान कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है, और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है, जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के हमलों को पीछे हटाना है।

शास्त्रीय एआई
आधुनिक एआई शोध 1950 के दशक के मध्य में शुरू हुआ। एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी कि कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी। एआई के अग्रदूत हर्बर्ट ए. साइमन ने 1965 में लिखा था: "मशीनें बीस साल के भीतर कोई भी काम करने में सक्षम हो जाएंगी जो एक आदमी कर सकता है।

उनकी भविष्यवाणियां स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं, जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे संभव के रूप में समय की आम सहमति भविष्यवाणियों के अनुसार। उन्होंने 1967 में कहा, "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या काफी हद तक हल हो जाएगी।"

डौग लेनट की सीईसी परियोजना (जो 1984 में शुरू हुई), और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की शुरुआत में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी एप्लाइड एआई का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया। 1980 के दशक की शुरुआत में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, एक दस साल की समयरेखा निर्धारित की जिसमें एजीआई लक्ष्यों को शामिल किया गया जैसे एक आकस्मिक बातचीत जारी रखना। इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया। हालाँकि, 1980 के दशक के अंत में AI में विश्वास शानदार ढंग से गिर गया, और पाँचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए। 20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की भविष्यवाणी करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने से बिल्कुल भी हिचकने लगे और जंगली आंखों वाले सपने देखने वाले [एस] के रूप में लेबल किए जाने के डर से मानव स्तर की कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।

संकीर्ण एआई अनुसंधान
1990 के दशक और 21वीं सदी की शुरुआत में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग उत्पन्न कर सकता है, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन लर्निंग। ये अनुप्रयुक्त एआई प्रणालियां अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग की जाती हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। इस क्षेत्र में विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी। अधिकांश मुख्यधारा एआई शोधकर्ता उम्मीद है कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। हंस मोरवेस ने 1988 में लिखा था: मुझे विश्वास है कि आर्टिफिशियल इंटेलिजेंस का यह बॉटम-अप रूट एक दिन आधे से अधिक पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमनसेंस_नॉलेज_(आर्टिफिशियल_इंटेलिजेंस) प्रदान करने के लिए तैयार है। तर्क कार्यक्रमों में बहुत निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करने वाले रूपक सुनहरे स्पाइक को चलाया जाएगा। 

हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन यूनिवर्सिटी के स्टीवन हरनाड ने प्रतीक ग्राउंडिंग समस्या पर अपना 1990 का पेपर यह कहते हुए समाप्त किया: उम्मीद अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए टॉप-डाउन (प्रतीकात्मक) दृष्टिकोण किसी तरह बॉटम-अप (संवेदी) दृष्टिकोण को पूरा करेगा। दोनों के बीच में कहीं। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक पहुंचने का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां पहुंचने से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)। 

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान
आर्टिफिशियल जनरल इंटेलिजेंस शब्द का इस्तेमाल 1997 की शुरुआत में मार्क गुबरुद द्वारा किया गया था पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के प्रभावों की चर्चा में। 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से पेश किया गया और लोकप्रिय बनाया गया। 2006 में AGI अनुसंधान गतिविधि का वर्णन पेई वांग और बेन गोएर्टज़ेल द्वारा किया गया था उत्पादन प्रकाशन और प्रारंभिक परिणाम के रूप में। एजीआई में पहला ग्रीष्मकालीन स्कूल 2009 में ज़ियामेन, चीन में आयोजित किया गया था ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा। पहला विश्वविद्यालय पाठ्यक्रम 2010 में दिया गया था और 2011 टोडोर अरनॉडोव द्वारा प्लोवदीव विश्वविद्यालय, बुल्गारिया में। MIT ने 2018 में AGI में एक पाठ्यक्रम प्रस्तुत किया, जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।

, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट भविष्य में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन की एक श्रृंखला में योगदान करते हैं।

समयमान
उनकी 2006 की पुस्तक के परिचय में, गोएर्टज़ेल का कहना है कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। एजीआई अनुसंधान समुदाय में आम सहमति यह प्रतीत होती है कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है (यानी 2015 और 2045 के बीच) प्रशंसनीय था। मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेज होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह भविष्यवाणी करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की शुरुआत आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है। 2012 में, एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर, और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने इमेज नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित क्लासिफायरों से प्राप्तांकों के भारित योग का उपयोग किया)। एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।

2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कमजोर एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये AI लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था। 2020 में, OpenAI ने GPT-3 विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस बात पर आम सहमति है कि GPT-3 AGI का उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण AI प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है। उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने GPT-3 खाते का उपयोग किया, और प्रोजेक्ट दिसंबर नामक एक चैटबॉट-विकासशील मंच प्रदान किया। OpenAI ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने GPT-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया। 2022 मेंगाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है। 2023 में, Microsoft रिसर्च ने OpenAI के GPT-4 के शुरुआती संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले AI मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या GPT-4 को कृत्रिम सामान्य बुद्धि का एक प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर जोर दिया गया।

संपूर्ण मस्तिष्क अनुकरण
AGI को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को मस्तिष्क स्कैनिंग और ब्रेन मैपिंग द्वारा एक जैविक मस्तिष्क का विस्तार से निर्माण किया जाता है और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी किया जाता है। कंप्यूटर एक कंप्यूटर सिमुलेशन मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है। चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल तंत्रिका विज्ञान और neuroinformatics में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। आर्टिफिशियल इंटेलिजेंस रिसर्च में इसकी चर्चा की गई है मजबूत एआई के दृष्टिकोण के रूप में। न्यूरोइमेजिंग प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और भविष्यवादी रे कुर्ज़वील ने द सिंगुलैरिटी इज नियर पुस्तक में भविष्यवाणी करता है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय-सीमा पर उपलब्ध हो जाएगा, जिसके लिए आवश्यक कंप्यूटिंग शक्ति का अनुकरण करना होगा।

प्रारंभिक अनुमान
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में synapses होते हैं। 10 में से प्रत्येक11 (एक सौ बिलियन) न्यूरॉन्स में अन्य न्यूरॉन्स के साथ औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 10 होते हैं15 सिनैप्स (1 क्वाड्रिलियन)। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 10 से लेकर14 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन)। न्यूरॉन गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 10 है14 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (SUPS)।

1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 10 के आंकड़े को अपनाया।16 गणना प्रति सेकंड (सीपीएस)। (तुलना के लिए, यदि एक संगणना एक FLOPS | फ्लोटिंग-पॉइंट ऑपरेशन के बराबर थी - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - तो 1016 संगणनाएं 10 पेटा-, FLOPS#प्रदर्शन रिकॉर्ड के बराबर होंगी, जबकि 1018 एक्सास्केल कंप्यूटिंग था।) उन्होंने इस आंकड़े का उपयोग 2015 और 2025 के बीच आवश्यक हार्डवेयर की भविष्यवाणी करने के लिए किया था, अगर लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग
कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई मौजूदा कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग किया जाता है जो जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जो संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाने जाते हैं।

वर्तमान शोध
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। आर्टिफिशियल इंटेलिजेंस सिस्टम प्रोजेक्ट ने मस्तिष्क के गैर-वास्तविक समय सिमुलेशन (1011 न्यूरॉन्स) 2005 में। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लग गए। ब्लू ब्रेन प्रोजेक्ट ने सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर में से एक, आईबीएम के ब्लू जीन प्लेटफॉर्म का इस्तेमाल किया, जिसमें लगभग 10,000 न्यूरॉन्स और 10 से मिलकर एक एकल चूहे नियोकॉर्टेक्स का वास्तविक समय सिमुलेशन बनाया गया।2006 में 8 सिनेप्सेस। एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं, ब्लू ब्रेन प्रोजेक्ट के निदेशक हेनरी मार्करम, 2009 में ऑक्सफोर्ड में TED (सम्मेलन) में कहा। न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर पैमाने पर हो सकता है। हंस मोरावेक ने अपने 1997 के पेपर में उपरोक्त तर्कों को संबोधित किया (दिमाग अधिक जटिल हैं, न्यूरॉन्स को और अधिक विस्तार से तैयार करना होगा) कंप्यूटर हार्डवेयर मानव मस्तिष्क से कब मेल खाएगा? . उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता का अनुकरण करने के लिए मौजूदा सॉफ़्टवेयर की क्षमता को मापा। उसके परिणाम ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।

खुला कृमि में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कीड़े का पूरा अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की शुरुआत से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, शुरुआत में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में, प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।

सिमुलेशन-आधारित दृष्टिकोणों की आलोचना
सिम्युलेटेड मस्तिष्क दृष्टिकोण की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से प्राप्त होती है जो यह दावा करती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य पहलू है और जमीनी अर्थ के लिए आवश्यक है। यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी। गोएर्टज़ेल आभासी अवतार (जैसे दूसरे जीवन में) को एक विकल्प के रूप में प्रस्तावित करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।

10 से अधिक सक्षम माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर9 cps (कुर्जवील की गैर-मानक इकाई गणना प्रति सेकंड, ऊपर देखें) 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरावेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, इस तरह के कंप्यूटर को अनुकरण का समर्थन करने में सक्षम होना चाहिए मधुमक्खी का दिमाग, लेकिन कुछ रुचि के बावजूद ऐसा कोई अनुकरण मौजूद नहीं है। इसके अनेक कारण हैं: इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 बिलियन न्यूरॉन और 100 ट्रिलियन सिनैप्स होते हैं। एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन सेरेब्रल कॉर्टेक्स में और 69 बिलियन सेरिबैलम में हैं। ग्लियाल सेल सिनैप्स वर्तमान में अनिश्चित हैं लेकिन बहुत अधिक होने के लिए जाने जाते हैं।
 * 1) न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
 * 2) उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
 * 3) भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
 * 4) एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और cephalopods में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।

दर्शनशास्त्र में परिभाषित मजबूत एआई
1980 में, दार्शनिक जॉन सियरल ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा। वह कृत्रिम बुद्धिमत्ता के बारे में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे: पहले वाले को उन्होंने मजबूत कहा क्योंकि यह एक 'मजबूत' बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक कमजोर एआई मशीन का व्यवहार ठीक एक मजबूत एआई मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है। मेनस्ट्रीम एआई सबसे ज्यादा दिलचस्पी इस बात में रखता है कि कोई प्रोग्राम कैसे व्यवहार करता है। स्टुअर्ट जे. रसेल और पीटर नॉरविग के अनुसार, जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण। यदि कार्यक्रम व्यवहार कर सकता है जैसे कि उसके पास मन है, तो यह जानने की कोई आवश्यकता नहीं है कि क्या वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की कमजोर एआई परिकल्पना इस कथन के समतुल्य है कि कृत्रिम सामान्य बुद्धि संभव है। इस प्रकार, रसेल और नॉरविग के अनुसार, अधिकांश एआई शोधकर्ता कमजोर एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं। इस प्रकार, अकादमिक एआई अनुसंधान के लिए, मजबूत एआई और एजीआई दो बहुत अलग चीजें हैं।
 * मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
 * कमजोर एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।

Searle और मुख्यधारा AI के विपरीत, कुछ भविष्यवादी जैसे Ray Kurzweil मानव स्तर की कृत्रिम सामान्य बुद्धि के लिए मजबूत AI शब्द का उपयोग करते हैं। यह Searle के मजबूत AI के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के AGI के लिए चेतना आवश्यक है। Searle जैसे अकादमिक दार्शनिकों को विश्वास नहीं है कि यह मामला है, और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह प्रश्न दायरे से बाहर है।

चेतना
बुद्धि के अलावा मानव मन के अन्य पहलू मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:
 * चेतनाः गुण और विचार होना।
 * आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के बारे में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
 * भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
 * ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए मौजूदा कानूनी और सामाजिक ढांचे के साथ। बिल जॉय, दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>

यह दिखाया जाना बाकी है कि इनमें से कोई भी लक्षण मजबूत एआई के लिए आवश्यक और पर्याप्त स्थिति है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।

कृत्रिम चेतना अनुसंधान
हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता चेतना को लागू करने की संभावनाओं की जांच करने वाले शोध को महत्वपूर्ण मानते हैं। प्रारंभिक प्रयास में इगोर अलेक्जेंडर ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से मौजूद थे लेकिन ऐसी मशीन को भाषा समझने के लिए प्रशिक्षित करने में चालीस साल लगेंगे।

मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण
1956 में एआई अनुसंधान के शुभारंभ के बाद से, मानव स्तर पर बुद्धिमान कार्रवाई के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है। एक संभावित कारण यह है कि कंप्यूटर-विज्ञान-उन्मुख और/या न्यूरोसाइंस-उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप लचीलेपन की कमी है। साथ ही एआई अनुसंधान में शामिल जटिलता भी मजबूत एआई अनुसंधान की प्रगति को सीमित करती है।

एआई अनुसंधान में सुस्ती के लिए वैचारिक सीमाएं एक और संभावित कारण हैं। एआई शोधकर्ताओं को मजबूत एआई प्राप्त करने की खोज के लिए एक मजबूत आधार प्रदान करने के लिए अपने अनुशासन के वैचारिक ढांचे को संशोधित करने की आवश्यकता हो सकती है। इसका मतलब है कि एक सामाजिक-सांस्कृतिक संदर्भ में एक मजबूत एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है। जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था: से शुरू होता है अवलोकन कि बुद्धि केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे काम कर सकते हैं जो लोगों के लिए जटिल हैं, जैसे कि गणित, लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है, जैसे चलना (मोरवेक का विरोधाभास)। डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग सोच और तर्क को समान मानते हैं। विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए, इस विचार ने एआई शोधकर्ताओं को परेशान किया है।

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास पैदा करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल भविष्यवाणियों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है। एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं। अधिकांश जांचकर्ता 21वीं सदी में एजीआई हासिल करने को लेकर आशान्वित हैं।

मजबूत एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है। कई शोधकर्ता एआई की भविष्य की भविष्यवाणियों से जुड़े किसी भी संदेह को कम आंकते हैं, लेकिन मानव मस्तिष्क मॉडलिंग जैसे मुद्दों को गंभीरता से लिए बिना, एजीआई शोधकर्ता तब समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे। जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना शुरू किया, तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी। उस समय, शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।

जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ काम करते समय फिर से परिभाषित करते हैं, एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है। एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है। हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है, अमूर्त संचालकों की भूमिका ने समस्याएँ खड़ी कर दी हैं।

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से बेहतर रहता है। लेकिन तेजी से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को लागू करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धि से मेल खाने की अनुमति देते हैं। जबकि मजबूत एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है, चुनौती होना।

एआई शोधकर्ताओं ने इस बात पर बहस की है कि भावात्मक कंप्यूटिंग है या नहीं। एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है, और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों की अनुमति देता है. भावनाएँ मनुष्य को अनुभवों को याद रखने में मदद करती हैं। डेविड गेलर्नटर लिखते हैं, कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी बारीकियों का अनुकरण नहीं कर सकता। भावना के मजबूत एआई शोध का विषय बने रहने की संभावना है।

व्यवहार्यता
2022 तक AGI सट्टा बना हुआ है। ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा काम करने में सक्षम होंगी जो एक आदमी कर सकता है"। यह भविष्यवाणी सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए "अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं" और "अनुभूति की वैज्ञानिक रूप से गहरी समझ" की आवश्यकता होगी। द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई।

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक मजबूत एआई हासिल करने की संभावना से इनकार करते हैं। जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है। AGI वैक्स और वेन की व्यवहार्यता पर AI विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया " कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ। आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि "[ए] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की भविष्यवाणी करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि भविष्यवाणी के समय से 15 से 25 साल के बीच निर्मित"। उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा।

मानव अस्तित्व के लिए संभावित खतरा
थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की, और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं। गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं, और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: इसलिए, अनगिनत लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए हर संभव प्रयास कर रहे हैं, है ना? गलत। अगर एक बेहतर एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा, 'हम कुछ दशकों में पहुंचेंगे,' तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है, जब आप यहां पहुंचें तो हमें कॉल करेंहम रोशनी चालू रखेंगे?' शायद नहींलेकिन AI के साथ कमोबेश यही हो रहा है।

एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: "एजीआई खुद को मानव मालिकों/प्रबंधकों के नियंत्रण से हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई, एजीआई का विकास खराब नैतिकता, नैतिकता और मूल्यों के साथ AGI और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन"।

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के बारे में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई होगी अधीक्षण तक पहुँचने के बाद विनाशकारी के बजाय मैत्रीपूर्ण तरीके से व्यवहार करना जारी रखें? नियंत्रण समस्या को हल करना एआई हथियारों की दौड़ से जटिल है, जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखेंगे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई का, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होता है, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।

थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ। जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, "एक भ्रम" और अमीरों द्वारा एक "अद्भुत चाल" है।

बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक पहुंचने से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक गॉर्डन मूर ने घोषणा की: "मैं एक संशयवादी हूं। मुझे विश्वास नहीं है कि [तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है रास्ता।" Baidu के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के बारे में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के बारे में चिंता करने जैसा है, जब हमने अभी तक ग्रह पर पैर भी नहीं रखा है।

बाहरी संबंध

 * The AGI portal maintained by Pei Wang
 * The Genesis Group at MIT's CSAIL – Modern research on the computations that underlay human intelligence
 * OpenCog – open source project to develop a human-level AI
 * Simulating logical human thought
 * What Do We Know about AI Timelines? – Literature review