कृत्रिम सामान्य बुद्धि

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार की काल्पनिक बुद्धिमत्ता है। एजीआई मे अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य पशु कर सकते हैं। वैकल्पिक रूप से एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। एजीआई बनाना कुछ कृत्रिम बुद्धिमत्ता शोध और ओपीईएनएआई, डीपमाइंड और एंथ्रोपिक जैसी संस्थाओ का प्राथमिक लक्ष्य है। वैज्ञानिक साहित्य और भविष्य अध्ययन में एजीआई एक सामान्य विषय है।

एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही वार्तालाप का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है दूसरों लोगों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है और अल्पसंख्यक मानते हैं कि इसे कभी प्राप्त नहीं किया जा सकता है। इसके अतिरिक्त इस विषय पर भी वार्तालाप चल रही है कि क्या आधुनिक सघन अध्ययन प्रणाली जैसे कि जीपीटी-4, एजीआई का प्रारंभिक अभी तक अपेक्षाकृत अर्ध रूप है। या इसके लिए नए दृष्टिकोण की आवश्यकता है।

एजीआई के मानवता के लिए जिखिम उत्पन्न करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है जबकि अन्य एजीआई के विकास को एक जोखिम प्रस्तुत करने के लिए बहुत दूरस्थ पाते हैं।

2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई है।

शब्दावली
एजीआई को दृढ़ एआई और पूर्ण एआई को सामान्य बुद्धिमत्ता प्रक्रिया के रूप में भी जाना जाता है। हालांकि, कुछ शैक्षणिक स्रोत कंप्यूटर प्रोग्राम के लिए "दृढ़ एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। इसके विपरीत कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है। कुछ शैक्षणिक स्रोत "कममहत्व एआई" का उपयोग किसी भी प्रोग्राम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान स्मरण शक्ति रखते हैं। संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई और उच्च बुद्धिमत्ता सम्मिलित हैं।

विशेषताएं
एआई के लिए विभिन्न मानदंड (सबसे प्रसिद्ध ट्यूरिंग परीक्षण) प्रस्तावित किए गए हैं लेकिन व्यापक रूप से कोई परिभाषा स्वीकृत नहीं की गई है।

एआई लक्षण
हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है: और यदि आवश्यक हो तो किसी दिए गए लक्ष्य को पूरा करने लिए कृत्रिम बुद्धिमत्ता एकीकरण प्रणाली का प्रयोग करना जो अन्य महत्वपूर्ण क्षमताओं में सम्मिलित हैं: इसमें जोखिम का पता लगाने और प्रतिक्रिया देने की क्षमता सम्मिलित है। कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल बुद्धिमत्ता और निर्णय लेने) काल्पनिक उपन्यास, मानसिक छवियों या अवधारणाओं को बनाने की क्षमता और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।
 * स्वचालित तर्क, योजनाओ का उपयोग करना, पहेलियों को सुलझाना और अनिश्चितता के अंतर्गत निर्णय लेना।
 * सामान्य ज्ञान कृत्रिम बुद्धिमत्ता सहित ज्ञान प्रतिनिधित्व करना।
 * स्वचालित योजना
 * यंत्र अधिगम
 * प्राकृतिक भाषा प्रसंस्करण में संवाद करना।
 * मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि आदि)
 * कार्य करने की क्षमता (उदाहरण के लिए वस्तुओं को स्थानांतरित करना और परिवर्तित करना, शोध करने के लिए स्थान परिवर्तित करना आदि।)

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमत्ता घटक आदि सम्मिलित हैं। हालाँकि इस विषय पर कोई सहमति नहीं है कि आधुनिक एआई प्रणाली उन्हें पर्याप्त मात्रा में सुरक्षित रखते हैं।

गणितीय औपचारिकताएँ
एजीआई का एक गणितीय शुद्ध विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित प्रस्तावित एजीआई घटक "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता को अधिकतम करता है। इस प्रकार के एजीआई मानव-समान व्यवहार को प्रदर्शित करने के अतिरिक्त बुद्धिमत्ता की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता को सार्वभौमिक कृत्रिम बुद्धिमत्ता भी कहा जाता है।

2015 में जनलीक और मार्कस हटर ने दिखाया कि लेग-हटर बुद्धिमत्ता वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक घटक की क्षमता एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (यूटीएम) के संबंध में मापा जाता है। एआईएक्सआई सबसे बुद्धिमत्ता नीति है यदि यह उसी यूटीएम का उपयोग करती है जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलित इष्टतमता गुणों को कम करता है।" यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है। जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलग होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह भौतिक द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है। कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं यह धारणा अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है। इसके बाद माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान के साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता या समकक्ष सामान्यीकरण करने की क्षमता होती है। इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना, यदि सक्रियतावाद धारण है। भौतिक द्वैतवाद नहीं है तो बुद्धिमत्ता के लिए सम्पीडन आवश्यक या पर्याप्त नहीं होता है बुद्धिमत्ता पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें) इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है। जैसे कि प्राकृतिक भाषा का उपयोग कई कारकों पर निर्भर करता है। उदाहरण के लिए जिस तरीके से घटक सन्निहित है या इसका कोई पुरस्कृत कार्य है जो भूख, दर्द और इसी प्रकार की अनुभूति के मानवीय मनुष्यों के निकट है।

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण
मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है। जिनमें निम्नलिखित सम्मिलित हैं।

ट्यूरिंग परीक्षण (ट्यूरिंग)
 * मशीन और मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है जो परीक्षण को स्वीकृत करती है यदि यह मूल्यांकन कर्ता को समय के एक महत्वपूर्ण भाग को मूर्ख बना सकती है। तब ध्यान दे कि ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धिमत्ता के रूप में क्या योग्यता होनी चाहिए और केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करने की आवश्यकता होती है।

कॉफ़ी परीक्षण (वोज्नियाक)
 * एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है। कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उपयुक्त बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट परीक्षण (गोएर्टज़ेल)
 * मशीन एक विश्वविद्यालय में पंजीकृत होती है वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)
 * मशीन कम से कम एक ही कार्य में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण कार्य करती है।

एआई-पूर्ण समस्याएं
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का अनुसरण करें और जानें कि किस विषय में बात की जा रही है और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि) मानव-स्तरीय मशीन प्रदर्शन तक अभिगमन के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता होती है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए दृढ़ एआई को प्रयुक्त करने की आवश्यकता होती है क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है। एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से बचने के लिए की जाती है।

एआई-पूर्ण समस्याओं को केवल वर्तमान कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के अटैक को पीछे हटाना है।

प्राचीन एआई
आधुनिक एआई शोध 1950 के दशक के मध्य में प्रारम्भ हुई। एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी। जिसमे कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी। एआई के निर्माता हर्बर्ट ए. साइमन ने 1965 में लिखा था कि "मशीनें बीस साल के भीतर कोई भी कार्य करने में सक्षम हो जाएंगी जो एक मनुष्य कर सकता है।

उनका पूर्वानुमान स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं। जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे। संभव के रूप में समय की सामान्य सहमति और पूर्वानुमान के अनुसार उन्होंने 1967 में कहा कि "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या अपेक्षाकृत रूप तक हल हो सकती है।"

डौग लेनट की सीईसी परियोजना (जो 1984 में प्रारम्भ हुई) और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की प्रारम्भ में यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। वित्तीय संस्थाओ को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया। 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर परियोजना ने एजीआई में रुचि को पुनर्जीवित किया था। जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य सम्मिलित थे जैसे "आकस्मिक बातचीत प्रारम्भ रखें"। इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया। हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार रूप से गिर गया और पांचवीं पीढ़ी के कंप्यूटर परियोजना के लक्ष्य कभी पूरे नहीं हुए। 20 वर्षों में दूसरी बार एजीआई की आसन्न उपलब्धि का पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक एआई शोधकर्ताओं के पास अपेक्षाकृत व्यर्थ दायित्व करने की प्रतिष्ठा थी। वे पूर्वानुमान करने के लिए अनिच्छुक हो गए और "जंगली आंखों वाले सपने देखने वाले" वर्गीकृत किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धिमत्ता का उल्लेख करने से मना कर दिया था।

संकीर्ण एआई अनुसंधान
1990 के दशक और 21वीं सदी की प्रारम्भ में मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और शैक्षणिक सम्मान प्राप्त किया था जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकते है। ये "प्रयुक्त एआई" प्रणाली अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं और इस अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक विकसित प्रवृत्ति माना गया था और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद है।

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले प्रोग्रामों को मिलाकर दृढ़ एआई को विकसित किया जा सकता है। हंस मोरवेस ने 1988 में लिखा था कि मुझे विश्वास है कृत्रिम बुद्धिमत्ता के लिए यह बॉटम अप मार्ग एक दिन पारंपरिक टॉप-डाउन मार्ग को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और सामान्य ज्ञान प्रदान करने के लिए तैयार है जो तर्कबुद्धिमत्ता प्रोग्राम में निराशाजनक रूप से महत्वपूर्ण रहा है। पूरी तरह से बुद्धिमत्ता मशीनों का परिणाम तब होगा जब दो प्रयासों को एकत्र करते हुए रूपक बहुमुल्य स्पंदन को चलाया जाएगा। हालाँकि यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सांकेतिक स्तरीय परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा प्रायः व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "ऊपरी भाग" (प्रतीकात्मक) दृष्टिकोण किसी प्रकर के "निम्न ऊपरी" (संवेदी) दृष्टिकोण को कहीं बीच में प्राप्त हो सकते है यदि इस पत्र में ग्स्तरीय विचार मान्य हैं तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है नीचे से ऊपर एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं अभिगम्य किया जा सकता है और न ही यह स्पष्ट है कि हमें इस प्रकार के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से अलग करने की राशि अर्थात जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करने की आवश्यकता है।

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान
शब्द "कृत्रिम सामान्य बुद्धिमत्ता" का उपयोग 1997 के प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था। पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से प्रस्तुत किया गया और इसे लोकप्रिय बनाया गया था। 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था। "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में एजीआई में पहला समर स्कूल ज़ियामेन चीन में 2009 में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010 और 2011 में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। एमआईटी ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया था। जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता सम्मिलित थे।

2023 तक अधिकांश एआई शोधकर्ता एजीआई पर अपेक्षाकृत ध्यान देते हैं कुछ विशेषज्ञों का अनुमान है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए गुप्त सूचना बहुत जटिल है। हालांकि कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं और कई कृत्रिम सामान्य बुद्धिमत्ता पर सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

घटनाओं से सम्बन्धित समय
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक एजीआई अनुसंधान समुदाय में सामान्य सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है। अर्थात 2015 और 2045 के बीच प्रशंसनीय थी। मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक सुझाव दी है कि क्या प्रगति इतनी तीव्रता से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक पूर्वानुमानों के लिए समान रूप से 16-26 वर्षों के भीतर हो सकती है विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।

2012 में एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया था जिसने छवि नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता था। जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से अपेक्षाकृत अच्छी है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया था। एलेक्सनेट को वर्तमान सघन अध्ययन का प्रारंभिक "ग्राउंड-ब्रेकर" माना जाता था।

2017 में शोधकर्ताओं फेंग लियू, योंगशि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे गूगल एआई, ऐप्पल की सिरी और अन्य पर गुप्त परीक्षण किए। अधिकतम पर ये एआई लगभग 47 के आईक्यू मान तक पहुँच गए जो पहली कक्षा में लगभग छह साल के बच्चे के अनुरूप है। एक वयस्क औसतन लगभग 100 आता है। इसी प्रकार के परीक्षण 2014 में किए गए थे। जिसमें आईक्यू प्राप्तांक 27 के अधिकतम मान तक गया था।

2020 में ओपीईएनएआई ने जीपीटी-3 विकसित किया था एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस विषय पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया था और "परियोजना दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया था। ओपीईएन एआई ने अपने सुरक्षा दिशानिर्देशों का अनुसरण करने के लिए चैटबॉट में परिवर्तन करने के लिए कहा तब रोहरर ने जीपीटी-3 एपीआई से परियोजना दिसंबर को असंबद्ध कर दिया था।

2022 में गाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया था जो एक सामान्य-उद्देश्य प्रणाली है। जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।

2023 में माइक्रोसॉफ्ट शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया था। जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और नियम जैसे कई डोमेन में विस्तृत कार्यों में मानव-स्तर के कार्यों का प्रदर्शन किया। इस शोध ने इस विषय पर वार्तालाप छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है। इस प्रकार की प्रणालियों के आगे शोध और मूल्यांकन की आवश्यकता पर महत्व दिया गया था।

संपूर्ण मस्तिष्क अनुकरण
एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क के विस्तार से मस्तिष्क अवलोकन और मस्तिष्क चित्रण करके इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में प्रारूपित करके बनाया जाता है। कंप्यूटर अनुरूपण मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से सक्षम होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही कार्य करता है। चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क अनुरूपण के संदर्भ में कम्प्यूटेशनल न्यूरो विज्ञान और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध में दृढ़ एआई के दृष्टिकोण के रूप में की गई है। न्यूरो काल्पनिक प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं तीव्रता से सुधार कर रही हैं और "द सिंगुलैरिटी इज़ नियर" पुस्तक में रे कुर्ज़वील ने पूर्वानुमान किया है कि पर्याप्त गुणवत्ता का मानचित्र एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर आधारित हो सकती है।

प्रारंभिक अनुमान
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में अन्तर्ग्रथन होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक संबंधन (अन्तर्ग्रथन) होते हैं। तीन साल के बच्चे के मस्तिष्क में लगभग 1015 अन्तर्ग्रथ (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं 1014 से 5×1014 अन्तर्ग्रथ (100 से 500 ट्रिलियन) तक न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) होता है।

1997 में कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया था जिसकी तुलना के लिए यदि "गणना" एक "चल बिन्दु संचालन" के बराबर थी। वर्तमान मे सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में प्राप्त किया गया था। उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर का पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025 यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि प्रारम्भ हो रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग
कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई सम्मिलित कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क अनुरूपण को संभवतः जैविक न्यूरॉन्स के विस्तृत कोशिकीय व्यवहार पर अधिकृत करना होगा जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा प्रस्तुत किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई अनुक्रम इसके अतिरिक्त अनुमान ग्लियाल कोशिकाओं के लिए उत्तरदाई नहीं हैं। जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।

वर्तमान शोध
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग संरचना पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क अनुरूपण का परीक्षण कर रही हैं। कृत्रिम बुद्धिमत्ता प्रणाली परियोजना ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय अनुरूपण को प्रयुक्त किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे थे। ब्लू मस्तिष्क परियोजना ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 अन्तर्ग्रथ वाले एकल नियोकोर्टिकल स्तम्भ का वास्तविक समय अनुरूपण बनाने के लिए सबसे तीव्र सुपरकंप्यूटर संरचना, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया था। एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं" ब्लू मस्तिष्क के निदेशक हेनरी मार्कराम परियोजना 2009 में ऑक्सफोर्ड में टीईडी सम्मेलन में कहा गया था। न्यूरो-सिलिकॉन अंतरापृष्ठ को वैकल्पिक कार्यान्वयन योजना के रूप में प्रस्तावित किया गया है जो अपेक्षाकृत अच्छा हो सकता है। हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन मस्तिष्क?" में उपरोक्त तर्कों ("मस्तिष्क अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया था। उन्होंने तंत्रिका ऊतक विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं और न ही किसी प्रकार के प्रसंस्करण न्यूरॉन्स का प्रदर्शन करते हैं।

ओपनवॉर्म परियोजना में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 (कुल लगभग 1000 कोशिकाओं के बीच) न्यूरॉन्स हैं। परियोजना के प्रारम्भ से पहले पशु के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था। लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल कार्य नहीं करते थे। वर्तमान में, प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के शुद्ध अनुकरण पर ध्यान केंद्रित करते हैं। लेकिन परिणाम को अभी तक पूरी तरह से सफल नहीं कहा जा सकता है।

अनुरूपण-आधारित दृष्टिकोणों की आलोचना
अनुरूपण-आधारित मस्तिष्क प्रस्ताव की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और सामान्य अर्थ के लिए आवश्यक है। यदि यह सिद्धांत सही है तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक शरीर) से अधिक सम्मिलित करने की आवश्यकता होगी। गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है। लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा। 109 समेकित भुगतान सांख्‍यिकी (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील और मोरेवेक द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए जो मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम हो लेकिन कुछ रुचि के अतिरिक्त ऐसा कोई अनुकरण सम्मिलित नहीं है। इसके कई कारण हैं: इसके अतिरिक्त मानव मस्तिष्क का पैमाना वर्तमान में अपेक्षाकृत अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब अन्तर्ग्रथ होते हैं। एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है। जिनमें से 16.3 बिलियन प्रमस्तिष्क प्रांतस्था में होते हैं और 69 बिलियन सेरिबैलम में होते हैं। ग्लियाल कोशिकीय अन्तर्ग्रथ वर्तमान में अनिर्धारित हैं लेकिन अपेक्षाकृत बहुत अधिक होने के लिए जाने जाते हैं।
 * 1) न्यूरॉन मॉडल अतिसरलीकृत लगता है। (अगला भाग देखें)।
 * 2) उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है। शुद्ध रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरो काल्पनिक # कार्यात्मक चुंबकीय अनुनाद जैसी तकनीकों का उपयोग करके देखी गई है कि किससे संबंधित है।
 * 3) यहां तक ​​​​कि यदि अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है तो प्रारंभिक अनुरूपन प्रोग्राम बहुत ही अक्षम होने की संभावना है और इसलिए अपेक्षाकृत अधिक हार्डवेयर की आवश्यकता हो सकती है।
 * 4) एक जीव का मस्तिष्क महत्वपूर्ण होते हुए भी एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन अवधारणा इस दार्शनिक अवधारणा को औपचारिक रूप देती है और सेफैलोपॉड में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया है।

दर्शनशास्त्र में परिभाषित दृढ़ एआई
1980 में दार्शनिक जॉन सियरल ने अपने चीनी कक्ष के तर्क के एक भाग के रूप में दृढ़ एआई शब्द का निर्माण किया था। वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे। पहले वाले को उन्होंने "दृढ़" कहा क्योंकि यह एक दृढ़ प्रामाण देता है यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "दृढ़ एआई" मशीन के समान होता है लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी हो सकता है। जिसका शैक्षणिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग सामान्य है।
 * दृढ़ एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली पर विचार कर सकती है जो एक मस्तिष्क और चेतना है।
 * कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसे कार्य' करती है वह उस पर विचार करती है और उसके पास मस्तिष्क और चेतना होती है।

मुख्यधारा विषयक एआई की सबसे अधिक रुचि इस विषय में है कि कोई प्रोग्राम कैसे व्यवहार करता है। रसेल और पीटर नॉरविग के अनुसार "जब तक प्रोग्राम कार्य करता है वे चिंता नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण" पता है कि क्या यह वास्तव में मन है। वास्तव में, यह बताने का कोई तरीका नहीं हो सकता है एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि के बराबर संभव है।" इस प्रकार रसेल और नॉरविग के अनुसार "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं और दृढ़ एआई परिकल्पना की चिंता नहीं करते हैं।" इस प्रकार, शैक्षणिक एआई अनुसंधान के लिए "दृढ़ एआई" और "एजीआई" दो बहुत अलग वस्तुएं हैं।

सियरल और मुख्यधारा विषयक एआई के विपरीत कुछ पूर्वानुमान जैसे रे कुर्ज़वील "दृढ़ एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं। यह सियरल के दृढ़ एआई के समान नहीं है जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल उनकी समझ से बाहर है।

चेतना
बुद्धि के अतिरिक्त मानव मन के अन्य दृष्टिकोण दृढ़ एआई की अवधारणा के लिए प्रासंगिक हैं और ये विज्ञान कथन और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:
 * चेतनाः गुण और विचार होना।
 * आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
 * भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
 * ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है क्योंकि दृढ़ एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं। जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव पशुओ के अधिकार एकीकृत करने पर प्रारंभिक कार्य किया गया है। दृढ़ एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलित कानूनी और सामाजिक संरचना के साथ बिल जॉय, दूसरों के बीच तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए जोखिम हो सकती है। यह दिखाया जाना बाकी है कि दृढ़ एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या आवश्यक नही है। चेतना की भूमिका स्पष्ट नहीं है और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधों का अनुकरण करती है तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमत्ता मशीन से परिपूर्ण होते है यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमत्ता तरीके से कार्य करना प्रारम्भ कर सकते है।

कृत्रिम चेतना अनुसंधान
हालांकि दृढ़ एआई/एजीआई में चेतना की भूमिका विवादास्पद है। कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को प्रयुक्त करने की संभावनाओं की जांच करते है। प्रारंभिक प्रयास में इगोर अलेक्जेंडर ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लग सकते है।

दृढ़ एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण
1956 में एआई अनुसंधान के प्रारम्भ के बाद से मानव स्तर पर बुद्धिमत्ता नियम के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है। एक संभावित कारण यह है कि कंप्यूटर-विज्ञान उन्मुख और न्यूरो विज्ञान उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप और नम्यता की कमी है। साथ ही एआई अनुसंधान में सम्मिलित जटिलता भी दृढ़ एआई अनुसंधान की प्रगति को सीमित करती है।

एआई अनुसंधान मे कमी के लिए वैचारिक सीमाएं एक और संभावित कारण हैं। एआई शोधकर्ताओं को दृढ़ एआई प्राप्त करने की खोज के लिए एक दृढ़ आधार प्रदान करने के लिए अपने अनुशासन की वैचारिक संरचना को संशोधित करने की आवश्यकता हो सकती है। इसका तात्पर्य यह है कि एक सामाजि सांस्कृतिक संदर्भ में एक दृढ़ एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है। जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था कि यह से प्रारम्भ होती है।  अवलोकन कि बुद्धिमत्ता केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे कार्य कर सकते हैं जो लोगों के लिए जटिल हैं जैसे कि गणित लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है जैसे चलना (मोरवेक का विरोधाभास)। डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग विचार और तर्क को समान मानते हैं। विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए इस विचार ने एआई शोधकर्ताओं को परेशान किया है।

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास उत्पन्न करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल पूर्वानुमानों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है। एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं। अधिकांश जांचकर्ता 21वीं सदी में एजीआई प्राप्त करने को लेकर आशान्वित हैं।

दृढ़ एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है। कई शोधकर्ता एआई के भविष्य के पूर्वानुमान से जुड़े किसी भी संदेह को कम आंकते हैं। लेकिन मानव मस्तिष्क मॉडलिंग जैसे विचारों को गंभीरता से लिए अतिरिक्त एजीआई शोधकर्ता समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे। जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना प्रारम्भ किया था तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी। उस समय शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी। जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ कार्य करते समय फिर से परिभाषित करते हैं। एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है। एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है। हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है। जिसने अमूर्त संचालकों की भूमिका के लिए समस्याएँ उत्पन्न कर दी हैं।

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से अपेक्षाकृत अच्छा रहता है। लेकिन तीव्रता से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को प्रयुक्त करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धिमत्ता से अनुरूपन की स्वीकृति देते हैं। जबकि दृढ़ एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है। एआई शोधकर्ताओं ने इस विषय पर वार्तालाप की है कि भावात्मक कंप्यूटिंग है या नहीं है। एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों को स्वीकृति देता है. भावनाएँ मनुष्य को अनुभवों को याद रखने में सहायता करती हैं। डेविड गेलर्नटर लिखते हैं कि कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी सूक्ष्मताओ का अनुकरण नहीं कर सकता है। भावना के दृढ़ एआई शोध का विषय बने रहने की संभावना है।

व्यवहार्यता
एजीआई 2022 से काल्पनिक बना हुआ है। ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं इस पर सभी के विचार अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा कार्य करने में सक्षम हो सकती है जो एक मनुष्य कर सकता है।" यह पूर्वानुमान सच होने में विफल है। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस प्रकार की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं और अनुभूति की वैज्ञानिक रूप से गहरी समझ की आवश्यकता है। द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तीव्र प्रकाश अंतरिक्ष उड़ान के बीच की खाई है।

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि दृढ़ एआई को भविष्य में प्राप्त किया जा सकता है लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक दृढ़ एआई प्राप्त करने की संभावना को अस्वीकृत करते हैं। जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जा सकता है लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का शुद्धता का अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर औसत 2081 के साथ विशेषज्ञों में से 16.5% ने उत्तर दिया "कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके अतिरिक्त 90% विशेषज्ञों ने आत्मविश्वास के साथ आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

यांत्रिक बुद्धिमत्ता शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि " 60 साल की समय सीमा में मानव स्तर एआई के आगमन का पूर्वानुमान करने की दिशा में एक दृढ़ पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित" एआई उन्होंने 1950 और 2012 के बीच किए गए 95 पूर्वानुमान का विश्लेषण किया कि मानव स्तर एआई कब तक आ सकती है।

मानव अस्तित्व के लिए संभावित जोखिम
एआई अभिधारणा मनुष्यों के लिए एक अस्तित्वगत जोखिम उत्पन्न करता है और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक आंकड़ा द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित जोखिम की मूल अभिधारणा का समर्थन करते हैं। बिल गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना को प्रस्तुत किया है। इसलिए मानव के कई लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए प्रत्येक संभव प्रयास कर रहे हैं यदि अपेक्षाकृत एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा कि हम कुछ दशकों में अभिगम्य होते है तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है' जब आप यहां पहुंचें तो हमें कॉल करेंहम रोशनी चालू रखेंगे?' लगभग नहींलेकिन एआई के साथ संभव यही हो रहा है।

एजीआई से सम्बद्ध जोखिमों को 2021 की व्यवस्थित समीक्षा में डेटा की कमी को ध्यान में रखते हुए निम्नलिखित संभावित जोखिम पाए गए है। जिसमे एजीआई स्वयं को मानव प्रबंधकों के नियंत्रण से अलग कर रहा है और असुरक्षित लक्ष्यों को सम्मिलित किया जा रहा है या असुरक्षित एजीआई, एजीआई की विकास नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन को विकसित कर रहा है।

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं कि किस प्रकार के सुरक्षा उपाय, एल्गोरिदम या संरचनात्मक प्रोग्राम इस संभावना को अधिकतम करने के लिए प्रयुक्त कर सकते हैं कि उनकी पुनरावर्ती सुधार एआई मे उच्च बुद्धिमत्ता तक अभिगमन के बाद विनाशकारी के अतिरिक्त मैत्रीपूर्ण तरीके से व्यवहार करना प्रारम्भ रखें? नियंत्रण समस्या को हल करना एआई उपकरणो की दौड़ से जटिल है जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखने मे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई के परिणामस्वरूप एजीआई सक्षम युद्ध होता है और एआई मिसलिग्न्मेंट की स्थिति में एजीआई निर्देशित युद्ध संभावित रूप से सभी मानवता के विरुद्ध है।

अवधारणा है कि एआई अस्तित्वगत जोखिम या कई अवरोधक उत्पन्न कर सकता है। संदेहवादी कभी-कभी यह आरोप लगाते हैं कि अवधारणा क्रिप्टो-धार्मिक है एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास के स्थान पर उच्च बुद्धिमत्ता की संभावना में एक तर्कहीन विश्वास के साथ जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि शीघ्रता मशीनें किसी भी प्रकार से बुद्धिमत्ता थीं। "एक भ्रम" और अमीरों द्वारा यह एक "अद्भुत चाल" है। अत्यधिक आलोचना का तर्क है कि कम समय में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक अभिगमन से पहले ही मानव जाति स्वयं को नष्ट कर सकती है मूर के नियम के मूल प्रस्तावक गॉर्डन मूर ने घोषणा किया कि "मैं एक संदेहवादी हूं मुझे विश्वास नहीं है कि तकनीकी विलक्षणता होने की संभावना है कम से कम लंबे समय तक और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है।" बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है जबकि हमने अभी तक ग्रह पर पैर भी नहीं रखा है।"

बाहरी संबंध

 * The एजीआई portal mएआईntएआईned by Pei Wang
 * The Genesis Group at MIT's CSएआईL – Modern research on the computations that underlay human intelligence
 * ओपीईएनCog – ओपीईएन source project to develop a human-level एआई
 * Simulating logical human thought
 * What Do We Know about एआई Timelines? – Literature review