कृत्रिम सामान्य बुद्धि

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार का काल्पनिक बुद्धिमत्ता घटक है। एजीआई मे अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य पशु कर सकते हैं। वैकल्पिक रूप से एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। एजीआई बनाना कुछ कृत्रिम बुद्धिमत्ता शोध और ओपीईएनएआई, डीपमाइंड और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। वैज्ञानिक साहित्य और भविष्य अध्ययन में एजीआई एक सामान्य विषय है।

एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही वार्तालाप का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है दूसरों लोगों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है और अल्पसंख्यक मानते हैं कि इसे कभी प्राप्त नहीं किया जा सकता है। इसके अतिरिक्त इस विषय पर भी वार्तालाप चल रही है कि क्या आधुनिक सघन अध्ययन प्रणाली जैसे कि जीपीटी-4, एजीआई का प्रारंभिक अभी तक अपेक्षाकृत अर्ध रूप है। या इसके लिए नए दृष्टिकोण की आवश्यकता है।

एजीआई के मानवता के लिए जिखिम उत्पन्न करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है जबकि अन्य एजीआई के विकास को एक जोखिम प्रस्तुत करने के लिए बहुत दूरस्थ पाते हैं।

2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई है।

शब्दावली
एजीआई को दृढ़ एआई और पूर्ण एआई को सामान्य बुद्धिमत्ता प्रक्रिया के रूप में भी जाना जाता है। हालांकि, कुछ शैक्षणिक स्रोत कंप्यूटर प्रोग्राम के लिए "दृढ़ एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। इसके विपरीत कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है। कुछ शैक्षणिक स्रोत "कममहत्व एआई" का उपयोग किसी भी प्रोग्राम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान स्मरण शक्ति रखते हैं। संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई और उच्च बुद्धिमत्ता सम्मिलित हैं।

विशेषताएं
एआई के लिए विभिन्न मानदंड (सबसे प्रसिद्ध ट्यूरिंग परीक्षण) प्रस्तावित किए गए हैं लेकिन व्यापक रूप से कोई परिभाषा स्वीकृत नहीं की गई है।

एआई लक्षण
हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है: और यदि आवश्यक हो तो किसी दिए गए लक्ष्य को पूरा करने लिए कृत्रिम बुद्धिमत्ता एकीकरण प्रणाली का प्रयोग करना जो अन्य महत्वपूर्ण क्षमताओं में सम्मिलित हैं: इसमें जोखिम का पता लगाने और प्रतिक्रिया देने की क्षमता सम्मिलित है। कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल बुद्धिमत्ता और निर्णय लेने) काल्पनिक उपन्यास, मानसिक छवियों या अवधारणाओं को बनाने की क्षमता और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।
 * स्वचालित तर्क, योजनाओ का उपयोग करना, पहेलियों को सुलझाना और अनिश्चितता के अंतर्गत निर्णय लेना।
 * सामान्य ज्ञान कृत्रिम बुद्धिमत्ता सहित ज्ञान प्रतिनिधित्व करना।
 * स्वचालित योजना
 * यंत्र अधिगम
 * प्राकृतिक भाषा प्रसंस्करण में संवाद करना।
 * मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि आदि)
 * कार्य करने की क्षमता (उदाहरण के लिए वस्तुओं को स्थानांतरित करना और परिवर्तित करना, शोध करने के लिए स्थान परिवर्तित करना आदि।)

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमत्ता घटक आदि सम्मिलित हैं। हालाँकि इस विषय पर कोई सहमति नहीं है कि आधुनिक एआई प्रणाली उन्हें पर्याप्त मात्रा में सुरक्षित रखते हैं।

गणितीय औपचारिकताएँ
एजीआई का एक गणितीय शुद्ध विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित प्रस्तावित एजीआई घटक "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता को अधिकतम करता है। इस प्रकार के एजीआई मानव-समान व्यवहार को प्रदर्शित करने के अतिरिक्त बुद्धिमत्ता की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता को सार्वभौमिक कृत्रिम बुद्धिमत्ता भी कहा जाता है।

2015 में जनलीक और मार्कस हटर ने दिखाया कि लेग-हटर बुद्धिमत्ता वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक घटक की क्षमता एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (यूटीएम) के संबंध में मापा जाता है। एआईएक्सआई सबसे बुद्धिमत्ता नीति है यदि यह उसी यूटीएम का उपयोग करती है जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलित इष्टतमता गुणों को कम करता है।" यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है। जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलग होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह भौतिक द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है। कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं यह धारणा अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है। इसके बाद माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान के साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता या समकक्ष सामान्यीकरण करने की क्षमता होती है <रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी> इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना, यदि सक्रियतावाद धारण है। भौतिक द्वैतवाद नहीं है तो बुद्धिमत्ता के लिए सम्पीडन आवश्यक या पर्याप्त नहीं होता है बुद्धिमत्ता पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें) इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है। जैसे कि प्राकृतिक भाषा का उपयोग कई कारकों पर निर्भर करता है। उदाहरण के लिए जिस तरीके से घटक सन्निहित है या इसका कोई पुरस्कृत कार्य है जो भूख, दर्द और इसी प्रकार की अनुभूति के मानवीय मनुष्यों के निकट है।

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण
मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है जिनमें निम्नलिखित सम्मिलित हैं।

ट्यूरिंग परीक्षण (ट्यूरिंग)
 * मशीन और मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है जो परीक्षण को स्वीकृत करती है यदि यह मूल्यांकन कर्ता को समय के एक महत्वपूर्ण भाग को मूर्ख बना सकती है। तब ध्यान दे कि ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धिमत्ता के रूप में क्या योग्यता होनी चाहिए और केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करने की आवश्यकता होती है।

कॉफ़ी परीक्षण (वोज्नियाक)
 * एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है। कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उपयुक्त बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट परीक्षण (गोएर्टज़ेल)
 * मशीन एक विश्वविद्यालय में पंजीकृत होती है वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)
 * मशीन कम से कम एक ही कार्य में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण कार्य करती है।

एआई-पूर्ण समस्याएं
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का अनुसरण करें और जानें कि किस विषय में बात की जा रही है और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि) मानव-स्तरीय मशीन प्रदर्शन तक अभिगमन के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता होती है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए दृढ़ एआई को प्रयुक्त करने की आवश्यकता होती है क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है। एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से बचने के लिए की जाती है।

एआई-पूर्ण समस्याओं को केवल वर्तमान कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के अटैक को पीछे हटाना है।

प्राचीन एआई
आधुनिक एआई शोध 1950 के दशक के मध्य में प्रारम्भ हुई। एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी। जिसमे कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी। एआई के निर्माता हर्बर्ट ए. साइमन ने 1965 में लिखा था कि "मशीनें बीस साल के भीतर कोई भी कार्य करने में सक्षम हो जाएंगी जो एक मनुष्य कर सकता है।

उनका पूर्वानुमान स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं। जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे। संभव के रूप में समय की सामान्य सहमति और पूर्वानुमान के अनुसार उन्होंने 1967 में कहा कि "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या अपेक्षाकृत रूप तक हल हो सकती है।"

डौग लेनट की सीईसी परियोजना (जो 1984 में प्रारम्भ हुई) और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की प्रारम्भ में यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। वित्तीय संस्थाओ को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया। 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर परियोजना ने एजीआई में रुचि को पुनर्जीवित किया था। जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य सम्मिलित थे जैसे "आकस्मिक बातचीत प्रारम्भ रखें"। इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया। हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार रूप से गिर गया और पांचवीं पीढ़ी के कंप्यूटर परियोजना के लक्ष्य कभी पूरे नहीं हुए। 20 वर्षों में दूसरी बार एजीआई की आसन्न उपलब्धि का पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक एआई शोधकर्ताओं के पास अपेक्षाकृत व्यर्थ दायित्व करने की प्रतिष्ठा थी। वे पूर्वानुमान करने के लिए अनिच्छुक हो गए और "जंगली आंखों वाले सपने देखने वाले" वर्गीकृत किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धिमत्ता का उल्लेख करने से मना कर दिया था।

संकीर्ण एआई अनुसंधान
1990 के दशक और 21वीं सदी की प्रारम्भ में मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और शैक्षणिक सम्मान प्राप्त किया था जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकते है। ये "प्रयुक्त एआई" प्रणाली अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं और इस अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक विकसित प्रवृत्ति माना गया था और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद है।

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले प्रोग्रामों को मिलाकर दृढ़ एआई को विकसित किया जा सकता है। हंस मोरवेस ने 1988 में लिखा था कि मुझे विश्वास है कृत्रिम बुद्धिमत्ता के लिए यह बॉटम अप मार्ग एक दिन पारंपरिक टॉप-डाउन मार्ग को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और सामान्य ज्ञान प्रदान करने के लिए तैयार है जो तर्कबुद्धिमत्ता प्रोग्राम में निराशाजनक रूप से महत्वपूर्ण रहा है। पूरी तरह से बुद्धिमत्ता मशीनों का परिणाम तब होगा जब दो प्रयासों को एकत्र करते हुए रूपक बहुमुल्य स्पंदन को चलाया जाएगा। हालाँकि यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सांकेतिक स्तरीय परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा प्रायः व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "ऊपरी भाग" (प्रतीकात्मक) दृष्टिकोण किसी प्रकर के "निम्न ऊपरी" (संवेदी) दृष्टिकोण को कहीं बीच में प्राप्त हो सकते है यदि इस पत्र में ग्स्तरीय विचार मान्य हैं तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है नीचे से ऊपर एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं अभिगम्य किया जा सकता है और न ही यह स्पष्ट है कि हमें इस प्रकार के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से अलग करने की राशि अर्थात जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करने की आवश्यकता है।

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान
शब्द "कृत्रिम सामान्य बुद्धिमत्ता" का उपयोग 1997 के प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था। पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से प्रस्तुत किया गया और इसे लोकप्रिय बनाया गया था। 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था। "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में एजीआई में पहला समर स्कूल ज़ियामेन चीन में 2009 में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010 और 2011 में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। एमआईटी ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया था। जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता सम्मिलित थे।

2023 तक अधिकांश एआई शोधकर्ता एजीआई पर अपेक्षाकृत ध्यान देते हैं कुछ विशेषज्ञों का अनुमान है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए गुप्त सूचना बहुत जटिल है। हालांकि कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं और कई कृत्रिम सामान्य बुद्धिमत्ता पर सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

घटनाओं से सम्बन्धित समय
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक एजीआई अनुसंधान समुदाय में सामान्य सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है। अर्थात 2015 और 2045 के बीच प्रशंसनीय थी। मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक सुझाव दी है कि क्या प्रगति इतनी तीव्रता से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक पूर्वानुमानों के लिए समान रूप से 16-26 वर्षों के भीतर हो सकती है विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।

2012 में एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया था जिसने छवि नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता था। जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से अपेक्षाकृत अच्छी है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया था। एलेक्सनेट को वर्तमान सघन अध्ययन का प्रारंभिक "ग्राउंड-ब्रेकर" माना जाता था।

2017 में शोधकर्ताओं फेंग लियू, योंगशि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे गूगल एआई, ऐप्पल की सिरी और अन्य पर गुप्त परीक्षण किए। अधिकतम पर ये एआई लगभग 47 के आईक्यू मान तक पहुँच गए जो पहली कक्षा में लगभग छह साल के बच्चे के अनुरूप है। एक वयस्क औसतन लगभग 100 आता है। इसी प्रकार के परीक्षण 2014 में किए गए थे। जिसमें आईक्यू प्राप्तांक 27 के अधिकतम मान तक गया था।

2020 में ओपीईएनएआई ने जीपीटी-3 विकसित किया था एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस विषय पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया था और "परियोजना दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया था। ओपीईएन एआई ने अपने सुरक्षा दिशानिर्देशों का अनुसरण करने के लिए चैटबॉट में परिवर्तन करने के लिए कहा तब रोहरर ने जीपीटी-3 एपीआई से परियोजना दिसंबर को असंबद्ध कर दिया था।

2022 में गाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया था जो एक सामान्य-उद्देश्य प्रणाली है। जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।

2023 में माइक्रोसॉफ्ट शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया था। जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और नियम जैसे कई डोमेन में विस्तृत कार्यों में मानव-स्तर के कार्यों का प्रदर्शन किया। इस शोध ने इस विषय पर वार्तालाप छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है। इस प्रकार की प्रणालियों के आगे शोध और मूल्यांकन की आवश्यकता पर महत्व दिया गया था।

संपूर्ण मस्तिष्क अनुकरण
एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क को विस्तार से मस्तिष्क स्कैनिंग और ब्रेन मैपिंग करके और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी करके बनाया जाता है। कंप्यूटर सिमुलेशन मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है। चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल न्यूरोसाइंस और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध में दृढ़ एआई के दृष्टिकोण के रूप में की गई है। न्यूरोइमेजिंग प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और द सिंगुलैरिटी इज़ नियर पुस्तक में भविष्यवादी रे कुर्ज़वील ने पूर्वानुमान की है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर होगी।

प्रारंभिक अनुमान
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में सिनैप्स होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 1015 सिनेप्स (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 1014 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन) तक। न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) है।

1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया। [ई] (तुलना के लिए, यदि "गणना" एक "फ्लोटिंग-पॉइंट" के बराबर थी ऑपरेशन" - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - फिर 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में हासिल किया गया था।) उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर की पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025, यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग
कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई सम्मिलिता कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।

वर्तमान शोध
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। कृत्रिम बुद्धिमत्ता सिस्टम प्रोजेक्ट ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय सिमुलेशन को लागू किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे। ब्लू ब्रेन प्रोजेक्ट ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 सिनैप्स वाले एकल चूहे नियोकोर्टिकल कॉलम का वास्तविक समय सिमुलेशन बनाने के लिए सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया। एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं," ब्लू ब्रेन के निदेशक हेनरी मार्कराम प्रोजेक्ट, 2009 में ऑक्सफोर्ड में TED सम्मेलन में कहा गया। न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर हो सकता है।

हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन ब्रेन?" में उपरोक्त तर्कों ("दिमाग अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया। उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।

ओपनवॉर्म प्रोजेक्ट में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की प्रारम्भ से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल कार्य नहीं करते थे। वर्तमान में, प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।

सिमुलेशन-आधारित दृष्टिकोणों की आलोचना
सिम्युलेटेड ब्रेन एप्रोच की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और जमीनी अर्थ के लिए आवश्यक है। यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक सम्मिलित करने की आवश्यकता होगी। गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।

109 cps (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरेवेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम, लेकिन कुछ रुचि के बावजूद ऐसा कोई अनुकरण सम्मिलित नहीं है। इसके कई कारण हैं: इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब सिनैप्स होते हैं। एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन सेरेब्रल कॉर्टेक्स में हैं और 69 बिलियन सेरिबैलम में हैं। ग्लियाल सेल सिनैप्स वर्तमान में अनिर्धारित हैं, लेकिन बहुत अधिक होने के लिए जाने जाते हैं।
 * 1) न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
 * 2) उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
 * 3) भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन प्रोग्राम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
 * 4) एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन अवधारणा इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और cephalopods में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।

दर्शनशास्त्र में परिभाषित दृढ़ एआई
1980 में, दार्शनिक जॉन सियरल ने अपने चीनी कमरे के तर्क के हिस्से के रूप में दृढ़ एआई शब्द गढ़ा। वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे: पहले वाले को उन्होंने "मजबूत" कहा क्योंकि यह एक मजबूत बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "दृढ़ एआई" मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। शैक्षणिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।
 * दृढ़ एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
 * कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।

मेनस्ट्रीम एआई की सबसे अधिक रुचि इस बात में है कि कोई प्रोग्राम कैसे व्यवहार करता है। रसेल और पीटर नॉरविग के अनुसार, "जब तक प्रोग्राम कार्य करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।" पता है कि क्या यह वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि संभव है" के बराबर है। इस प्रकार, रसेल और नॉरविग के अनुसार, "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं, और दृढ़ एआई परिकल्पना की परवाह नहीं करते हैं।" इस प्रकार, शैक्षणिक एआई अनुसंधान के लिए, "दृढ़ एआई" और "एजीआई" दो बहुत अलग चीजें हैं।

सरेल और मुख्यधारा एआई के विपरीत, कुछ भविष्यवादी जैसे रे कुर्ज़वील "दृढ़ एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं। यह Searle के दृढ़ एआई के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है, और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल दायरे से बाहर है।

चेतना
बुद्धि के अलावा मानव मन के अन्य दृष्टिकोण दृढ़ एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:
 * चेतनाः गुण और विचार होना।
 * आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
 * भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
 * ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है, क्योंकि दृढ़ एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलिता कानूनी और सामाजिक ढांचे के साथ। बिल जॉय, दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>

यह दिखाया जाना बाकी है कि दृढ़ एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमत्ता मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमत्ता तरीके से कार्य करना शुरू कर देंगी।

कृत्रिम चेतना अनुसंधान
हालांकि दृढ़ एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को लागू करने की संभावनाओं की जांच करता है। प्रारंभिक प्रयास में इगोर अलेक्जेंडर ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लगेंगे।

दृढ़ एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण
1956 में एआई अनुसंधान के शुभारंभ के बाद से, मानव स्तर पर बुद्धिमत्ता कार्रवाई के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है। एक संभावित कारण यह है कि कंप्यूटर-विज्ञान-उन्मुख और/या न्यूरोसाइंस-उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप लचीलेपन की कमी है। साथ ही एआई अनुसंधान में सम्मिलित जटिलता भी दृढ़ एआई अनुसंधान की प्रगति को सीमित करती है।

एआई अनुसंधान में सुस्ती के लिए वैचारिक सीमाएं एक और संभावित कारण हैं। एआई शोधकर्ताओं को दृढ़ एआई प्राप्त करने की खोज के लिए एक मजबूत आधार प्रदान करने के लिए अपने अनुशासन के वैचारिक ढांचे को संशोधित करने की आवश्यकता हो सकती है। इसका मतलब है कि एक सामाजिक-सांस्कृतिक संदर्भ में एक दृढ़ एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है। जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था: से शुरू होता है अवलोकन कि बुद्धि केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे कार्य कर सकते हैं जो लोगों के लिए जटिल हैं, जैसे कि गणित, लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है, जैसे चलना (मोरवेक का विरोधाभास)। डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग सोच और तर्क को समान मानते हैं। विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए, इस विचार ने एआई शोधकर्ताओं को परेशान किया है।

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास उत्पन्न करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल भविष्यवाणियों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है। एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं। अधिकांश जांचकर्ता 21वीं सदी में एजीआई हासिल करने को लेकर आशान्वित हैं।

दृढ़ एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है। कई शोधकर्ता एआई की भविष्य की भविष्यवाणियों से जुड़े किसी भी संदेह को कम आंकते हैं, लेकिन मानव मस्तिष्क मॉडलिंग जैसे मुद्दों को गंभीरता से लिए बिना, एजीआई शोधकर्ता तब समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे। जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना शुरू किया, तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी। उस समय, शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।

जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ कार्य करते समय फिर से परिभाषित करते हैं, एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है। एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है। हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है, अमूर्त संचालकों की भूमिका ने समस्याएँ खड़ी कर दी हैं।

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से बेहतर रहता है। लेकिन तेजी से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को लागू करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धि से मेल खाने की अनुमति देते हैं। जबकि दृढ़ एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है, चुनौती होना।

एआई शोधकर्ताओं ने इस बात पर बहस की है कि भावात्मक कंप्यूटिंग है या नहीं। एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है, और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों की अनुमति देता है. भावनाएँ मनुष्य को अनुभवों को याद रखने में मदद करती हैं। डेविड गेलर्नटर लिखते हैं, कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी बारीकियों का अनुकरण नहीं कर सकता। भावना के दृढ़ एआई शोध का विषय बने रहने की संभावना है।

व्यवहार्यता
एजीआई 2022 से काल्पनिक बना हुआ है। ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं इस पर सभी के विचार अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा कार्य करने में सक्षम हो सकती है जो एक मनुष्य कर सकता है।" यह पूर्वानुमान सच होने में विफल है। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस प्रकार की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं और अनुभूति की वैज्ञानिक रूप से गहरी समझ की आवश्यकता है। द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तीव्र प्रकाश अंतरिक्ष उड़ान के बीच की खाई है।

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि दृढ़ एआई को भविष्य में प्राप्त किया जा सकता है लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक दृढ़ एआई प्राप्त करने की संभावना को अस्वीकृत करते हैं। जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जा सकता है लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का शुद्धता का अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर औसत 2081 के साथ विशेषज्ञों में से 16.5% ने उत्तर दिया "कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके अतिरिक्त 90% विशेषज्ञों ने आत्मविश्वास के साथ आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

यांत्रिक बुद्धिमत्ता शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि " 60 साल की समय सीमा में मानव स्तर एआई के आगमन का पूर्वानुमान करने की दिशा में एक दृढ़ पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित" एआई उन्होंने 1950 और 2012 के बीच किए गए 95 पूर्वानुमान का विश्लेषण किया कि मानव स्तर एआई कब तक आ सकती है।

मानव अस्तित्व के लिए संभावित जोखिम
एआई अभिधारणा मनुष्यों के लिए एक अस्तित्वगत जोखिम उत्पन्न करता है और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक आंकड़ा द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित जोखिम की मूल अभिधारणा का समर्थन करते हैं। बिल गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना को प्रस्तुत किया है। इसलिए मानव के कई लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए प्रत्येक संभव प्रयास कर रहे हैं यदि अपेक्षाकृत एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा कि हम कुछ दशकों में अभिगम्य होते है तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है' जब आप यहां पहुंचें तो हमें कॉल करेंहम रोशनी चालू रखेंगे?' लगभग नहींलेकिन एआई के साथ संभव यही हो रहा है।

एजीआई से सम्बद्ध जोखिमों को 2021 की व्यवस्थित समीक्षा में डेटा की कमी को ध्यान में रखते हुए निम्नलिखित संभावित जोखिम पाए गए है। जिसमे एजीआई स्वयं को मानव प्रबंधकों के नियंत्रण से अलग कर रहा है और असुरक्षित लक्ष्यों को सम्मिलित किया जा रहा है या असुरक्षित एजीआई, एजीआई की विकास नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन को विकसित कर रहा है।

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं कि किस प्रकार के सुरक्षा उपाय, एल्गोरिदम या संरचनात्मक प्रोग्राम इस संभावना को अधिकतम करने के लिए प्रयुक्त कर सकते हैं कि उनकी पुनरावर्ती सुधार एआई मे उच्च बुद्धिमत्ता तक अभिगमन के बाद विनाशकारी के अतिरिक्त मैत्रीपूर्ण तरीके से व्यवहार करना प्रारम्भ रखें? नियंत्रण समस्या को हल करना एआई उपकरणो की दौड़ से जटिल है जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखने मे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई के परिणामस्वरूप एजीआई सक्षम युद्ध होता है और एआई मिसलिग्न्मेंट की स्थिति में एजीआई निर्देशित युद्ध संभावित रूप से सभी मानवता के विरुद्ध है।

अवधारणा है कि एआई अस्तित्वगत जोखिम या कई अवरोधक उत्पन्न कर सकता है। संदेहवादी कभी-कभी यह आरोप लगाते हैं कि अवधारणा क्रिप्टो-धार्मिक है एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास के स्थान पर उच्च बुद्धिमत्ता की संभावना में एक तर्कहीन विश्वास के साथ जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि शीघ्रता मशीनें किसी भी प्रकार से बुद्धिमत्ता थीं। "एक भ्रम" और अमीरों द्वारा यह एक "अद्भुत चाल" है। अत्यधिक आलोचना का तर्क है कि कम समय में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक अभिगमन से पहले ही मानव जाति स्वयं को नष्ट कर सकती है मूर के नियम के मूल प्रस्तावक गॉर्डन मूर ने घोषणा किया कि "मैं एक संदेहवादी हूं मुझे विश्वास नहीं है कि तकनीकी विलक्षणता होने की संभावना है कम से कम लंबे समय तक और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है।" बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है जबकि हमने अभी तक ग्रह पर पैर भी नहीं रखा है।"

बाहरी संबंध

 * The एजीआई portal mएआईntएआईned by Pei Wang
 * The Genesis Group at MIT's CSएआईL – Modern research on the computations that underlay human intelligence
 * ओपीईएनCog – ओपीईएन source project to develop a human-level एआई
 * Simulating logical human thought
 * What Do We Know about एआई Timelines? – Literature review