कृत्रिम सामान्य बुद्धि: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Hypothetical human-level or stronger AI}} {{Use British English|date = March 2019}} {{Use dmy dates|date=December 2019}} {{unsolved|computer science|Could...")
 
No edit summary
 
(12 intermediate revisions by 3 users not shown)
Line 6: Line 6:
{{Artificial intelligence|Major goals}}
{{Artificial intelligence|Major goals}}


{{distinguish|Generative artificial intelligence}}
{{distinguish|सामान्य कृत्रिम बुद्धिमत्ता}}
एक कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। AGI अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं।<ref>{{cite news |last=Hodson |first=Hal |date=1 March 2019 |title=DeepMind and Google: the battle to control artificial intelligence |work=[[1843 (magazine)|1843]] |url=https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |url-status=live |access-date=7 July 2020 |archive-url=https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |archive-date=7 July 2020 |quote=AGI stands for Artificial General Intelligence, a hypothetical computer program...}}</ref><ref>{{Cite journal |last1=Shevlin |first1=Henry |last2=Vold |first2=Karina |last3=Crosby |first3=Matthew |last4=Halina |first4=Marta |date=2019-10-04 |title=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge |journal=EMBO Reports |language=en |volume=20 |issue=10 |pages=e49177 |doi=10.15252/embr.201949177 |issn=1469-221X |pmc=6776890 |pmid=31531926}}</ref> वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है।<ref name=":1">{{Cite web |title=ओपनएआई चार्टर|url=https://openai.com/charter |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> AGI बनाना कुछ [[ कृत्रिम होशियारी ]] रिसर्च और [[OpenAI]] जैसी कंपनियों का प्राथमिक लक्ष्य है।<ref name=":1" />[[डीपमाइंड]],<ref>{{Cite web |title=के बारे में|url=https://openai.com/about |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> और [[anthropic]] साइंस फिक्शन और फ्यूचर स्टडीज में AGI एक सामान्य विषय है।
'''कृत्रिम सामान्य बुद्धि''' (एजीआई) एक प्रकार की काल्पनिक बुद्धिमत्ता है। एजीआई मे अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य पशु कर सकते हैं।<ref>{{cite news |last=Hodson |first=Hal |date=1 March 2019 |title=DeepMind and Google: the battle to control artificial intelligence |work=[[1843 (magazine)|1843]] |url=https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |url-status=live |access-date=7 July 2020 |archive-url=https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |archive-date=7 July 2020 |quote=AGI stands for Artificial General Intelligence, a hypothetical computer program...}}</ref><ref>{{Cite journal |last1=Shevlin |first1=Henry |last2=Vold |first2=Karina |last3=Crosby |first3=Matthew |last4=Halina |first4=Marta |date=2019-10-04 |title=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge |journal=EMBO Reports |language=en |volume=20 |issue=10 |pages=e49177 |doi=10.15252/embr.201949177 |issn=1469-221X |pmc=6776890 |pmid=31531926}}</ref> वैकल्पिक रूप से एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। एजीआई बनाना कुछ [[ कृत्रिम होशियारी |कृत्रिम बुद्धिमत्ता]] शोध और [[OpenAI|ओपीईएनएआई]],<ref name=":1">{{Cite web |title=ओपनएआई चार्टर|url=https://openai.com/charter |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> [[डीपमाइंड]]<ref>{{Cite web |title=के बारे में|url=https://openai.com/about |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> और एंथ्रोपिक जैसी संस्थाओ का प्राथमिक लक्ष्य है। वैज्ञानिक साहित्य और भविष्य अध्ययन में एजीआई एक सामान्य विषय है।<ref name=":1" />


AGI के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है।<ref name=":2">{{Cite web |title=AI timelines: What do experts in artificial intelligence expect for the future? |url=https://ourworldindata.org/ai-timelines |access-date=2023-04-06 |website=Our World in Data}}</ref> इसके अतिरिक्त, इस बारे में बहस है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे [[GPT-4]], AGI का एक प्रारंभिक अभी तक अधूरा रूप है।<ref>{{Cite arXiv |last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |date=2023-03-27 |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4 |class=cs.CL |eprint=2303.12712 }}</ref> या यदि नए दृष्टिकोण की आवश्यकता है।<ref name=":3">{{Cite web |title=Artificial general intelligence: Are we close, and does it even make sense to try? |url=https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/ |access-date=2023-04-06 |website=MIT Technology Review |language=en}}</ref>
एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही वार्तालाप का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है दूसरों लोगों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है और अल्पसंख्यक मानते हैं कि इसे कभी प्राप्त नहीं किया जा सकता है।<ref name=":2">{{Cite web |title=AI timelines: What do experts in artificial intelligence expect for the future? |url=https://ourworldindata.org/ai-timelines |access-date=2023-04-06 |website=Our World in Data}}</ref> इसके अतिरिक्त इस विषय पर भी वार्तालाप चल रही है कि क्या आधुनिक सघन अध्ययन प्रणाली जैसे कि [[GPT-4|जीपीटी-4]], एजीआई का प्रारंभिक अभी तक अपेक्षाकृत अर्ध रूप है।<ref>{{Cite arXiv |last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |date=2023-03-27 |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4 |class=cs.CL |eprint=2303.12712 }}</ref> या इसके लिए नए दृष्टिकोण की आवश्यकता है।<ref name=":3">{{Cite web |title=Artificial general intelligence: Are we close, and does it even make sense to try? |url=https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/ |access-date=2023-04-06 |website=MIT Technology Review |language=en}}</ref>
एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद मौजूद है; उदाहरण के लिए, ओपनएआई इसे [[कृत्रिम सामान्य बुद्धि से अस्तित्वगत जोखिम]] के रूप में मानता है, जबकि अन्य एजीआई के विकास को जोखिम पेश करने के लिए बहुत दूर पाते हैं।<ref>{{Cite news |date=2023-03-23 |title=Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks |language=en-AU |work=ABC News |url=https://www.abc.net.au/news/2023-03-24/what-is-agi-artificial-general-intelligence-ai-experts-risks/102035132 |access-date=2023-04-06}}</ref><ref name=":2" /><ref name=":3" />
 
2020 के एक सर्वेक्षण में 37 देशों में फैली 72 सक्रिय AGI R&D परियोजनाओं की पहचान की गई।<ref name="baum">{{citation|last=Baum|first=Seth|title=A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy|url=https://gcrinstitute.org/papers/055_agi-2020.pdf|id=Global Catastrophic Risk Institute Working Paper 20|access-date=13 January 2022|archive-date=14 November 2021|archive-url=https://web.archive.org/web/20211114170005/https://gcrinstitute.org/papers/055_agi-2020.pdf|url-status=live}}</ref>


एजीआई के मानवता के लिए जिखिम उत्पन्न करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है जबकि अन्य एजीआई के विकास को एक जोखिम प्रस्तुत करने के लिए बहुत दूरस्थ पाते हैं।<ref>{{Cite news |date=2023-03-23 |title=Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks |language=en-AU |work=ABC News |url=https://www.abc.net.au/news/2023-03-24/what-is-agi-artificial-general-intelligence-ai-experts-risks/102035132 |access-date=2023-04-06}}</ref><ref name=":2" /><ref name=":3" />


2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई है।<ref name="baum">{{citation|last=Baum|first=Seth|title=A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy|url=https://gcrinstitute.org/papers/055_agi-2020.pdf|id=Global Catastrophic Risk Institute Working Paper 20|access-date=13 January 2022|archive-date=14 November 2021|archive-url=https://web.archive.org/web/20211114170005/https://gcrinstitute.org/papers/055_agi-2020.pdf|url-status=live}}</ref>
== शब्दावली ==
== शब्दावली ==
एजीआई को मजबूत एआई के रूप में भी जाना जाता है,{{sfn|Kurzweil|2005|p=260}}<ref name="Kurzweil 2005-08-05">{{Citation |last=Kurzweil |first=Ray |title=Long Live AI |date=5 August 2005a |url=https://www.forbes.com/home/free_forbes/2005/0815/030.html |magazine=[[Forbes]] |url-status=dead |archiveurl=https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html |archivedate=2005-08-14}}: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."</ref><ref>{{Citation |last=Treder |first=Mike |title=Advanced Human Intelligence |date=10 August 2005 |url=https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |work=Responsible Nanotechnology |archive-url=https://web.archive.org/web/20191016214415/https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |url-status=live |archive-date=16 October 2019}}</ref> पूर्ण एआई,<ref>{{Cite web |title=The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013 |url=http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |url-status=live |archive-url=https://web.archive.org/web/20140226123940/http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |archive-date=26 February 2014 |access-date=22 February 2014}}</ref> या सामान्य बुद्धिमान कार्रवाई।{{sfn|Newell|Simon|1976|ps=, This is the term they use for "human-level" intelligence in the [[physical symbol system]] hypothesis.}} हालांकि, कुछ अकादमिक स्रोत मजबूत एआई शब्द को कंप्यूटर प्रोग्राम के लिए सुरक्षित रखते हैं जो संवेदना या [[[[चेतना]]]] का अनुभव करते हैं। {{efn|name="Searle's Strong AI"|See below for the origin of the term "strong AI", and see the academic definition of "[[Chinese room#Strong AI|strong AI]]" and weak AI in the article [[Chinese room]].}} इसके विपरीत, कमजोर AI (या संकीर्ण AI) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।<ref>{{Cite web |title=मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय|url=http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |url-status=dead |archive-url=https://web.archive.org/web/20090925043908/http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |archive-date=25 September 2009 |access-date=8 October 2007}}</ref><ref name="Kurzweil 2005-08-05" />कुछ अकादमिक स्रोत कमजोर एआई का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।{{efn|name="Searle's Strong AI"}}
एजीआई को दृढ़ एआई{{sfn|Kurzweil|2005|p=260}}<ref name="Kurzweil 2005-08-05">{{Citation |last=Kurzweil |first=Ray |title=Long Live AI |date=5 August 2005a |url=https://www.forbes.com/home/free_forbes/2005/0815/030.html |magazine=[[Forbes]] |url-status=dead |archiveurl=https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html |archivedate=2005-08-14}}: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."</ref><ref>{{Citation |last=Treder |first=Mike |title=Advanced Human Intelligence |date=10 August 2005 |url=https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |work=Responsible Nanotechnology |archive-url=https://web.archive.org/web/20191016214415/https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |url-status=live |archive-date=16 October 2019}}</ref> और पूर्ण एआई<ref>{{Cite web |title=The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013 |url=http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |url-status=live |archive-url=https://web.archive.org/web/20140226123940/http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |archive-date=26 February 2014 |access-date=22 February 2014}}</ref> को सामान्य बुद्धिमत्ता प्रक्रिया के रूप में भी जाना जाता है।{{sfn|Newell|Simon|1976|ps=, This is the term they use for "human-level" intelligence in the [[physical symbol system]] hypothesis.}} हालांकि, कुछ शैक्षणिक स्रोत कंप्यूटर प्रोग्राम के लिए "दृढ़ एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। इसके विपरीत कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।<ref>{{Cite web |title=मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय|url=http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |url-status=dead |archive-url=https://web.archive.org/web/20090925043908/http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |archive-date=25 September 2009 |access-date=8 October 2007}}</ref><ref name="Kurzweil 2005-08-05" /> कुछ शैक्षणिक स्रोत "कममहत्व एआई" का उपयोग किसी भी प्रोग्राम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान स्मरण शक्ति रखते हैं।{{efn|name="Searle's Strong AI"}} संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई और उच्च बुद्धिमत्ता सम्मिलित हैं।<ref name=":2" />
 
संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई,<ref name=":2" />और अधीक्षण।


== विशेषताएं ==
== विशेषताएं ==
{{Main|Artificial intelligence}}
{{Main|कृत्रिम बुद्धिमत्ता}}


बुद्धि के लिए विभिन्न मानदंड प्रस्तावित किए गए हैं (सबसे प्रसिद्ध [[ट्यूरिंग टेस्ट]]) लेकिन व्यापक रूप से कोई परिभाषा स्वीकार नहीं की गई है।{{efn|AI founder [[John McCarthy (computer scientist)|John McCarthy]] writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent."<ref>{{cite web| url=http://www-formal.stanford.edu/jmc/whatisai/node1.html| title=Basic Questions| last=McCarthy| first=John| author-link=John McCarthy (computer scientist)| publisher=[[Stanford University]]| year=2007a| access-date=6 December 2007| archive-url=https://web.archive.org/web/20071026100601/http://www-formal.stanford.edu/jmc/whatisai/node1.html| archive-date=26 October 2007| url-status=live}}</ref> (For a discussion of some definitions of intelligence used by [[artificial intelligence]] researchers, see [[philosophy of artificial intelligence]].)}}
एआई के लिए विभिन्न मानदंड (सबसे प्रसिद्ध [[ट्यूरिंग टेस्ट|ट्यूरिंग परीक्षण]]) प्रस्तावित किए गए हैं लेकिन व्यापक रूप से कोई परिभाषा स्वीकृत नहीं की गई है।{{efn|AI founder [[John McCarthy (computer scientist)|John McCarthy]] writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent."<ref>{{cite web| url=http://www-formal.stanford.edu/jmc/whatisai/node1.html| title=Basic Questions| last=McCarthy| first=John| author-link=John McCarthy (computer scientist)| publisher=[[Stanford University]]| year=2007a| access-date=6 December 2007| archive-url=https://web.archive.org/web/20071026100601/http://www-formal.stanford.edu/jmc/whatisai/node1.html| archive-date=26 October 2007| url-status=live}}</ref> (For a discussion of some definitions of intelligence used by [[artificial intelligence]] researchers, see [[philosophy of artificial intelligence]].)}}


=== बुद्धि लक्षण ===
=== एआई लक्षण ===
हालाँकि, शोधकर्ता आमतौर पर यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:<ref>This list of intelligent traits is based on the topics covered by major AI textbooks, including:
हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:<ref>This list of intelligent traits is based on the topics covered by major AI textbooks, including:
{{Harvnb|Russell|Norvig|2003}},
{{Harvnb|Russell|Norvig|2003}},
{{Harvnb|Luger|Stubblefield|2004}},
{{Harvnb|Luger|Stubblefield|2004}},
{{Harvnb|Poole|Mackworth|Goebel|1998}} and
{{Harvnb|Poole|Mackworth|Goebel|1998}} and
{{Harvnb|Nilsson|1998}}.</ref> * [[स्वचालित तर्क]], रणनीति का उपयोग करें, पहेलियों को हल करें और [[अनिश्चितता]] के तहत निर्णय लें;
{{Harvnb|Nilsson|1998}}.</ref>  
* सामान्य ज्ञान_ज्ञान_(कृत्रिम_बुद्धिमत्ता) सहित ज्ञान प्रतिनिधित्व;
* [[स्वचालित तर्क]], योजनाओ का उपयोग करना, पहेलियों को सुलझाना और [[अनिश्चितता]] के अंतर्गत निर्णय लेना।
* [[स्वचालित योजना और शेड्यूलिंग]];
*सामान्य ज्ञान कृत्रिम बुद्धिमत्ता सहित ज्ञान प्रतिनिधित्व करना।
* [[यंत्र अधिगम]];
* [[स्वचालित योजना और शेड्यूलिंग|स्वचालित योजना]]
* [[प्राकृतिक भाषा प्रसंस्करण]] में संवाद करें;
* [[यंत्र अधिगम]]
और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में [[आर्टिफिशियल इंटेलिजेंस सिस्टम इंटीग्रेशन]] एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं:<ref>Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). {{ISBN|0-262-16239-3}}</ref>
* [[प्राकृतिक भाषा प्रसंस्करण]] में संवाद करना।
* [[मशीन धारणा]] की क्षमता (जैसे [[कंप्यूटर दृष्टि]], सुनना, आदि), और
और यदि आवश्यक हो तो किसी दिए गए लक्ष्य को पूरा करने लिए [[आर्टिफिशियल इंटेलिजेंस सिस्टम इंटीग्रेशन|कृत्रिम बुद्धिमत्ता एकीकरण प्रणाली]] का प्रयोग करना जो अन्य महत्वपूर्ण क्षमताओं में सम्मिलित हैं:<ref>Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). {{ISBN|0-262-16239-3}}</ref>
* कार्य करने की क्षमता (जैसे [[रोबोटिक]]्स, तलाशने के लिए स्थान बदलना आदि)
* [[मशीन धारणा]] की क्षमता (जैसे [[कंप्यूटर दृष्टि]] आदि)
इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है।<ref>{{cite journal | last1 = White | first1 = R. W. | year = 1959 | title = Motivation reconsidered: The concept of competence | journal = Psychological Review | volume = 66 | issue = 5| pages = 297–333 | doi=10.1037/h0040934| pmid = 13844397 }}</ref> कई [[ अंतर्विषयक ]] दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, [[ कंप्यूटर का ज्ञान ]] और निर्णय लेने) अतिरिक्त लक्षणों जैसे कि [[कल्पना]] (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) पर विचार करते हैं।<ref>{{Harvnb|Johnson|1987}}</ref> और आत्मनिर्णय सिद्धांत।<ref>de Charms, R. (1968). Personal causation. New York: Academic Press.</ref>
* कार्य करने की क्षमता (उदाहरण के लिए वस्तुओं को स्थानांतरित करना और परिवर्तित करना, शोध करने के लिए स्थान परिवर्तित करना आदि।)
कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, मौजूद हैं (उदाहरण के लिए [[कम्प्यूटेशनल रचनात्मकता]], स्वचालित तर्क, [[निर्णय समर्थन प्रणाली]], [[रोबोट]], [[विकासवादी संगणना]], [[बुद्धिमान एजेंट]] देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक AI सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।
इसमें जोखिम का पता लगाने और प्रतिक्रिया देने की क्षमता सम्मिलित है।<ref>{{cite journal | last1 = White | first1 = R. W. | year = 1959 | title = Motivation reconsidered: The concept of competence | journal = Psychological Review | volume = 66 | issue = 5| pages = 297–333 | doi=10.1037/h0040934| pmid = 13844397 }}</ref> कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल बुद्धिमत्ता और निर्णय लेने) काल्पनिक उपन्यास, मानसिक छवियों या अवधारणाओं को बनाने की क्षमता और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।<ref>{{Harvnb|Johnson|1987}}</ref><ref>de Charms, R. (1968). Personal causation. New York: Academic Press.</ref>
 
कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं उदाहरण के लिए [[कम्प्यूटेशनल रचनात्मकता]], स्वचालित तर्क, [[निर्णय समर्थन प्रणाली]], [[रोबोट]], [[विकासवादी संगणना]], [[बुद्धिमान एजेंट|बुद्धिमत्ता घटक]] आदि सम्मिलित हैं। हालाँकि इस विषय पर कोई सहमति नहीं है कि आधुनिक एआई प्रणाली उन्हें पर्याप्त मात्रा में सुरक्षित रखते हैं।


=== गणितीय औपचारिकताएँ ===
=== गणितीय औपचारिकताएँ ===
AGI का एक गणितीय सटीक विनिर्देश 2000 में [[मार्कस हटर]] द्वारा प्रस्तावित किया गया था। [[AIXI]] नामित, प्रस्तावित AGI एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है।<ref>{{cite book |last=Hutter |first=Marcus |date=2005 |title=Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability |series=Texts in Theoretical Computer Science an EATCS Series |url=https://link.springer.com/book/10.1007/b138233 |publisher=Springer |doi=10.1007/b138233 |isbn=978-3-540-26877-2 |access-date=19 July 2022 |archive-date=19 July 2022 |archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/book/10.1007/b138233 |url-status=live }}</ref> इस प्रकार का AGI, मानव-समान व्यवहार प्रदर्शित करने के बजाय बुद्धिमत्ता की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है,<ref>{{cite thesis |last=Legg |first=Shane |date=2008 |title=मशीन सुपर इंटेलिजेंस|publisher=University of Lugano |url=http://www.vetta.org/documents/Machine_Super_Intelligence.pdf |access-date=19 July 2022 |archive-date=15 June 2022 |archive-url=https://web.archive.org/web/20220615160113/https://www.vetta.org/documents/Machine_Super_Intelligence.pdf |url-status=live }}</ref> इसे यूनिवर्सल आर्टिफिशियल इंटेलिजेंस भी कहा जाता है।<ref>{{cite journal|journal=Journal of Artificial General Intelligence|last=Goertzel|first=Ben|title=Artificial General Intelligence: Concept, State of the Art, and Future Prospects|series=Lecture Notes in Computer Science |date=2014|volume=8598 |doi=10.1007/978-3-319-09274-4 |isbn=978-3-319-09273-7 |s2cid=8387410 |url=https://www.researchgate.net/publication/271390398}}</ref> 2015 में [[जन लीक]] और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता<ref>{{Cite web |last1=Everitt |first1=Tom |last2=Lea |first2=Gary |last3=Hutter |first3=Marcus |title=एजीआई सेफ्टी लिटरेचर रिव्यू|url=https://www.ijcai.org/proceedings/2018/0768.pdf |access-date=April 26, 2023 |website=International Joint Conferences on Artificial Intelligence Organization}}</ref> - एक निश्चित [[यूनिवर्सल ट्यूरिंग मशीन]] यूनिवर्सल ट्यूरिंग मशीन | (UTM) के संबंध में मापा जाता है। AIXI सबसे बुद्धिमान नीति है यदि यह उसी UTM का उपयोग करती है, जिसके परिणामस्वरूप AIXI के लिए सभी मौजूदा अनुकूलता गुण कम हो जाते हैं।<ref>{{cite conference | conference=The 28th Conference on Learning Theory | last1=Leike | first1=Jan | last2=Hutter | first2=Marcus | title=बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी| date=2015 | eprint=1510.04931 | url=https://proceedings.mlr.press/v40/Leike15.html | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020503/https://proceedings.mlr.press/v40/Leike15.html | url-status=live }}</ref> यह समस्या AIXI द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन–शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।<ref name=”mtb1”>{{cite arXiv |last=Bennett |first=Michael Timothy |date=2022 |title=कंप्यूटेबल आर्टिफिशियल जनरल इंटेलिजेंस|class=cs.AI |eprint=2205.10513}</ref> कुछ [[सक्रियतावाद]] को अधिक विश्वसनीय पाते हैं—यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है। रेफरी>{{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }</ref> इसके बाद, [[माइकल टिमोथी बेनेट]] ने सक्रिय अनुभूति को औपचारिक रूप दिया और बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की जिसे कमजोरी कहा जाता है। कार्यों की एक विस्तृत श्रृंखला को पूरा करने की इष्टतम क्षमता <रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी>{{cite arXiv |last=Chollet |first=Francois |date=2019 |title=बुद्धि के माप पर|class=cs.AI |eprint=1911.01547}}</ref> (इस प्रकार दोनों में से किसी भी परिभाषा के द्वारा बुद्धिमत्ता को अधिकतम करना)। यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए ([[हटर पुरस्कार]] भी देखें)।
एजीआई का एक गणितीय शुद्ध विनिर्देश 2000 में [[मार्कस हटर]] द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित प्रस्तावित एजीआई घटक "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता को अधिकतम करता है।<ref>{{cite book |last=Hutter |first=Marcus |date=2005 |title=Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability |series=Texts in Theoretical Computer Science an EATCS Series |url=https://link.springer.com/book/10.1007/b138233 |publisher=Springer |doi=10.1007/b138233 |isbn=978-3-540-26877-2 |access-date=19 July 2022 |archive-date=19 July 2022 |archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/book/10.1007/b138233 |url-status=live }}</ref> इस प्रकार के एजीआई मानव-समान व्यवहार को प्रदर्शित करने के अतिरिक्त बुद्धिमत्ता की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता को सार्वभौमिक कृत्रिम बुद्धिमत्ता भी कहा जाता है।<ref>{{cite journal|journal=Journal of Artificial General Intelligence|last=Goertzel|first=Ben|title=Artificial General Intelligence: Concept, State of the Art, and Future Prospects|series=Lecture Notes in Computer Science |date=2014|volume=8598 |doi=10.1007/978-3-319-09274-4 |isbn=978-3-319-09273-7 |s2cid=8387410 |url=https://www.researchgate.net/publication/271390398}}</ref><ref>{{cite thesis |last=Legg |first=Shane |date=2008 |title=मशीन सुपर इंटेलिजेंस|publisher=University of Lugano |url=http://www.vetta.org/documents/Machine_Super_Intelligence.pdf |access-date=19 July 2022 |archive-date=15 June 2022 |archive-url=https://web.archive.org/web/20220615160113/https://www.vetta.org/documents/Machine_Super_Intelligence.pdf |url-status=live }}</ref>


इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा, रेफरी>{{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }</ref> उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है,<ref name="mtb2">{{cite conference | conference=14th Conference on Artificial General Intelligence | last=Bennett | first=Michael Timothy | title=प्रतीक उद्भव और किसी भी कार्य का समाधान| date=2021 | doi=10.1007/978-3-030-93758-4_4 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | arxiv=2109.01281 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052018/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | url-status=live }}</ref> या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है। रेफरी>{{cite conference | conference=14th Conference on Artificial General Intelligence | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | title=कृत्रिम वैज्ञानिक| date=2021 | doi=10.1007/978-3-030-93758-4_6 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | arxiv=2110.01831 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | url-status=live }}</ref>
2015 में जनलीक और मार्कस हटर ने दिखाया कि लेग-हटर बुद्धिमत्ता वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक घटक की क्षमता एक निश्चित [[यूनिवर्सल ट्यूरिंग मशीन]] (यूटीएम) के संबंध में मापा जाता है।<ref>{{Cite web |last1=Everitt |first1=Tom |last2=Lea |first2=Gary |last3=Hutter |first3=Marcus |title=एजीआई सेफ्टी लिटरेचर रिव्यू|url=https://www.ijcai.org/proceedings/2018/0768.pdf |access-date=April 26, 2023 |website=International Joint Conferences on Artificial Intelligence Organization}}</ref> एआईएक्सआई सबसे बुद्धिमत्ता नीति है यदि यह उसी यूटीएम का उपयोग करती है जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलित इष्टतमता गुणों को कम करता है।"<ref>{{cite conference | conference=The 28th Conference on Learning Theory | last1=Leike | first1=Jan | last2=Hutter | first2=Marcus | title=बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी| date=2015 | eprint=1510.04931 | url=https://proceedings.mlr.press/v40/Leike15.html | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020503/https://proceedings.mlr.press/v40/Leike15.html | url-status=live }}</ref> यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है। जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलग होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह भौतिक द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।<ref name="”mtb1”"><nowiki>{{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }</nowiki></ref> कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं यह धारणा अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है।<ref name="”mtb1”" /> इसके बाद माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान के साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता या समकक्ष सामान्यीकरण करने की क्षमता होती है।<ref><nowiki><ref> = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी></nowiki>{{cite arXiv |last=Chollet |first=Francois |date=2019 |title=बुद्धि के माप पर|class=cs.AI |eprint=1911.01547}}<nowiki></ref></nowiki></ref> इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना, यदि सक्रियतावाद धारण है। भौतिक द्वैतवाद नहीं है तो बुद्धिमत्ता के लिए सम्पीडन आवश्यक या पर्याप्त नहीं होता है बुद्धिमत्ता पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें) इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है। जैसे कि प्राकृतिक भाषा का उपयोग कई कारकों पर निर्भर करता है।<ref><nowiki>{{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=</nowiki>https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }</ref> उदाहरण के लिए जिस तरीके से घटक सन्निहित है<ref name="mtb2">{{cite conference | conference=14th Conference on Artificial General Intelligence | last=Bennett | first=Michael Timothy | title=प्रतीक उद्भव और किसी भी कार्य का समाधान| date=2021 | doi=10.1007/978-3-030-93758-4_4 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | arxiv=2109.01281 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052018/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | url-status=live }}</ref> या इसका कोई पुरस्कृत कार्य है जो भूख, दर्द और इसी प्रकार की अनुभूति के मानवीय मनुष्यों के निकट है।<ref>{{cite conference | conference=14th Conference on Artificial General Intelligence | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | title=कृत्रिम वैज्ञानिक| date=2021 | doi=10.1007/978-3-030-93758-4_6 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | arxiv=2110.01831 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | url-status=live }}</ref>


=== मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण{{anchor|Tests_for_confirming_human-level_AGI}}===
=== मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण{{anchor|Tests_for_confirming_human-level_AGI}}===
मानव-स्तरीय AGI की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:<ref>{{cite web|last=Muehlhauser|first=Luke|title=What is AGI?|url=http://intelligence.org/2013/08/11/what-is-agi/|publisher=Machine Intelligence Research Institute|access-date=1 May 2014|date=11 August 2013|archive-url=https://web.archive.org/web/20140425115445/http://intelligence.org/2013/08/11/what-is-agi/|archive-date=25 April 2014|url-status=live}}</ref><ref>{{Cite web|url=https://www.talkyblog.com/artificial_general_intelligence_agi/|title=What is Artificial General Intelligence (AGI)? {{!}} 4 Tests For Ensuring Artificial General Intelligence|date=13 July 2019|website=Talky Blog|language=en-US|access-date=17 July 2019|archive-url=https://web.archive.org/web/20190717071152/https://www.talkyblog.com/artificial_general_intelligence_agi/|archive-date=17 July 2019|url-status=live}}</ref>
मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है। जिनमें निम्नलिखित सम्मिलित हैं।<ref>{{cite web|last=Muehlhauser|first=Luke|title=What is AGI?|url=http://intelligence.org/2013/08/11/what-is-agi/|publisher=Machine Intelligence Research Institute|access-date=1 May 2014|date=11 August 2013|archive-url=https://web.archive.org/web/20140425115445/http://intelligence.org/2013/08/11/what-is-agi/|archive-date=25 April 2014|url-status=live}}</ref><ref>{{Cite web|url=https://www.talkyblog.com/artificial_general_intelligence_agi/|title=What is Artificial General Intelligence (AGI)? {{!}} 4 Tests For Ensuring Artificial General Intelligence|date=13 July 2019|website=Talky Blog|language=en-US|access-date=17 July 2019|archive-url=https://web.archive.org/web/20190717071152/https://www.talkyblog.com/artificial_general_intelligence_agi/|archive-date=17 July 2019|url-status=live}}</ref>  
ट्यूरिंग टेस्ट (एलन ट्यूरिंग)
 
: एक मशीन और एक मानव दोनों एक दूसरे मानव के साथ अदृश्य बातचीत करते हैं, जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है, जो परीक्षण पास करती है यदि यह मूल्यांकनकर्ता को समय के एक महत्वपूर्ण अंश को मूर्ख बना सकती है। नोट: ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धि के रूप में क्या योग्यता होनी चाहिए, केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करना चाहिए।
'''ट्यूरिंग परीक्षण (ट्यूरिंग)'''
द कॉफी टेस्ट (स्टीव वोज्नियाक)
: मशीन और मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है जो परीक्षण को स्वीकृत करती है यदि यह मूल्यांकन कर्ता को समय के एक महत्वपूर्ण भाग को मूर्ख बना सकती है। तब ध्यान दे कि ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धिमत्ता के रूप में क्या योग्यता होनी चाहिए और केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करने की आवश्यकता होती है।
: एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने के तरीके का पता लगाने के लिए एक मशीन की आवश्यकता होती है: कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, मग ढूंढें और उचित बटन दबाकर कॉफी बनाएं।
'''कॉफ़ी परीक्षण (वोज्नियाक)'''
रोबोट कॉलेज स्टूडेंट टेस्ट (बेन गोएर्टज़ेल)
: एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है। कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उपयुक्त बटन दबाकर कॉफी बनाएं।
: एक मशीन एक विश्वविद्यालय में दाखिला लेती है, वही कक्षाएं लेती और उत्तीर्ण करती है जो मनुष्य करते हैं, और एक डिग्री प्राप्त करते हैं।
'''रोबोट कॉलेज स्टूडेंट परीक्षण (गोएर्टज़ेल)'''
द एंप्लॉयमेंट टेस्ट (निल्स जॉन निल्सन)
: मशीन एक विश्वविद्यालय में पंजीकृत होती है वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।
: एक मशीन कम से कम एक ही काम में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण काम करती है।
'''रोजगार परीक्षा (निल्स जॉन निल्सन)'''
: मशीन कम से कम एक ही कार्य में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण कार्य करती है।


=== एआई-पूर्ण समस्याएं ===
=== एआई-पूर्ण समस्याएं ===
{{Main|AI-complete}}
{{Main|एआई-पूर्णता}}


ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सीधे कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं में पढ़ और लिख सके (#प्राकृतिक भाषा प्रसंस्करण), लेखक के तर्क का पालन करें (#डिडक्शन, तर्क, समस्या समाधान), जानें कि किस बारे में बात की जा रही है ( #ज्ञान प्रतिनिधित्व), और ईमानदारी से लेखक के मूल मंशा (#सामाजिक बुद्धि) को पुन: उत्पन्न करता है। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का अनुसरण करें और जानें कि किस विषय में बात की जा रही है और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि) मानव-स्तरीय मशीन प्रदर्शन तक अभिगमन के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता होती है।


एक समस्या को अनौपचारिक रूप से एआई-पूर्ण या एआई-हार्ड कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिदम की क्षमताओं से परे है।<ref name="Shapiro92">{{cite book |last=Shapiro |first=Stuart C. |year=1992 |chapter-url=http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |url-status=live |archive-url=https://web.archive.org/web/20160201014644/http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |archive-date=1 February 2016 |chapter=Artificial Intelligence |editor=Stuart C. Shapiro |title=आर्टिफिशियल इंटेलिजेंस का विश्वकोश|edition=Second |pages=54–57 |location=New York |publisher=John Wiley}} (Section 4 is on "AI-Complete Tasks".)</ref>
एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए दृढ़ एआई को प्रयुक्त करने की आवश्यकता होती है क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।<ref name="Shapiro92">{{cite book |last=Shapiro |first=Stuart C. |year=1992 |chapter-url=http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |url-status=live |archive-url=https://web.archive.org/web/20160201014644/http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |archive-date=1 February 2016 |chapter=Artificial Intelligence |editor=Stuart C. Shapiro |title=आर्टिफिशियल इंटेलिजेंस का विश्वकोश|edition=Second |pages=54–57 |location=New York |publisher=John Wiley}} (Section 4 is on "AI-Complete Tasks".)</ref> एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से बचने के लिए की जाती है।<ref>{{cite journal |first=Roman V. |last=Yampolskiy |title=एआई-पूर्णता की परिभाषित विशेषता के रूप में ट्यूरिंग टेस्ट|journal=Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) |editor=Xin-She Yang |pages=3–17 |year=2012 |url=http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf |archive-url=https://web.archive.org/web/20130522094547/http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf |archive-date=22 May 2013 |url-status=live}}</ref>
एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक-भाषा की समझ और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से निपटने के लिए की जाती है।<ref>{{cite journal |first=Roman V. |last=Yampolskiy |title=एआई-पूर्णता की परिभाषित विशेषता के रूप में ट्यूरिंग टेस्ट|journal=Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) |editor=Xin-She Yang |pages=3–17 |year=2012 |url=http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf |archive-url=https://web.archive.org/web/20130522094547/http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf |archive-date=22 May 2013 |url-status=live}}</ref>
एआई-पूर्ण समस्याओं को करंट से हल नहीं किया जा सकता है{{Current event inline|date=April 2023}} अकेले कंप्यूटर प्रौद्योगिकी, और मानव संगणना की आवश्यकता है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है, जैसा कि [[ कॅप्चा ]] का लक्ष्य है; और [[कंप्यूटर सुरक्षा]] के लिए ब्रूट-फोर्स हमलों को पीछे हटाना।<ref>Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. [http://www.captcha.net/captcha_crypt.pdf CAPTCHA: Using Hard AI Problems for Security] {{Webarchive|url=https://web.archive.org/web/20160304001102/http://www.captcha.net/captcha_crypt.pdf |date=4 March 2016 }}. In ''Proceedings of Eurocrypt'', Vol.&nbsp;2656 (2003), pp.&nbsp;294–311.</ref><ref>{{cite journal | first = Richard | last = Bergmair | title = प्राकृतिक भाषा स्टेग्नोग्राफ़ी और एक "एआई-पूर्ण" सुरक्षा आदिम| citeseerx = 10.1.1.105.129 | date = 7 January 2006 |journal=CiteSeer}}</ref>


एआई-पूर्ण समस्याओं को केवल वर्तमान{{Current event inline|date=April 2023}} कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है जैसा कि कैप्चा का उद्देश्य है और [[कंप्यूटर सुरक्षा]] के लिए क्रूर-बल के अटैक को पीछे हटाना है।<ref>Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. [http://www.captcha.net/captcha_crypt.pdf CAPTCHA: Using Hard AI Problems for Security] {{Webarchive|url=https://web.archive.org/web/20160304001102/http://www.captcha.net/captcha_crypt.pdf |date=4 March 2016 }}. In ''Proceedings of Eurocrypt'', Vol.&nbsp;2656 (2003), pp.&nbsp;294–311.</ref><ref>{{cite journal | first = Richard | last = Bergmair | title = प्राकृतिक भाषा स्टेग्नोग्राफ़ी और एक "एआई-पूर्ण" सुरक्षा आदिम| citeseerx = 10.1.1.105.129 | date = 7 January 2006 |journal=CiteSeer}}</ref>
== इतिहास ==


== इतिहास ==
=== प्राचीन एआई ===
{{Main|कृत्रिम बुद्धि का इतिहास|प्रतीकात्मक कृत्रिम बुद्धि}}


=== शास्त्रीय एआई ===
आधुनिक एआई शोध 1950 के दशक के मध्य में प्रारम्भ हुई।<ref>{{Harvnb|Crevier|1993|pp=48–50}}</ref> एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी। जिसमे कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी।<ref>{{Cite web |url=https://www.routledge.com/Artificial-Intelligence-Business-and-Civilization-Our-Fate-Made-in-Machines/Kaplan/p/book/9781032155319 |title=Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines |access-date=12 March 2022 |archive-date=6 May 2022 |archive-url=https://web.archive.org/web/20220506103920/https://www.routledge.com/Artificial-Intelligence-Business-and-Civilization-Our-Fate-Made-in-Machines/Kaplan/p/book/9781032155319 |url-status=live }}</ref> एआई के निर्माता हर्बर्ट ए. साइमन ने 1965 में लिखा था कि "मशीनें बीस साल के भीतर कोई भी कार्य करने में सक्षम हो जाएंगी जो एक मनुष्य कर सकता है।<ref>{{Harvnb|Simon|1965|p=96}} quoted in {{Harvnb|Crevier|1993|p=109}}</ref>
{{Main|History of artificial intelligence|Symbolic artificial intelligence}}
आधुनिक एआई अनुसंधान 1950 के दशक के मध्य में शुरू हुआ।<ref>{{Harvnb|Crevier|1993|pp=48–50}}</ref> एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी कि कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी।<ref>{{Cite web |url=https://www.routledge.com/Artificial-Intelligence-Business-and-Civilization-Our-Fate-Made-in-Machines/Kaplan/p/book/9781032155319 |title=Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines |access-date=12 March 2022 |archive-date=6 May 2022 |archive-url=https://web.archive.org/web/20220506103920/https://www.routledge.com/Artificial-Intelligence-Business-and-Civilization-Our-Fate-Made-in-Machines/Kaplan/p/book/9781032155319 |url-status=live }}</ref> एआई के अग्रदूत हर्बर्ट ए. साइमन ने 1965 में लिखा था: मशीनें बीस साल के भीतर कोई भी काम करने में सक्षम होंगी जो एक आदमी कर सकता है।<ref>{{Harvnb|Simon|1965|p=96}} quoted in {{Harvnb|Crevier|1993|p=109}}</ref>
उनकी भविष्यवाणियां [[स्टैनले क्यूब्रिक]] और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं, जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी [[मार्विन मिंस्की]] एक सलाहकार थे<ref>{{Cite web |url=http://mitpress.mit.edu/e-books/Hal/chap2/two1.html |title=Scientist on the Set: An Interview with Marvin Minsky |access-date=5 April 2008 |archive-url=https://web.archive.org/web/20120716182537/http://mitpress.mit.edu/e-books/Hal/chap2/two1.html |archive-date=16 July 2012 |url-status=live }}</ref> उस समय की सर्वसम्मति की भविष्यवाणियों के अनुसार एचएएल 9000 को यथासंभव यथार्थवादी बनाने की परियोजना पर। उन्होंने 1967 में कहा था, एक पीढ़ी के भीतर... 'आर्टिफिशियल इंटेलिजेंस' बनाने की समस्या काफी हद तक हल हो जाएगी।<ref>Marvin Minsky to {{Harvtxt|Darrach|1970}}, quoted in {{Harvtxt|Crevier|1993|p=109}}.</ref>
[[डौग लेनट]] की सीईसी परियोजना (जो 1984 में शुरू हुई), और [[एलन नेवेल]] की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई [[प्रतीकात्मक एआई]], एजीआई में निर्देशित किए गए थे।


हालाँकि, 1970 के दशक की शुरुआत में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी एप्लाइड एआई का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।{{efn|The [[Lighthill report]] specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.<ref>{{Harvnb|Lighthill|1973}}; {{Harvnb|Howe|1994}}</ref> In the U.S., [[DARPA]] became determined to fund only "mission-oriented direct research, rather than basic undirected research".{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=115–117}}; {{Harvnb|Russell|Norvig|2003|pp=21–22}}.</ref>}} 1980 के दशक की शुरुआत में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, एक दस साल की समयरेखा निर्धारित की जिसमें एजीआई लक्ष्यों को शामिल किया गया जैसे एक आकस्मिक बातचीत जारी रखना।<ref>{{harvnb|Crevier|1993|p=211}}, {{harvnb|Russell|Norvig|2003|p=24}} and see also {{Harvnb|Feigenbaum|McCorduck|1983}}</ref> इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=161–162,197–203,240}}; {{harvnb|Russell|Norvig|2003|p=25}}.</ref> हालाँकि, 1980 के दशक के अंत में AI में विश्वास शानदार ढंग से गिर गया, और पाँचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए।<ref>{{Harvnb|Crevier|1993|pp=209–212}}</ref> 20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की भविष्यवाणी करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने से बिल्कुल भी हिचकने लगे{{efn|As AI founder [[John McCarthy (computer scientist)|John McCarthy]] writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."<ref>{{cite web |title=Reply to Lighthill |last=McCarthy |first=John |author-link=John McCarthy (computer scientist) |publisher=Stanford University |year=2000 |url=http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |access-date=29 September 2007 |archive-url=https://web.archive.org/web/20080930164952/http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |archive-date=30 September 2008 |url-status=live}}</ref>}} और जंगली आंखों वाले सपने देखने वाले [एस] के रूप में लेबल किए जाने के डर से मानव स्तर की कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।<ref>{{cite news |quote=इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।|first=John |last=Markoff |date=14 October 2005 |title=आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन|work=The New York Times |url=https://www.nytimes.com/2005/10/14/technology/14artificial.html?ei=5070&en=11ab55edb7cead5e&ex=1185940800&adxnnl=1&adxnnlx=1185805173-o7WsfW7qaP0x5%2FNUs1cQCQ |access-date=18 February 2017 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181023/https://www.nytimes.com/2005/10/14/technology/behind-artificial-intelligence-a-squadron-of-bright-real-people.html |url-status=live }}</ref>
उनका पूर्वानुमान [[स्टैनले क्यूब्रिक]] और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं। जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी [[मार्विन मिंस्की]] एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे।<ref>{{Cite web |url=http://mitpress.mit.edu/e-books/Hal/chap2/two1.html |title=Scientist on the Set: An Interview with Marvin Minsky |access-date=5 April 2008 |archive-url=https://web.archive.org/web/20120716182537/http://mitpress.mit.edu/e-books/Hal/chap2/two1.html |archive-date=16 July 2012 |url-status=live }}</ref> संभव के रूप में समय की सामान्य सहमति और पूर्वानुमान के अनुसार उन्होंने 1967 में कहा कि "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या अपेक्षाकृत रूप तक हल हो सकती है।"<ref>Marvin Minsky to {{Harvtxt|Darrach|1970}}, quoted in {{Harvtxt|Crevier|1993|p=109}}.</ref>


[[डौग लेनट]] की सीईसी परियोजना (जो 1984 में प्रारम्भ हुई) और [[एलन नेवेल]] की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई [[प्रतीकात्मक एआई]], एजीआई में निर्देशित किए गए थे।


हालाँकि, 1970 के दशक की प्रारम्भ में यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। वित्तीय संस्थाओ को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।{{efn|The [[Lighthill report]] specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.<ref>{{Harvnb|Lighthill|1973}}; {{Harvnb|Howe|1994}}</ref> In the U.S., [[DARPA]] became determined to fund only "mission-oriented direct research, rather than basic undirected research".{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=115–117}}; {{Harvnb|Russell|Norvig|2003|pp=21–22}}.</ref>}} 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर परियोजना ने एजीआई में रुचि को पुनर्जीवित किया था। जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य सम्मिलित थे जैसे "आकस्मिक बातचीत प्रारम्भ रखें"।<ref>{{harvnb|Crevier|1993|p=211}}, {{harvnb|Russell|Norvig|2003|p=24}} and see also {{Harvnb|Feigenbaum|McCorduck|1983}}</ref> इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=161–162,197–203,240}}; {{harvnb|Russell|Norvig|2003|p=25}}.</ref> हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार रूप से गिर गया और पांचवीं पीढ़ी के कंप्यूटर परियोजना के लक्ष्य कभी पूरे नहीं हुए।<ref>{{Harvnb|Crevier|1993|pp=209–212}}</ref>20 वर्षों में दूसरी बार एजीआई की आसन्न उपलब्धि का पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक एआई शोधकर्ताओं के पास अपेक्षाकृत व्यर्थ दायित्व करने की प्रतिष्ठा थी। वे पूर्वानुमान करने के लिए अनिच्छुक हो गए{{efn|As AI founder [[John McCarthy (computer scientist)|John McCarthy]] writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."<ref>{{cite web |title=Reply to Lighthill |last=McCarthy |first=John |author-link=John McCarthy (computer scientist) |publisher=Stanford University |year=2000 |url=http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |access-date=29 September 2007 |archive-url=https://web.archive.org/web/20080930164952/http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |archive-date=30 September 2008 |url-status=live}}</ref>}} और "जंगली आंखों वाले सपने देखने वाले" वर्गीकृत किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धिमत्ता का उल्लेख करने से मना कर दिया था।<ref>{{cite news |quote=इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।|first=John |last=Markoff |date=14 October 2005 |title=आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन|work=The New York Times |url=https://www.nytimes.com/2005/10/14/technology/14artificial.html?ei=5070&en=11ab55edb7cead5e&ex=1185940800&adxnnl=1&adxnnlx=1185805173-o7WsfW7qaP0x5%2FNUs1cQCQ |access-date=18 February 2017 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181023/https://www.nytimes.com/2005/10/14/technology/behind-artificial-intelligence-a-squadron-of-bright-real-people.html |url-status=live }}</ref>
=== संकीर्ण एआई अनुसंधान ===
=== संकीर्ण एआई अनुसंधान ===
{{Main|Artificial intelligence}}
{{Main|कृत्रिम बुद्धिमत्ता}}


1990 के दशक और 21वीं सदी की शुरुआत में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग उत्पन्न कर सकता है, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन लर्निंग।<ref>{{Harvnb|Russell|Norvig|2003|pp=25–26}}</ref> ये अनुप्रयुक्त एआई प्रणालियां अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग की जाती हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। {{As of|2018}} इस क्षेत्र में विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी।<ref>{{cite web |title=इमर्जिंग टेक हाइप साइकिल में रुझान|url=https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |publisher=Gartner Reports |access-date=7 May 2019 |archive-url=https://web.archive.org/web/20190522024829/https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |archive-date=22 May 2019 |url-status=live }}</ref>
1990 के दशक और 21वीं सदी की प्रारम्भ में मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और शैक्षणिक सम्मान प्राप्त किया था जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकते है।<ref>{{Harvnb|Russell|Norvig|2003|pp=25–26}}</ref> ये "प्रयुक्त एआई" प्रणाली अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं और इस अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक विकसित प्रवृत्ति माना गया था और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद है।<ref>{{cite web |title=इमर्जिंग टेक हाइप साइकिल में रुझान|url=https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |publisher=Gartner Reports |access-date=7 May 2019 |archive-url=https://web.archive.org/web/20190522024829/https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |archive-date=22 May 2019 |url-status=live }}</ref>
अधिकांश मुख्यधारा एआई शोधकर्ता<ref name=":4" />उम्मीद है कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। [[हंस मोरवेस]] ने 1988 में लिखा था: <blockquote>मुझे विश्वास है कि आर्टिफिशियल इंटेलिजेंस का यह बॉटम-अप रूट एक दिन आधे से अधिक पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमनसेंस_नॉलेज_(आर्टिफिशियल_इंटेलिजेंस) प्रदान करने के लिए तैयार है। तर्क कार्यक्रमों में बहुत निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करने वाले रूपक सुनहरे स्पाइक को चलाया जाएगा।<ref name=":4">{{Harvnb|Moravec|1988|p=20}}</ref></ब्लॉककोट>


हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन यूनिवर्सिटी के स्टीवन हरनाड ने [[प्रतीक ग्राउंडिंग समस्या]] पर अपना 1990 का पेपर यह कहते हुए समाप्त किया: <ब्लॉककोट>उम्मीद अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए टॉप-डाउन (प्रतीकात्मक) दृष्टिकोण किसी तरह बॉटम-अप (संवेदी) दृष्टिकोण को पूरा करेगा। दोनों के बीच में कहीं। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक पहुंचने का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां पहुंचने से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)।<ref>{{cite journal | last1 = Harnad | first1 = S | year = 1990 | title = सिंबल ग्राउंडिंग प्रॉब्लम| journal = Physica D | volume = 42 | issue = 1–3| pages = 335–346 | doi=10.1016/0167-2789(90)90087-6| bibcode = 1990PhyD...42..335H | arxiv = cs/9906002| s2cid = 3204300 }}</ref></ब्लॉककोट>
अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले प्रोग्रामों को मिलाकर दृढ़ एआई को विकसित किया जा सकता है।<ref name=":4">{{Harvnb|Moravec|1988|p=20}}</ref> [[हंस मोरवेस]] ने 1988 में लिखा था कि मुझे विश्वास है कृत्रिम बुद्धिमत्ता के लिए यह बॉटम अप मार्ग एक दिन पारंपरिक टॉप-डाउन मार्ग को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और सामान्य ज्ञान प्रदान करने के लिए तैयार है जो तर्कबुद्धिमत्ता प्रोग्राम में निराशाजनक रूप से महत्वपूर्ण रहा है। पूरी तरह से बुद्धिमत्ता मशीनों का परिणाम तब होगा जब दो प्रयासों को एकत्र करते हुए रूपक बहुमुल्य स्पंदन को चलाया जाएगा।<ref name=":4" /> हालाँकि यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सांकेतिक स्तरीय परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा प्रायः व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "ऊपरी भाग" (प्रतीकात्मक) दृष्टिकोण किसी प्रकर के "निम्न ऊपरी" (संवेदी) दृष्टिकोण को कहीं बीच में प्राप्त हो सकते है यदि इस पत्र में ग्स्तरीय विचार मान्य हैं तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है नीचे से ऊपर एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं अभिगम्य किया जा सकता है और न ही यह स्पष्ट है कि हमें इस प्रकार के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से अलग करने की राशि अर्थात जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करने की आवश्यकता है।<ref>{{cite journal | last1 = Harnad | first1 = S | year = 1990 | title = सिंबल ग्राउंडिंग प्रॉब्लम| journal = Physica D | volume = 42 | issue = 1–3| pages = 335–346 | doi=10.1016/0167-2789(90)90087-6| bibcode = 1990PhyD...42..335H | arxiv = cs/9906002| s2cid = 3204300 }}</ref>
=== आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान ===
शब्द "कृत्रिम सामान्य बुद्धिमत्ता" का उपयोग 1997 के प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था।<ref>{{Harvnb|Gubrud|1997}}</ref> पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में 2002 के आसपास [[शेन लेग]] और [[बेन गोएर्टज़ेल]] द्वारा इस शब्द को फिर से प्रस्तुत किया गया और इसे लोकप्रिय बनाया गया था।<ref>{{Cite web|url=http://goertzel.org/who-coined-the-term-agi/|title=Who coined the term "AGI"? » goertzel.org|language=en-US|access-date=28 December 2018|archive-url=https://web.archive.org/web/20181228083048/http://goertzel.org/who-coined-the-term-agi/|archive-date=28 December 2018|url-status=live}}, via [[Life 3.0]]: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'</ref> 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था।<ref>{{cite web |title=First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009 |url=https://goertzel.org/AGI_Summer_School_2009.htm |access-date=11 May 2020 |archive-date=28 September 2020 |archive-url=https://web.archive.org/web/20200928173146/https://www.goertzel.org/AGI_Summer_School_2009.htm |url-status=live }}</ref> "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में एजीआई में पहला समर स्कूल ज़ियामेन चीन में 2009 में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010<ref>{{cite web |title=Избираеми дисциплини 2009/2010 - пролетен триместър |language=bg |trans-title=Elective courses 2009/2010 - spring trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726103659/http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |url-status=live }}</ref> और 2011<ref>{{cite web |title=Избираеми дисциплини 2010/2011 - зимен триместър |language=bg |trans-title=Elective courses 2010/2011 - winter trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726094625/http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |url-status=live }}</ref> में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। एमआईटी ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया था। जिसे [[लेक्स फ्रिडमैन]] द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता सम्मिलित थे।


=== आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान ===
2023 तक अधिकांश एआई शोधकर्ता एजीआई पर अपेक्षाकृत ध्यान देते हैं कुछ विशेषज्ञों का अनुमान है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए गुप्त सूचना बहुत जटिल है। हालांकि कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं और कई [[आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन|कृत्रिम सामान्य बुद्धिमत्ता पर]] सम्मेलनों की एक श्रृंखला में योगदान करते हैं।
आर्टिफिशियल जनरल इंटेलिजेंस शब्द का इस्तेमाल 1997 की शुरुआत में मार्क गुबरुद द्वारा किया गया था<ref>{{Harvnb|Gubrud|1997}}</ref> पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के प्रभावों की चर्चा में। 2002 के आसपास [[शेन लेग]] और [[बेन गोएर्टज़ेल]] द्वारा इस शब्द को फिर से पेश किया गया और लोकप्रिय बनाया गया।<ref>{{Cite web|url=http://goertzel.org/who-coined-the-term-agi/|title=Who coined the term "AGI"? » goertzel.org|language=en-US|access-date=28 December 2018|archive-url=https://web.archive.org/web/20181228083048/http://goertzel.org/who-coined-the-term-agi/|archive-date=28 December 2018|url-status=live}}, via [[Life 3.0]]: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'</ref> 2006 में AGI अनुसंधान गतिविधि का वर्णन पेई वांग और बेन गोएर्टज़ेल द्वारा किया गया था<ref>{{harvnb|Wang|Goertzel|2007}}</ref> उत्पादन प्रकाशन और प्रारंभिक परिणाम के रूप में। एजीआई में पहला ग्रीष्मकालीन स्कूल 2009 में ज़ियामेन, चीन में आयोजित किया गया था<ref>{{cite web |title=First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009 |url=https://goertzel.org/AGI_Summer_School_2009.htm |access-date=11 May 2020 |archive-date=28 September 2020 |archive-url=https://web.archive.org/web/20200928173146/https://www.goertzel.org/AGI_Summer_School_2009.htm |url-status=live }}</ref> ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा। पहला विश्वविद्यालय पाठ्यक्रम 2010 में दिया गया था<ref>{{cite web |title=Избираеми дисциплини 2009/2010 - пролетен триместър |language=bg |trans-title=Elective courses 2009/2010 - spring trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726103659/http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |url-status=live }}</ref> और 2011<ref>{{cite web |title=Избираеми дисциплини 2010/2011 - зимен триместър |language=bg |trans-title=Elective courses 2010/2011 - winter trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726094625/http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |url-status=live }}</ref> टोडोर अरनॉडोव द्वारा प्लोवदीव विश्वविद्यालय, बुल्गारिया में। MIT ने 2018 में AGI में एक पाठ्यक्रम प्रस्तुत किया, जिसे [[लेक्स फ्रिडमैन]] द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।
 
=== घटनाओं से सम्बन्धित समय ===
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है।{{sfn|Goertzel|Pennachin|2006}} 2007 तक एजीआई अनुसंधान समुदाय में सामान्य सहमति प्रतीत होती थी कि द सिंगुलैरिटी में [[रे कुर्ज़वील]] द्वारा चर्चा की गई समयरेखा निकट है।<ref name="K">{{Harv|Kurzweil|2005|p=260}} or see [http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html Advanced Human Intelligence] {{Webarchive|url=https://web.archive.org/web/20110630032301/http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |date=30 June 2011 }} where he defines strong AI as "machine intelligence with the full range of human intelligence."</ref> अर्थात 2015 और 2045 के बीच प्रशंसनीय थी।{{sfn|Goertzel|2007}} मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक सुझाव दी है कि क्या प्रगति इतनी तीव्रता से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक पूर्वानुमानों के लिए समान रूप से 16-26 वर्षों के भीतर हो सकती है विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।<ref>{{cite web |url=https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |title=Error in Armstrong and Sotala 2012 |website=AI Impacts |type=blog |author=Katja Grace |year=2016 |access-date=2020-08-24 |archive-date=4 December 2020 |archive-url=https://web.archive.org/web/20201204012302/https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |url-status=live }}</ref>
 
2012 में [[एलेक्स क्रिज़ेव्स्की]], [[इल्या सुतस्केवर]] और [[जेफ्री हिंटन]] ने [[एलेक्सनेट]] नामक एक तंत्रिका नेटवर्क विकसित किया था जिसने [[ इमेज नेट |छवि नेट]] प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता था। जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से अपेक्षाकृत अच्छी है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया था। एलेक्सनेट को वर्तमान सघन अध्ययन का प्रारंभिक "ग्राउंड-ब्रेकर" माना जाता था।<ref name=":5">{{Cite journal |last=Butz |first=Martin V. |date=2021-03-01 |title=मजबूत एआई की ओर|url=https://doi.org/10.1007/s13218-021-00705-x |journal=KI - Künstliche Intelligenz |language=en |volume=35 |issue=1 |pages=91–101 |doi=10.1007/s13218-021-00705-x |s2cid=256065190 |issn=1610-1987}}</ref>


{{As of|2023}}, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट भविष्य में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई [[आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन]] की एक श्रृंखला में योगदान करते हैं।
2017 में शोधकर्ताओं फेंग लियू, योंगशि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे गूगल एआई, ऐप्पल की सिरी और अन्य पर गुप्त परीक्षण किए। अधिकतम पर ये एआई लगभग 47 के आईक्यू मान तक पहुँच गए जो पहली कक्षा में लगभग छह साल के बच्चे के अनुरूप है। एक वयस्क औसतन लगभग 100 आता है। इसी प्रकार के परीक्षण 2014 में किए गए थे। जिसमें आईक्यू प्राप्तांक 27 के अधिकतम मान तक गया था।<ref>{{cite journal |title=आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड|journal=Annals of Data Science |volume=4 |issue=2 |pages=179–191 |arxiv=1709.10242 |doi=10.1007/s40745-017-0109-0 |year=2017 |last1=Liu |first1=Feng |last2=Shi |first2=Yong |last3=Liu |first3=Ying |s2cid=37900130}}</ref><ref>{{cite web |title=Google AI सिरी से दोगुना स्मार्ट है|url=https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003 |access-date=2 January 2019 |last=Brien |first=Jörn |date=2017-10-05 |language=de |trans-title=Google AI is twice as smart as Siri - but a six-year-old beats both |archive-url=https://web.archive.org/web/20190103055657/https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003/ |archive-date=3 January 2019|url-status=live}}</ref>


=== समयमान ===
2020 में ओपीईएनएआई ने जीपीटी-3 विकसित किया था एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। [[वेंचरबीट]] लेख में [[गैरी ग्रॉसमैन]] के अनुसार, जबकि इस विषय पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।<ref>{{cite web |url=https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |title=हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं|date=September 3, 2020 |first=Gary |last=Grossman |access-date=September 5, 2020 |publisher=[[VentureBeat]] |quote="Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI." |archive-date=4 September 2020 |archive-url=https://web.archive.org/web/20200904191750/https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |url-status=live }}</ref>
उनकी 2006 की पुस्तक के परिचय में,{{sfn|Goertzel|Pennachin|2006}} गोएर्टज़ेल का कहना है कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। {{As of|2007}} एजीआई अनुसंधान समुदाय में आम सहमति यह प्रतीत होती है कि द सिंगुलैरिटी में [[रे कुर्ज़वील]] द्वारा चर्चा की गई समयरेखा निकट है<ref name="K">{{Harv|Kurzweil|2005|p=260}} or see [http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html Advanced Human Intelligence] {{Webarchive|url=https://web.archive.org/web/20110630032301/http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |date=30 June 2011 }} where he defines strong AI as "machine intelligence with the full range of human intelligence."</ref> (यानी 2015 और 2045 के बीच) प्रशंसनीय था।{{sfn|Goertzel|2007}} मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेज होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह भविष्यवाणी करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की शुरुआत आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।<ref>{{cite web |url=https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |title=Error in Armstrong and Sotala 2012 |website=AI Impacts |type=blog |author=Katja Grace |year=2016 |access-date=2020-08-24 |archive-date=4 December 2020 |archive-url=https://web.archive.org/web/20201204012302/https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |url-status=live }}</ref>
2012 में, [[एलेक्स क्रिज़ेव्स्की]], [[इल्या सुतस्केवर]], और [[जेफ्री हिंटन]] ने [[एलेक्सनेट]] नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने [[ इमेज नेट ]] प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित क्लासिफायरों से प्राप्तांकों के भारित योग का उपयोग किया)।<ref name=":5">{{Cite journal |last=Butz |first=Martin V. |date=2021-03-01 |title=मजबूत एआई की ओर|url=https://doi.org/10.1007/s13218-021-00705-x |journal=KI - Künstliche Intelligenz |language=en |volume=35 |issue=1 |pages=91–101 |doi=10.1007/s13218-021-00705-x |s2cid=256065190 |issn=1610-1987}}</ref> एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।<ref name=":5" />


2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कमजोर एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये AI लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था।<ref>{{cite journal |title=आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड|journal=Annals of Data Science |volume=4 |issue=2 |pages=179–191 |arxiv=1709.10242 |doi=10.1007/s40745-017-0109-0 |year=2017 |last1=Liu |first1=Feng |last2=Shi |first2=Yong |last3=Liu |first3=Ying |s2cid=37900130}}</ref><ref>{{cite web |title=Google AI सिरी से दोगुना स्मार्ट है|url=https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003 |access-date=2 January 2019 |last=Brien |first=Jörn |date=2017-10-05 |language=de |trans-title=Google AI is twice as smart as Siri - but a six-year-old beats both |archive-url=https://web.archive.org/web/20190103055657/https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003/ |archive-date=3 January 2019|url-status=live}}</ref>
उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया था और "परियोजना दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया था। ओपीईएन एआई ने अपने सुरक्षा दिशानिर्देशों का अनुसरण करने के लिए चैटबॉट में परिवर्तन करने के लिए कहा तब रोहरर ने जीपीटी-3 एपीआई से परियोजना दिसंबर को असंबद्ध कर दिया था।<ref>{{cite web |last1=Quach |first1=Katyanna |title=A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down |url=https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |publisher=The Register |access-date=16 October 2021 |archive-date=16 October 2021 |archive-url=https://web.archive.org/web/20211016232620/https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |url-status=live }}</ref>
2020 में, OpenAI ने [[GPT-3]] विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। [[वेंचरबीट]] लेख में [[गैरी ग्रॉसमैन]] के अनुसार, जबकि इस बात पर आम सहमति है कि GPT-3 AGI का उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण AI प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।<ref>{{cite web |url=https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |title=हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं|date=September 3, 2020 |first=Gary |last=Grossman |access-date=September 5, 2020 |publisher=[[VentureBeat]] |quote="Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI." |archive-date=4 September 2020 |archive-url=https://web.archive.org/web/20200904191750/https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |url-status=live }}</ref>
उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने GPT-3 खाते का उपयोग किया, और प्रोजेक्ट दिसंबर नामक एक चैटबॉट-विकासशील मंच प्रदान किया। OpenAI ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने GPT-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया।<ref>{{cite web |last1=Quach |first1=Katyanna |title=A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down |url=https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |publisher=The Register |access-date=16 October 2021 |archive-date=16 October 2021 |archive-url=https://web.archive.org/web/20211016232620/https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |url-status=live }}</ref>
2022 में[[गाटो (डीपमाइंड)]] ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।<ref>{{citation|title=DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots|first=Kyle|last=Wiggers|date=May 13, 2022|work=[[TechCrunch]]|url=https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|access-date=12 June 2022|archive-date=16 June 2022|archive-url=https://web.archive.org/web/20220616185232/https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|url-status=live}}</ref>
2023 में, Microsoft रिसर्च ने OpenAI के GPT-4 के शुरुआती संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले AI मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या GPT-4 को कृत्रिम सामान्य बुद्धि का एक प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर जोर दिया गया।<ref>{{cite arXiv|last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4  |date=22 March 2023 |class=cs.CL |eprint=2303.12712}}</ref>


2022 में [[गाटो (डीपमाइंड)]] ने गैटो (डीपमाइंड) विकसित किया था जो एक सामान्य-उद्देश्य प्रणाली है। जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।<ref>{{citation|title=DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots|first=Kyle|last=Wiggers|date=May 13, 2022|work=[[TechCrunch]]|url=https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|access-date=12 June 2022|archive-date=16 June 2022|archive-url=https://web.archive.org/web/20220616185232/https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|url-status=live}}</ref>


== ब्रेन सिमुलेशन ==
2023 में माइक्रोसॉफ्ट शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया था। जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और नियम जैसे कई डोमेन में विस्तृत कार्यों में मानव-स्तर के कार्यों का प्रदर्शन किया। इस शोध ने इस विषय पर वार्तालाप छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है। इस प्रकार की प्रणालियों के आगे शोध और मूल्यांकन की आवश्यकता पर महत्व दिया गया था।<ref>{{cite arXiv|last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4  |date=22 March 2023 |class=cs.CL |eprint=2303.12712}}</ref>
== मस्तिष्क अनुरूपण ==


=== संपूर्ण मस्तिष्क अनुकरण ===
=== संपूर्ण मस्तिष्क अनुकरण ===
{{Main|Mind uploading}}
{{Main|माइंड उदभारण}}
AGI को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को [[मस्तिष्क स्कैनिंग]] और [[ब्रेन मैपिंग]] द्वारा एक जैविक मस्तिष्क का विस्तार से निर्माण किया जाता है और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी किया जाता है। कंप्यूटर एक [[कंप्यूटर सिमुलेशन]] मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है।<ref name=Roadmap>{{Harvnb|Sandberg|Boström|2008}}. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."</ref> चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में [[ कम्प्यूटेशनल तंत्रिका विज्ञान ]] और [[neuroinformatics]] में संपूर्ण [[मस्तिष्क अनुकरण]] पर चर्चा की गई है। आर्टिफिशियल इंटेलिजेंस रिसर्च में इसकी चर्चा की गई है{{sfn|Goertzel|2007}} मजबूत एआई के दृष्टिकोण के रूप में। [[न्यूरोइमेजिंग]] प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और [[भविष्यवादी]] रे कुर्ज़वील ने द सिंगुलैरिटी इज नियर पुस्तक में<ref name=K/>भविष्यवाणी करता है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय-सीमा पर उपलब्ध हो जाएगा, जिसके लिए आवश्यक कंप्यूटिंग शक्ति का अनुकरण करना होगा।
 
एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क के विस्तार से [[मस्तिष्क स्कैनिंग|मस्तिष्क अवलोकन]] और [[ब्रेन मैपिंग|मस्तिष्क चित्रण]] करके इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में प्रारूपित करके बनाया जाता है। [[कंप्यूटर सिमुलेशन|कंप्यूटर अनुरूपण]] मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से सक्षम होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही कार्य करता है।<ref name="Roadmap">{{Harvnb|Sandberg|Boström|2008}}. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."</ref> चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क अनुरूपण के संदर्भ में कम्प्यूटेशनल न्यूरो विज्ञान और [[neuroinformatics|न्यूरोइनफॉरमैटिक्स]] में संपूर्ण [[मस्तिष्क अनुकरण]] पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध {{sfn|Goertzel|2007}} में दृढ़ एआई के दृष्टिकोण के रूप में की गई है। [[न्यूरोइमेजिंग|न्यूरो काल्पनिक]] प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं तीव्रता से सुधार कर रही हैं और "द सिंगुलैरिटी इज़ नियर"<ref name="K" /> पुस्तक में रे कुर्ज़वील ने पूर्वानुमान किया है कि पर्याप्त गुणवत्ता का मानचित्र एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर आधारित हो सकती है।


===प्रारंभिक अनुमान===
===प्रारंभिक अनुमान===
[[File:Estimations of Human Brain Emulation Required Performance.svg|thumb|right|विभिन्न स्तरों (रे कुर्ज़वील, [[एंडर्स सैंडबर्ग]] और [[निक बोस्सोम]] से) पर मानव मस्तिष्क का अनुकरण करने के लिए कितनी प्रसंस्करण शक्ति की आवश्यकता है, इसके साथ-साथ [[TOP500]] मैप किए गए सबसे तेज़ सुपर कंप्यूटर का अनुमान है। लॉगरिदमिक स्केल और एक्सपोनेंशियल ट्रेंडलाइन पर ध्यान दें, जो मानता है कि कम्प्यूटेशनल क्षमता हर 1.1 साल में दोगुनी हो जाती है। कुर्ज़वील का मानना ​​है कि मस्तिष्क अपलोडिंग तंत्रिका सिमुलेशन में संभव होगा, जबकि सैंडबर्ग, बोस्स्रोम रिपोर्ट इस बारे में कम निश्चित है कि चेतना कहाँ उत्पन्न होती है।{{sfn|Sandberg|Boström|2008}478x478 पीएक्स]]निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। [[मानव मस्तिष्क]] में बड़ी संख्या में [[synapses]] होते हैं। 10 में से प्रत्येक<sup>11</sup> (एक सौ बिलियन) [[न्यूरॉन्स]] में अन्य न्यूरॉन्स के साथ औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 10 होते हैं<sup>15</sup> सिनैप्स (1 क्वाड्रिलियन)यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 10 से लेकर<sup>14</sup> से 5×10<sup>14</sup> सिनैप्स (100 से 500 ट्रिलियन){{sfn|Drachman|2005}} न्यूरॉन गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 10 है<sup>14</sup> (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड ([[SUPS]]){{sfn|Russell|Norvig|2003}}
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में अन्तर्ग्रथन होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक संबंधन (अन्तर्ग्रथन) होते हैं। तीन साल के बच्चे के मस्तिष्क में लगभग 1015 अन्तर्ग्रथ (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं 1014 से 5×1014 अन्तर्ग्रथ (100 से 500 ट्रिलियन) तक{{sfn|Drachman|2005}} [[न्यूरॉन्स]] गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) होता है।{{sfn|Russell|Norvig|2003}}


1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 10 के आंकड़े को अपनाया।<sup>16</sup> गणना प्रति सेकंड (सीपीएस)।{{efn|In "Mind Children"{{sfn|Moravec|1988|page=61}} 10<sup>15</sup> cps is used. More recently, in 1997,{{sfn|Moravec|1998}} Moravec argued for 10<sup>8</sup> MIPS which would roughly correspond to 10<sup>14</sup> cps. Moravec talks in terms of MIPS, not "cps", which is a non-standard term Kurzweil introduced.}} (तुलना के लिए, यदि एक संगणना एक [[FLOPS]] | फ्लोटिंग-पॉइंट ऑपरेशन के बराबर थी - वर्तमान [[सुपर कंप्यूटर]]ों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - तो 10<sup>16</sup> संगणनाएं 10 [[पेटा-]], FLOPS#प्रदर्शन रिकॉर्ड के बराबर होंगी, जबकि 10<sup>18</sup> [[एक्सास्केल कंप्यूटिंग]] था।) उन्होंने इस आंकड़े का उपयोग 2015 और 2025 के बीच आवश्यक हार्डवेयर की भविष्यवाणी करने के लिए किया था, अगर लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही।
1997 में कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया था जिसकी तुलना के लिए यदि "गणना" एक "चल बिन्दु संचालन" के बराबर थी। वर्तमान मे सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में प्राप्त किया गया था। उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर का पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025 यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि प्रारम्भ हो रही है।


=== अधिक विस्तार से न्यूरॉन्स की मॉडलिंग ===
=== अधिक विस्तार से न्यूरॉन्स की मॉडलिंग ===
कुर्ज़वील द्वारा ग्रहण किया गया [[कृत्रिम न्यूरॉन]] मॉडल और कई मौजूदा [[कृत्रिम तंत्रिका नेटवर्क]] कार्यान्वयन में उपयोग किया जाता है जो [[जैविक न्यूरॉन मॉडल]] की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जो संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाने जाते हैं।<ref name="Discover2011JanFeb">{{Cite journal|author=Swaminathan, Nikhil|title=Glia—the other brain cells|journal=Discover|date=Jan–Feb 2011|url=http://discovermagazine.com/2011/jan-feb/62|access-date=24 January 2014|archive-url=https://web.archive.org/web/20140208071350/http://discovermagazine.com/2011/jan-feb/62|archive-date=8 February 2014|url-status=live}}</ref>
कुर्ज़वील द्वारा ग्रहण किया गया [[कृत्रिम न्यूरॉन]] मॉडल और कई सम्मिलित [[कृत्रिम तंत्रिका नेटवर्क]] कार्यान्वयन में उपयोग [[जैविक न्यूरॉन मॉडल]] की तुलना में सरल है। एक मस्तिष्क अनुरूपण को संभवतः जैविक न्यूरॉन्स के विस्तृत कोशिकीय व्यवहार पर अधिकृत करना होगा जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा प्रस्तुत किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई अनुक्रम इसके अतिरिक्त अनुमान ग्लियाल कोशिकाओं के लिए उत्तरदाई नहीं हैं। जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।<ref name="Discover2011JanFeb">{{Cite journal|author=Swaminathan, Nikhil|title=Glia—the other brain cells|journal=Discover|date=Jan–Feb 2011|url=http://discovermagazine.com/2011/jan-feb/62|access-date=24 January 2014|archive-url=https://web.archive.org/web/20140208071350/http://discovermagazine.com/2011/jan-feb/62|archive-date=8 February 2014|url-status=live}}</ref>
 
 
=== वर्तमान शोध ===
=== वर्तमान शोध ===
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। [[आर्टिफिशियल इंटेलिजेंस सिस्टम]] प्रोजेक्ट ने मस्तिष्क के गैर-वास्तविक समय सिमुलेशन (10<sup>11</sup> न्यूरॉन्स) 2005 में। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लग गए।<ref>{{cite journal |last1=Izhikevich |first1=Eugene M. |last2=Edelman |first2=Gerald M. |date=4 March 2008 |title=स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल|url=http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |journal=PNAS |volume=105 |issue=9 |pages=3593–3598 |doi= 10.1073/pnas.0712231105|access-date=23 June 2015 |archive-url=https://web.archive.org/web/20090612095651/http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |archive-date=12 June 2009 |pmid=18292226 |pmc=2265160|bibcode=2008PNAS..105.3593I |doi-access=free }}</ref> [[ब्लू ब्रेन]] प्रोजेक्ट ने सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर में से एक, [[आईबीएम]] के [[ब्लू जीन]] प्लेटफॉर्म का इस्तेमाल किया, जिसमें लगभग 10,000 न्यूरॉन्स और 10 से मिलकर एक एकल चूहे [[नियोकॉर्टेक्स]] का वास्तविक समय सिमुलेशन बनाया गया।<sup>2006 में 8</sup> सिनेप्सेस।<ref>{{cite web|url=http://bluebrain.epfl.ch/Jahia/site/bluebrain/op/edit/pid/19085|title=परियोजना के मील के पत्थर|work=Blue Brain|access-date=11 August 2008}}</ref> एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं, ब्लू ब्रेन प्रोजेक्ट के निदेशक [[ हेनरी मार्करम ]], 2009 में ऑक्सफोर्ड में TED (सम्मेलन) में कहा।<ref>{{Cite news |url=http://news.bbc.co.uk/1/hi/technology/8164060.stm |title=कृत्रिम मस्तिष्क '10 साल दूर'|work=BBC News |date=22 July 2009 |access-date=25 July 2009 |archive-url=https://web.archive.org/web/20170726040959/http://news.bbc.co.uk/1/hi/technology/8164060.stm |archive-date=26 July 2017 |url-status=live }}</ref> न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर पैमाने पर हो सकता है।<ref>[http://gauntlet.ucalgary.ca/story/10343 University of Calgary news] {{Webarchive|url=https://web.archive.org/web/20090818081044/http://gauntlet.ucalgary.ca/story/10343 |date=18 August 2009 }}, [http://www.nbcnews.com/id/12037941 NBC News news] {{Webarchive|url=https://web.archive.org/web/20170704063922/http://www.nbcnews.com/id/12037941/ |date=4 July 2017 }}</ref>
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग संरचना पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क अनुरूपण का परीक्षण कर रही हैं। [[आर्टिफिशियल इंटेलिजेंस सिस्टम|कृत्रिम बुद्धिमत्ता प्रणाली]] परियोजना ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय अनुरूपण को प्रयुक्त किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे थे।<ref>{{cite journal |last1=Izhikevich |first1=Eugene M. |last2=Edelman |first2=Gerald M. |date=4 March 2008 |title=स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल|url=http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |journal=PNAS |volume=105 |issue=9 |pages=3593–3598 |doi= 10.1073/pnas.0712231105|access-date=23 June 2015 |archive-url=https://web.archive.org/web/20090612095651/http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |archive-date=12 June 2009 |pmid=18292226 |pmc=2265160|bibcode=2008PNAS..105.3593I |doi-access=free }}</ref> [[ब्लू ब्रेन|ब्लू मस्तिष्क]] परियोजना ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 अन्तर्ग्रथ वाले एकल नियोकोर्टिकल स्तम्भ का वास्तविक समय अनुरूपण बनाने के लिए सबसे तीव्र सुपरकंप्यूटर संरचना, [[आईबीएम]] के [[ब्लू जीन]] प्लेटफॉर्म में से एक का उपयोग किया था।<ref>{{cite web|url=http://bluebrain.epfl.ch/Jahia/site/bluebrain/op/edit/pid/19085|title=परियोजना के मील के पत्थर|work=Blue Brain|access-date=11 August 2008}}</ref> एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं" ब्लू मस्तिष्क के निदेशक हेनरी मार्कराम परियोजना 2009 में ऑक्सफोर्ड में टीईडी सम्मेलन में कहा गया था।<ref>{{Cite news |url=http://news.bbc.co.uk/1/hi/technology/8164060.stm |title=कृत्रिम मस्तिष्क '10 साल दूर'|work=BBC News |date=22 July 2009 |access-date=25 July 2009 |archive-url=https://web.archive.org/web/20170726040959/http://news.bbc.co.uk/1/hi/technology/8164060.stm |archive-date=26 July 2017 |url-status=live }}</ref> न्यूरो-सिलिकॉन अंतरापृष्ठ को वैकल्पिक कार्यान्वयन योजना के रूप में प्रस्तावित किया गया है जो अपेक्षाकृत अच्छा हो सकता है।<ref>[http://gauntlet.ucalgary.ca/story/10343 University of Calgary news] {{Webarchive|url=https://web.archive.org/web/20090818081044/http://gauntlet.ucalgary.ca/story/10343 |date=18 August 2009 }}, [http://www.nbcnews.com/id/12037941 NBC News news] {{Webarchive|url=https://web.archive.org/web/20170704063922/http://www.nbcnews.com/id/12037941/ |date=4 July 2017 }}</ref> हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन मस्तिष्क?" में उपरोक्त तर्कों ("मस्तिष्क अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया था।{{sfn|Moravec|1998}} उन्होंने तंत्रिका ऊतक विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम {{specify|date=April 2023}} ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं और न ही किसी प्रकार के प्रसंस्करण न्यूरॉन्स का प्रदर्शन करते हैं।
हंस मोरावेक ने अपने 1997 के पेपर में उपरोक्त तर्कों को संबोधित किया (दिमाग अधिक जटिल हैं, न्यूरॉन्स को और अधिक विस्तार से तैयार करना होगा) कंप्यूटर हार्डवेयर मानव मस्तिष्क से कब मेल खाएगा? .{{sfn|Moravec|1998}} उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता का अनुकरण करने के लिए मौजूदा सॉफ़्टवेयर की क्षमता को मापा। उसके परिणाम{{specify|date=April 2023}} ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।


[[खुला कृमि]] में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कीड़े का पूरा अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)परियोजना की शुरुआत से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, शुरुआत में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में,{{Current event inline|date=April 2023}} प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।
ओपनवॉर्म परियोजना में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 (कुल लगभग 1000 कोशिकाओं के बीच) न्यूरॉन्स हैं। परियोजना के प्रारम्भ से पहले पशु के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था। लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल कार्य नहीं करते थे। वर्तमान में, {{Current event inline|date=April 2023}} प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के शुद्ध अनुकरण पर ध्यान केंद्रित करते हैं। लेकिन परिणाम को अभी तक पूरी तरह से सफल नहीं कहा जा सकता है।


=== सिमुलेशन-आधारित दृष्टिकोणों की आलोचना ===
=== अनुरूपण-आधारित दृष्टिकोणों की आलोचना ===
सिम्युलेटेड मस्तिष्क दृष्टिकोण की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से प्राप्त होती है जो यह दावा करती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य पहलू है और जमीनी अर्थ के लिए आवश्यक है।<ref>{{Harvnb|de Vega|Glenberg|Graesser|2008}}. A wide range of views in current research, all of which require grounding to some degree</ref> यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी। गोएर्टज़ेल{{sfn|Goertzel|2007}} आभासी अवतार (जैसे दूसरे जीवन में) को एक विकल्प के रूप में प्रस्तावित करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।
अनुरूपण-आधारित मस्तिष्क प्रस्ताव की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और सामान्य अर्थ के लिए आवश्यक है।<ref>{{Harvnb|de Vega|Glenberg|Graesser|2008}}. A wide range of views in current research, all of which require grounding to some degree</ref> यदि यह सिद्धांत सही है तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक शरीर) से अधिक सम्मिलित करने की आवश्यकता होगी।{{sfn|Goertzel|2007}} गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है। लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा। 109 समेकित भुगतान सांख्‍यिकी (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील और मोरेवेक द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए जो मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम हो लेकिन कुछ रुचि के अतिरिक्त<ref>{{Cite web |title=[links to bee brain studies] |website=Honey Bee Brain |url=http://www.setiai.com/archives/cat_honey_bee_brain.html |access-date=30 March 2010 |archive-url=https://web.archive.org/web/20080725000706/http://www.setiai.com/archives/cat_honey_bee_brain.html |archive-date=2008-07-25 |url-status=dead}}</ref> ऐसा कोई अनुकरण सम्मिलित नहीं है। {{Citation needed|date=April 2011}} इसके कई कारण हैं:
# न्यूरॉन मॉडल अतिसरलीकृत लगता है। (अगला भाग देखें)।
# उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है।{{efn|In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.{{sfn|Yudkowsky|2006}}}} शुद्ध रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरो काल्पनिक # कार्यात्मक चुंबकीय अनुनाद जैसी तकनीकों का उपयोग करके देखी गई है कि किससे संबंधित है।
#यहां तक ​​​​कि यदि अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है तो प्रारंभिक अनुरूपन प्रोग्राम बहुत ही अक्षम होने की संभावना है और इसलिए अपेक्षाकृत अधिक हार्डवेयर की आवश्यकता हो सकती है।
# एक जीव का मस्तिष्क महत्वपूर्ण होते हुए भी एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। [[विस्तारित मन]] अवधारणा इस दार्शनिक अवधारणा को औपचारिक रूप देती है और [[cephalopods|सेफैलोपॉड]] में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया है।<ref>{{cite journal | pmid = 15829594 | doi=10.1152/jn.00684.2004 | volume=94 | issue=2 | title=ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स|date=August 2005 | journal=J. Neurophysiol. | pages=1443–58 | last1 = Yekutieli | first1 = Y | last2 = Sagiv-Zohar | first2 = R | last3 = Aharonov | first3 = R | last4 = Engel | first4 = Y | last5 = Hochner | first5 = B | last6 = Flash | first6 = T|author6-link=Tamar Flash}}</ref>
इसके अतिरिक्त मानव मस्तिष्क का पैमाना वर्तमान में अपेक्षाकृत अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब अन्तर्ग्रथ होते हैं।<ref>{{Harvnb|Williams|Herrup|1988}}</ref><ref>[http://search.eb.com/eb/article-75525 "nervous system, human."] ''[[Encyclopædia Britannica]]''. 9 January 2007</ref> एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है। जिनमें से 16.3 बिलियन [[सेरेब्रल कॉर्टेक्स|प्रमस्तिष्क प्रांतस्था]] में होते हैं और 69 बिलियन [[सेरिबैलम]] में होते हैं।{{sfn|Azevedo et al.|2009}} [[ग्लियाल सेल|ग्लियाल कोशिकीय]] अन्तर्ग्रथ वर्तमान में अनिर्धारित हैं लेकिन अपेक्षाकृत बहुत अधिक होने के लिए जाने जाते हैं।


10 से अधिक सक्षम माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर<sup>9</sup> cps (कुर्जवील की गैर-मानक इकाई गणना प्रति सेकंड, ऊपर देखें) 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरावेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, इस तरह के कंप्यूटर को अनुकरण का समर्थन करने में सक्षम होना चाहिए मधुमक्खी का दिमाग, लेकिन कुछ रुचि के बावजूद<ref>{{Cite web |title=[links to bee brain studies] |website=Honey Bee Brain |url=http://www.setiai.com/archives/cat_honey_bee_brain.html |access-date=30 March 2010 |archive-url=https://web.archive.org/web/20080725000706/http://www.setiai.com/archives/cat_honey_bee_brain.html |archive-date=2008-07-25 |url-status=dead}}</ref> ऐसा कोई अनुकरण मौजूद नहीं है।{{Citation needed|date=April 2011}} इसके अनेक कारण हैं:
== दार्शनिक दृष्टिकोण ==
# न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
{{See also|कृत्रिम बुद्धि का दर्शन|ट्यूरिंग परीक्षण}}
# उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है{{efn|In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.{{sfn|Yudkowsky|2006}}}} सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
#भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
# एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। [[विस्तारित मन]] थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और [[cephalopods]] में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।<ref>{{cite journal | pmid = 15829594 | doi=10.1152/jn.00684.2004 | volume=94 | issue=2 | title=ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स|date=August 2005 | journal=J. Neurophysiol. | pages=1443–58 | last1 = Yekutieli | first1 = Y | last2 = Sagiv-Zohar | first2 = R | last3 = Aharonov | first3 = R | last4 = Engel | first4 = Y | last5 = Hochner | first5 = B | last6 = Flash | first6 = T|author6-link=Tamar Flash}}</ref>
इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 बिलियन न्यूरॉन और 100 ट्रिलियन सिनैप्स होते हैं।<ref>{{Harvnb|Williams|Herrup|1988}}</ref><ref>[http://search.eb.com/eb/article-75525 "nervous system, human."] ''[[Encyclopædia Britannica]]''. 9 January 2007</ref> एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन [[सेरेब्रल कॉर्टेक्स]] में और 69 बिलियन [[सेरिबैलम]] में हैं।{{sfn|Azevedo et al.|2009}} [[ग्लियाल सेल]] सिनैप्स वर्तमान में अनिश्चित हैं लेकिन बहुत अधिक होने के लिए जाने जाते हैं।


== दार्शनिक दृष्टिकोण ==
=== दर्शनशास्त्र में परिभाषित दृढ़ एआई ===
{{See also|Philosophy of artificial intelligence|Turing test}}
1980 में दार्शनिक [[जॉन सियरल]] ने अपने चीनी कक्ष के तर्क के एक भाग के रूप में दृढ़ एआई शब्द का निर्माण किया था।<ref>{{Harvnb|Searle|1980}}</ref> वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे।{{efn|As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."{{sfn|Russell|Norvig|2003}} }}
* '''दृढ़ एआई परिकल्पना:''' एक कृत्रिम बुद्धि प्रणाली पर विचार कर सकती है जो एक मस्तिष्क और चेतना है।
* '''कममहत्व एआई परिकल्पना:''' एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसे कार्य' करती है वह उस पर विचार करती है और उसके पास मस्तिष्क और चेतना होती है।
पहले वाले को उन्होंने "दृढ़" कहा क्योंकि यह एक दृढ़ प्रामाण देता है यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "दृढ़ एआई" मशीन के समान होता है लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी हो सकता है। जिसका शैक्षणिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग सामान्य है।<ref>For example:
*{{Harvnb|Russell|Norvig|2003}},
*[http://www.encyclopedia.com/doc/1O87-strongAI.html Oxford University Press Dictionary of Psychology] {{Webarchive|url=https://web.archive.org/web/20071203103022/http://www.encyclopedia.com/doc/1O87-strongAI.html |date=3 December 2007 }} (quoted in "High Beam Encyclopedia"),
*[http://www.aaai.org/AITopics/html/phil.html MIT Encyclopedia of Cognitive Science] {{Webarchive|url=https://web.archive.org/web/20080719074502/http://www.aaai.org/AITopics/html/phil.html |date=19 July 2008 }} (quoted in "AITopics")
*[http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm Will Biological Computers Enable Artificially Intelligent Machines to Become Persons?] {{Webarchive|url=https://web.archive.org/web/20080513031753/http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm |date=13 May 2008 }} Anthony Tongen</ref>


=== दर्शनशास्त्र में परिभाषित मजबूत एआई ===
मुख्यधारा विषयक एआई की सबसे अधिक रुचि इस विषय में है कि कोई प्रोग्राम कैसे व्यवहार करता है।<ref>though see [[Explainable artificial intelligence]] for curiosity by the field about why a program behaves the way it does</ref> रसेल और [[पीटर नॉरविग]] के अनुसार "जब तक प्रोग्राम कार्य करता है वे चिंता नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण" पता है कि क्या यह वास्तव में मन है। वास्तव में, यह बताने का कोई तरीका नहीं हो सकता है एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि के बराबर संभव है।" इस प्रकार रसेल और नॉरविग के अनुसार "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं और दृढ़ एआई परिकल्पना की चिंता नहीं करते हैं।"{{sfn|Russell|Norvig|2003|p=947}} इस प्रकार, शैक्षणिक एआई अनुसंधान के लिए "दृढ़ एआई" और "एजीआई" दो बहुत अलग वस्तुएं हैं।
1980 में, दार्शनिक [[जॉन सियरल]] ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा।<ref>{{Harvnb|Searle|1980}}</ref> वह कृत्रिम बुद्धिमत्ता के बारे में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे:{{efn|As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."{{sfn|Russell|Norvig|2003}} }}
* मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
* कमजोर एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।
पहले वाले को उन्होंने मजबूत कहा क्योंकि यह एक 'मजबूत' बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक कमजोर एआई मशीन का व्यवहार ठीक एक मजबूत एआई मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।<ref>For example:
* {{Harvnb|Russell|Norvig|2003}},
* [http://www.encyclopedia.com/doc/1O87-strongAI.html Oxford University Press Dictionary of Psychology] {{Webarchive|url=https://web.archive.org/web/20071203103022/http://www.encyclopedia.com/doc/1O87-strongAI.html |date=3 December 2007 }} (quoted in "High Beam Encyclopedia"),
* [http://www.aaai.org/AITopics/html/phil.html MIT Encyclopedia of Cognitive Science] {{Webarchive|url=https://web.archive.org/web/20080719074502/http://www.aaai.org/AITopics/html/phil.html |date=19 July 2008 }} (quoted in "AITopics")
* [http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm Will Biological Computers Enable Artificially Intelligent Machines to Become Persons?] {{Webarchive|url=https://web.archive.org/web/20080513031753/http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm |date=13 May 2008 }} Anthony Tongen</ref>
मेनस्ट्रीम एआई सबसे ज्यादा दिलचस्पी इस बात में रखता है कि कोई प्रोग्राम कैसे व्यवहार करता है।<ref>though see [[Explainable artificial intelligence]] for curiosity by the field about why a program behaves the way it does</ref> स्टुअर्ट जे. रसेल और [[पीटर नॉरविग]] के अनुसार, जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।{{sfn|Russell|Norvig|2003|p=947}} यदि कार्यक्रम व्यवहार कर सकता है जैसे कि उसके पास मन है, तो यह जानने की कोई आवश्यकता नहीं है कि क्या वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की कमजोर एआई परिकल्पना इस कथन के समतुल्य है कि कृत्रिम सामान्य बुद्धि संभव है। इस प्रकार, रसेल और नॉरविग के अनुसार, अधिकांश एआई शोधकर्ता कमजोर एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।{{sfn|Russell|Norvig|2003|p=947}} इस प्रकार, अकादमिक एआई अनुसंधान के लिए, मजबूत एआई और एजीआई दो बहुत अलग चीजें हैं।


Searle और मुख्यधारा AI के विपरीत, कुछ भविष्यवादी जैसे Ray Kurzweil मानव स्तर की कृत्रिम सामान्य बुद्धि के लिए मजबूत AI शब्द का उपयोग करते हैं।<ref name=K/>यह Searle के मजबूत AI के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के AGI के लिए चेतना आवश्यक है। Searle जैसे अकादमिक दार्शनिकों को विश्वास नहीं है कि यह मामला है, और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह प्रश्न दायरे से बाहर है।{{sfn|Russell|Norvig|2003|p=947}}
सियरल और मुख्यधारा विषयक एआई के विपरीत कुछ पूर्वानुमान जैसे रे कुर्ज़वील "दृढ़ एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं।<ref name="K" /> यह सियरल के दृढ़ एआई के समान नहीं है जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल उनकी समझ से बाहर है।{{sfn|Russell|Norvig|2003|p=947}}


=== चेतना ===
=== चेतना ===
बुद्धि के अलावा मानव मन के अन्य पहलू मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और [[कृत्रिम बुद्धि की नैतिकता]] में एक प्रमुख भूमिका निभाते हैं:
बुद्धि के अतिरिक्त मानव मन के अन्य दृष्टिकोण दृढ़ एआई की अवधारणा के लिए प्रासंगिक हैं और ये विज्ञान कथन और [[कृत्रिम बुद्धि की नैतिकता]] में एक प्रमुख भूमिका निभाते हैं:
*चेतनाः गुण और [[विचार]] होना।{{efn|Note that [[consciousness]] is difficult to define. A popular definition, due to [[Thomas Nagel]], is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.{{sfn|Nagel|1974}}}}
*चेतनाः गुण और [[विचार]] होना।{{efn|Note that [[consciousness]] is difficult to define. A popular definition, due to [[Thomas Nagel]], is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.{{sfn|Nagel|1974}}}}
* आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के बारे में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
* आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
*भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
*भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
*ज्ञान: ज्ञान की क्षमता।
*ज्ञान: ज्ञान की क्षमता।


इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो [[पशु अधिकार]]ों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है {{clarify|text=full ethical agents|date=April 2023}} 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए मौजूदा कानूनी और सामाजिक ढांचे के साथ।<ref name="physica_scripta">{{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=[[Physica Scripta]] |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}</ref> [[बिल जॉय]], दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>{{cite magazine| title=भविष्य को हमारी आवश्यकता क्यों नहीं है| last=Joy | first=Bill |author-link=Bill Joy | magazine=Wired |date=April 2000 }}</ref>
इन लक्षणों का एक नैतिक आयाम है क्योंकि दृढ़ एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं। जो [[पशु अधिकार|पशु अधिकारों]] के अनुरूप हो सकते हैं। गैर-मानव पशुओ के अधिकार एकीकृत करने पर प्रारंभिक कार्य किया गया है। {{clarify|text=पूर्ण नैतिक प्रतिनिधित्व|date=April 2023}} दृढ़ एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलित कानूनी और सामाजिक संरचना के साथ<ref name="physica_scripta"><nowiki>{{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=</nowiki>[[Physica Scripta]] |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}</ref> [[बिल जॉय]], दूसरों के बीच तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए जोखिम हो सकती है।<ref><nowiki><ref></nowiki>{{cite magazine| title=भविष्य को हमारी आवश्यकता क्यों नहीं है| last=Joy | first=Bill |author-link=Bill Joy | magazine=Wired |date=April 2000 }}&lt;nowiki&gt;</ref></nowiki></ref> यह दिखाया जाना बाकी है कि दृढ़ एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या आवश्यक नही है। चेतना की भूमिका स्पष्ट नहीं है और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधों का अनुकरण करती है तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमत्ता मशीन से परिपूर्ण होते है यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमत्ता तरीके से कार्य करना प्रारम्भ कर सकते है।
 
यह दिखाया जाना बाकी है कि इनमें से कोई भी लक्षण मजबूत एआई के लिए [[आवश्यक और पर्याप्त स्थिति]] है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो [[चेतना के तंत्रिका संबंध]]ी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।


===कृत्रिम चेतना अनुसंधान===
===कृत्रिम चेतना अनुसंधान===
{{Main|Artificial consciousness}}
{{Main|कृत्रिम चेतना}}
 
हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता{{sfn|Yudkowsky|2006}} चेतना को लागू करने की संभावनाओं की जांच करने वाले शोध को महत्वपूर्ण मानते हैं। प्रारंभिक प्रयास में [[इगोर अलेक्जेंडर]]{{sfn|Aleksander|1996}} ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से मौजूद थे लेकिन ऐसी मशीन को [[भाषा]] समझने के लिए प्रशिक्षित करने में चालीस साल लगेंगे।{{clarify|date=September 2021}}
 
== मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण ==
{{See also|History of artificial intelligence#The problems|History of artificial intelligence#Predictions (or "Where is HAL 9000?")}}
{{unclear-section|date=September 2021}}
 
1956 में एआई अनुसंधान के शुभारंभ के बाद से, मानव स्तर पर बुद्धिमान कार्रवाई के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है।{{Update inline|date=April 2023}}{{sfn|Clocksin|2003}} एक संभावित कारण यह है कि कंप्यूटर-विज्ञान-उन्मुख और/या न्यूरोसाइंस-उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप लचीलेपन की कमी है।{{sfn|Clocksin|2003}}<ref>{{Cite journal |last=James |first=Alex P. |date=2022 |title=आर्टिफिशियल जनरल इंटेलिजेंस चिप डेवलपमेंट क्यों, क्या और कैसे|url=https://ieeexplore.ieee.org/document/9390376 |journal=IEEE Transactions on Cognitive and Developmental Systems |volume=14 |issue=2 |pages=333–347 |doi=10.1109/TCDS.2021.3069871 |arxiv=2012.06338 |s2cid=228376556 |issn=2379-8920 |access-date=28 August 2022 |archive-date=28 August 2022 |archive-url=https://web.archive.org/web/20220828140528/https://ieeexplore.ieee.org/document/9390376/ |url-status=live }}</ref><ref>{{Cite journal |last1=Pei |first1=Jing |last2=Deng |first2=Lei |last3=Song |first3=Sen |last4=Zhao |first4=Mingguo |last5=Zhang |first5=Youhui |last6=Wu |first6=Shuang |last7=Wang |first7=Guanrui |last8=Zou |first8=Zhe |last9=Wu |first9=Zhenzhi |last10=He |first10=Wei |last11=Chen |first11=Feng |last12=Deng |first12=Ning |last13=Wu |first13=Si |last14=Wang |first14=Yu |last15=Wu |first15=Yujie |date=2019 |title=हाइब्रिड टियांजिक चिप आर्किटेक्चर के साथ आर्टिफिशियल जनरल इंटेलिजेंस की ओर|url=https://www.nature.com/articles/s41586-019-1424-8 |journal=Nature |language=en |volume=572 |issue=7767 |pages=106–111 |doi=10.1038/s41586-019-1424-8 |pmid=31367028 |bibcode=2019Natur.572..106P |s2cid=199056116 |issn=1476-4687 |access-date=29 August 2022 |archive-date=29 August 2022 |archive-url=https://web.archive.org/web/20220829084912/https://www.nature.com/articles/s41586-019-1424-8 |url-status=live }}</ref> साथ ही एआई अनुसंधान में शामिल जटिलता भी मजबूत एआई अनुसंधान की प्रगति को सीमित करती है।{{sfn|Clocksin|2003}}
 
एआई अनुसंधान में सुस्ती के लिए वैचारिक सीमाएं एक और संभावित कारण हैं।{{sfn|Clocksin|2003}} एआई शोधकर्ताओं को मजबूत एआई प्राप्त करने की खोज के लिए एक मजबूत आधार प्रदान करने के लिए अपने अनुशासन के वैचारिक ढांचे को संशोधित करने की आवश्यकता हो सकती है। इसका मतलब है कि एक सामाजिक-सांस्कृतिक संदर्भ में एक मजबूत एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है।{{clarify|date=April 2023}}{{Fact or opinion|date=April 2023}} जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था:{{clarify|text=the framework|reason=what framework?|date=April 2023}} से शुरू होता है {{clarify|text=Weizenbaum's|reason=who is Weizenbaum?|date=April 2023}} अवलोकन कि बुद्धि केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।{{sfn|Clocksin|2003}}


एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे काम कर सकते हैं जो लोगों के लिए जटिल हैं, जैसे कि गणित, लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है, जैसे चलना (मोरवेक का विरोधाभास)।{{Update inline|date=April 2023}}{{sfn|Clocksin|2003}} डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग सोच और तर्क को समान मानते हैं।{{non sequitur|date=April 2023}}{{sfn|Gelernter|2010}} विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए, इस विचार ने एआई शोधकर्ताओं को परेशान किया है।{{non sequitur|date=April 2023}}{{sfn|Gelernter|2010}}
हालांकि दृढ़ एआई/एजीआई में चेतना की भूमिका विवादास्पद है। कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को प्रयुक्त करने की संभावनाओं की जांच करते है।{{sfn|Yudkowsky|2006}} प्रारंभिक प्रयास में [[इगोर अलेक्जेंडर]]{{sfn|Aleksander|1996}} ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लग सकते है।{{clarify|date=September 2021}}


पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास पैदा करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल भविष्यवाणियों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है।{{sfn|Goertzel|2007}} एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं।<ref>{{Cite journal |last=Strickland |first=Eliza |date=2021 |title=The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle? |url=http://dx.doi.org/10.1109/mspec.2021.9563956 |journal=IEEE Spectrum |volume=58 |issue=10 |pages=26–31 |doi=10.1109/mspec.2021.9563956 |s2cid=238478853 |issn=0018-9235}}</ref> अधिकांश जांचकर्ता 21वीं सदी में एजीआई हासिल करने को लेकर आशान्वित हैं।{{sfn|Goertzel|2007}}
== दृढ़ एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण ==
{{See also|कृत्रिम बुद्धिमत्ता का इतिहास #समस्याएं|कृत्रिम बुद्धिमत्ता का इतिहास#पूर्वकथन (या "एचएएल 9000 कहां है?")}}


मजबूत एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने [[मानव मस्तिष्क परियोजना]] जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है।{{sfn|McCarthy|2007}}<ref>{{Cite journal |last=Yamakawa |first=Hiroshi |date=2021 |title=The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain |journal=Neural Networks |volume=144 |pages=478–495 |doi=10.1016/j.neunet.2021.09.004 |pmid=34600220 |s2cid=232170707 |issn=0893-6080|doi-access=free }}</ref><ref>{{Cite journal |last1=Jones |first1=David T. |last2=Kerber |first2=Kevin A. |date=2022-02-07 |title=Artificial Intelligence and the Practice of Neurology in 2035 |url=http://dx.doi.org/10.1212/wnl.0000000000013200 |journal=Neurology |volume=98 |issue=6 |pages=238–245 |doi=10.1212/wnl.0000000000013200 |pmid=35131918 |s2cid=246635279 |issn=0028-3878 |access-date=28 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202192654/https://n.neurology.org/content/98/6/238 |url-status=live }}</ref> कई शोधकर्ता एआई की भविष्य की भविष्यवाणियों से जुड़े किसी भी संदेह को कम आंकते हैं, लेकिन मानव मस्तिष्क मॉडलिंग जैसे मुद्दों को गंभीरता से लिए बिना, एजीआई शोधकर्ता तब समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।{{copy edit inline|date=April 2023}}{{sfn|Goertzel|2007}}
1956 में एआई अनुसंधान के प्रारम्भ के बाद से मानव स्तर पर बुद्धिमत्ता नियम के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है।{{Update inline|date=April 2023}}{{sfn|Clocksin|2003}} एक संभावित कारण यह है कि कंप्यूटर-विज्ञान उन्मुख और न्यूरो विज्ञान उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप और नम्यता की कमी है।{{sfn|Clocksin|2003}}<ref>{{Cite journal |last=James |first=Alex P. |date=2022 |title=आर्टिफिशियल जनरल इंटेलिजेंस चिप डेवलपमेंट क्यों, क्या और कैसे|url=https://ieeexplore.ieee.org/document/9390376 |journal=IEEE Transactions on Cognitive and Developmental Systems |volume=14 |issue=2 |pages=333–347 |doi=10.1109/TCDS.2021.3069871 |arxiv=2012.06338 |s2cid=228376556 |issn=2379-8920 |access-date=28 August 2022 |archive-date=28 August 2022 |archive-url=https://web.archive.org/web/20220828140528/https://ieeexplore.ieee.org/document/9390376/ |url-status=live }}</ref><ref>{{Cite journal |last1=Pei |first1=Jing |last2=Deng |first2=Lei |last3=Song |first3=Sen |last4=Zhao |first4=Mingguo |last5=Zhang |first5=Youhui |last6=Wu |first6=Shuang |last7=Wang |first7=Guanrui |last8=Zou |first8=Zhe |last9=Wu |first9=Zhenzhi |last10=He |first10=Wei |last11=Chen |first11=Feng |last12=Deng |first12=Ning |last13=Wu |first13=Si |last14=Wang |first14=Yu |last15=Wu |first15=Yujie |date=2019 |title=हाइब्रिड टियांजिक चिप आर्किटेक्चर के साथ आर्टिफिशियल जनरल इंटेलिजेंस की ओर|url=https://www.nature.com/articles/s41586-019-1424-8 |journal=Nature |language=en |volume=572 |issue=7767 |pages=106–111 |doi=10.1038/s41586-019-1424-8 |pmid=31367028 |bibcode=2019Natur.572..106P |s2cid=199056116 |issn=1476-4687 |access-date=29 August 2022 |archive-date=29 August 2022 |archive-url=https://web.archive.org/web/20220829084912/https://www.nature.com/articles/s41586-019-1424-8 |url-status=live }}</ref> साथ ही एआई अनुसंधान में सम्मिलित जटिलता भी दृढ़ एआई अनुसंधान की प्रगति को सीमित करती है।{{sfn|Clocksin|2003}}


क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे।{{specify|date=April 2023}}{{sfn|Clocksin|2003}}{{non sequitur|reason=this sentence is so vague that it is difficult to understand how the following two sentences relate to it|date=April 2023}} जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना शुरू किया, तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी।{{sfn|Holte|Choueiry|2003}} उस समय, शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।{{sfn|Holte|Choueiry|2003}}
एआई अनुसंधान मे कमी के लिए वैचारिक सीमाएं एक और संभावित कारण हैं।{{sfn|Clocksin|2003}} एआई शोधकर्ताओं को दृढ़ एआई प्राप्त करने की खोज के लिए एक दृढ़ आधार प्रदान करने के लिए अपने अनुशासन की वैचारिक संरचना को संशोधित करने की आवश्यकता हो सकती है। इसका तात्पर्य यह है कि एक सामाजि सांस्कृतिक संदर्भ में एक दृढ़ एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है।{{clarify|date=April 2023}}{{Fact or opinion|date=April 2023}} जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था कि यह {{clarify|text=संरचना|reason=what framework?|date=April 2023}} से प्रारम्भ होती है। {{clarify|text=वीज़ेनबाम|reason=who is Weizenbaum?|date=April 2023}} अवलोकन कि बुद्धिमत्ता केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।{{sfn|Clocksin|2003}}


जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ काम करते समय फिर से परिभाषित करते हैं, एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है।{{Incomprehensible inline|date=April 2023}}{{sfn|Holte|Choueiry|2003}} एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है।{{Explain|date=April 2023}}{{sfn|Holte|Choueiry|2003}} हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है, अमूर्त संचालकों की भूमिका ने समस्याएँ खड़ी कर दी हैं।{{Explain|date=April 2023}}{{sfn|Zucker|2003}}
एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे कार्य कर सकते हैं जो लोगों के लिए जटिल हैं जैसे कि गणित लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है जैसे चलना (मोरवेक का विरोधाभास)।{{Update inline|date=April 2023}}{{sfn|Clocksin|2003}} डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग विचार और तर्क को समान मानते हैं।{{non sequitur|date=April 2023}}{{sfn|Gelernter|2010}} विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए इस विचार ने एआई शोधकर्ताओं को परेशान किया है।{{non sequitur|date=April 2023}}{{sfn|Gelernter|2010}}


मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से बेहतर रहता है।{{sfn|McCarthy|2007}} लेकिन तेजी से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को लागू करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धि से मेल खाने की अनुमति देते हैं। जबकि मजबूत एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है, {{weasel inline|text=it is widely agreed|date=April 2023}} चुनौती होना।
पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास उत्पन्न करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल पूर्वानुमानों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है।{{sfn|Goertzel|2007}} एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं।<ref>{{Cite journal |last=Strickland |first=Eliza |date=2021 |title=The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle? |url=http://dx.doi.org/10.1109/mspec.2021.9563956 |journal=IEEE Spectrum |volume=58 |issue=10 |pages=26–31 |doi=10.1109/mspec.2021.9563956 |s2cid=238478853 |issn=0018-9235}}</ref> अधिकांश जांचकर्ता 21वीं सदी में एजीआई प्राप्त करने को लेकर आशान्वित हैं।{{sfn|Goertzel|2007}}


एआई शोधकर्ताओं ने इस बात पर बहस की है कि [[भावात्मक कंप्यूटिंग]] है या नहीं।<ref>{{Cite journal |last=Deane |first=George |date=2022 |title=Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence |url=http://dx.doi.org/10.1162/artl_a_00368 |journal=Artificial Life |volume=28 |issue=3 |pages=289–309 |doi=10.1162/artl_a_00368 |pmid=35881678 |s2cid=251069071 |issn=1064-5462}}</ref> एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है, और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों की अनुमति देता है {{clarify|text=to have a mind of their own|date=April 2023}}.{{sfn|Clocksin|2003}} भावनाएँ मनुष्य को अनुभवों को याद रखने में मदद करती हैं।{{sfn|Gelernter|2010}} डेविड गेलर्नटर लिखते हैं, कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी बारीकियों का अनुकरण नहीं कर सकता।{{sfn|Gelernter|2010}} भावना के मजबूत एआई शोध का विषय बने रहने की संभावना है।<ref>{{cite journal|doi=10.1016/j.bushor.2018.08.004|title=Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence | volume=62 | year=2019|journal=Business Horizons|pages=15–25  | last1 = Kaplan | first1 = Andreas | last2 = Haenlein | first2 = Michael|s2cid=158433736 }}</ref><ref>{{Cite journal |last1=Priyadarshini |first1=Ishaani |last2=Cotton |first2=Chase |date=2022 |title=AI Cannot Understand Memes: Experiments with OCR and Facial Emotions |url=https://www.techscience.com/cmc/v70n1/44391 |journal=Computers, Materials & Continua |language=en |volume=70 |issue=1 |pages=781–800 |doi=10.32604/cmc.2022.019284 |s2cid=239639188 |issn=1546-2226 |doi-access=free |access-date=28 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202192655/https://www.techscience.com/cmc/v70n1/44391 |url-status=live }}</ref>
दृढ़ एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने [[मानव मस्तिष्क परियोजना]] जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है।{{sfn|McCarthy|2007}}<ref>{{Cite journal |last=Yamakawa |first=Hiroshi |date=2021 |title=The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain |journal=Neural Networks |volume=144 |pages=478–495 |doi=10.1016/j.neunet.2021.09.004 |pmid=34600220 |s2cid=232170707 |issn=0893-6080|doi-access=free }}</ref><ref>{{Cite journal |last1=Jones |first1=David T. |last2=Kerber |first2=Kevin A. |date=2022-02-07 |title=Artificial Intelligence and the Practice of Neurology in 2035 |url=http://dx.doi.org/10.1212/wnl.0000000000013200 |journal=Neurology |volume=98 |issue=6 |pages=238–245 |doi=10.1212/wnl.0000000000013200 |pmid=35131918 |s2cid=246635279 |issn=0028-3878 |access-date=28 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202192654/https://n.neurology.org/content/98/6/238 |url-status=live }}</ref> कई शोधकर्ता एआई के भविष्य के पूर्वानुमान से जुड़े किसी भी संदेह को कम आंकते हैं। लेकिन मानव मस्तिष्क मॉडलिंग जैसे विचारों को गंभीरता से लिए अतिरिक्त एजीआई शोधकर्ता समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।{{copy edit inline|date=April 2023}}{{sfn|Goertzel|2007}}


क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे।{{specify|date=April 2023}}{{sfn|Clocksin|2003}}{{non sequitur|reason=this sentence is so vague that it is difficult to understand how the following two sentences relate to it|date=April 2023}} जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना प्रारम्भ किया था तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी।{{sfn|Holte|Choueiry|2003}} उस समय शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।{{sfn|Holte|Choueiry|2003}} जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ कार्य करते समय फिर से परिभाषित करते हैं। एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है।{{Incomprehensible inline|date=April 2023}}{{sfn|Holte|Choueiry|2003}} एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है।{{Explain|date=April 2023}}{{sfn|Holte|Choueiry|2003}} हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है। जिसने अमूर्त संचालकों की भूमिका के लिए समस्याएँ उत्पन्न कर दी हैं।{{Explain|date=April 2023}}{{sfn|Zucker|2003}}


== विवाद और खतरे ==
मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से अपेक्षाकृत अच्छा रहता है।{{sfn|McCarthy|2007}} लेकिन तीव्रता से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को प्रयुक्त करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धिमत्ता से अनुरूपन की स्वीकृति देते हैं। जबकि दृढ़ एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है। {{weasel inline|text=यह व्यापक रूप से सहमत है।|date=April 2023}} एआई शोधकर्ताओं ने इस विषय पर वार्तालाप की है कि [[भावात्मक कंप्यूटिंग]] है या नहीं है।<ref>{{Cite journal |last=Deane |first=George |date=2022 |title=Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence |url=http://dx.doi.org/10.1162/artl_a_00368 |journal=Artificial Life |volume=28 |issue=3 |pages=289–309 |doi=10.1162/artl_a_00368 |pmid=35881678 |s2cid=251069071 |issn=1064-5462}}</ref> एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों को स्वीकृति देता है {{clarify|text=स्वयं का मस्तिष्क रखने के लिए|date=April 2023}}.{{sfn|Clocksin|2003}} भावनाएँ मनुष्य को अनुभवों को याद रखने में सहायता करती हैं।{{sfn|Gelernter|2010}} डेविड गेलर्नटर लिखते हैं कि कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी सूक्ष्मताओ का अनुकरण नहीं कर सकता है।{{sfn|Gelernter|2010}} भावना के दृढ़ एआई शोध का विषय बने रहने की संभावना है।<ref>{{cite journal|doi=10.1016/j.bushor.2018.08.004|title=Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence | volume=62 | year=2019|journal=Business Horizons|pages=15–25  | last1 = Kaplan | first1 = Andreas | last2 = Haenlein | first2 = Michael|s2cid=158433736 }}</ref><ref>{{Cite journal |last1=Priyadarshini |first1=Ishaani |last2=Cotton |first2=Chase |date=2022 |title=AI Cannot Understand Memes: Experiments with OCR and Facial Emotions |url=https://www.techscience.com/cmc/v70n1/44391 |journal=Computers, Materials & Continua |language=en |volume=70 |issue=1 |pages=781–800 |doi=10.32604/cmc.2022.019284 |s2cid=239639188 |issn=1546-2226 |doi-access=free |access-date=28 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202192655/https://www.techscience.com/cmc/v70n1/44391 |url-status=live }}</ref>
== विवाद और जोखिम ==


=== व्यवहार्यता ===
=== व्यवहार्यता ===
{{As of|2022}}, AGI सट्टा बना हुआ है।<ref name="spec1">{{cite report |last=Boucher |first=Philip |date=March 2019 |url=https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |title=आर्टिफिशियल इंटेलिजेंस कैसे काम करता है|section=Concluding remarks |quote=आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।|publisher=European Parliamentary Research Service |access-date=March 3, 2020 |archive-date=3 March 2020 |archive-url=https://web.archive.org/web/20200303125008/https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |url-status=live }}</ref><ref name="spec2">[https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf itu.int: Beyond Mad?: The Race For Artificial General Intelligence] {{Webarchive|url=https://web.archive.org/web/20201109025023/https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf |date=9 November 2020 }}, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020</ref> ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई के अग्रदूत हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि मशीनें बीस साल के भीतर कोई भी काम करने में सक्षम होंगी जो एक आदमी कर सकता है। यह भविष्यवाणी सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक [[पॉल एलन]] का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं और अनुभूति की वैज्ञानिक रूप से गहरी समझ की आवश्यकता होगी।<ref>{{cite news|last1=Allen|first1=Paul |last2=Greaves |first2=Mark |title=विलक्षणता निकट नहीं है|url=http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ |access-date=17 September 2014 |work=[[MIT Technology Review]] |date=October 12, 2011 }}</ref> [[अभिभावक]] में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धि के बीच की खाई वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज़-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई जितनी चौड़ी है।<ref>{{cite news |last1=Winfield |first1=Alan |title=आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा|url=https://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield |access-date=17 September 2014 |work=[[The Guardian]] |archive-url=https://web.archive.org/web/20140917135230/http://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield|archive-date=17 September 2014|url-status=live}}</ref>
एजीआई 2022 से काल्पनिक बना हुआ है।<ref name="spec1">{{cite report |last=Boucher |first=Philip |date=March 2019 |url=https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |title=आर्टिफिशियल इंटेलिजेंस कैसे काम करता है|section=Concluding remarks |quote=आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।|publisher=European Parliamentary Research Service |access-date=March 3, 2020 |archive-date=3 March 2020 |archive-url=https://web.archive.org/web/20200303125008/https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |url-status=live }}</ref><ref name="spec2">[https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf itu.int: Beyond Mad?: The Race For Artificial General Intelligence] {{Webarchive|url=https://web.archive.org/web/20201109025023/https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf |date=9 November 2020 }}, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020</ref> ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं इस पर सभी के विचार अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा कार्य करने में सक्षम हो सकती है जो एक मनुष्य कर सकता है।" यह पूर्वानुमान सच होने में विफल है। माइक्रोसॉफ्ट के सह-संस्थापक [[पॉल एलन]] का मानना ​​था कि 21वीं सदी में इस प्रकार की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं और अनुभूति की वैज्ञानिक रूप से गहरी समझ की आवश्यकता है।<ref>{{cite news|last1=Allen|first1=Paul |last2=Greaves |first2=Mark |title=विलक्षणता निकट नहीं है|url=http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ |access-date=17 September 2014 |work=[[MIT Technology Review]] |date=October 12, 2011 }}</ref> द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तीव्र प्रकाश अंतरिक्ष उड़ान के बीच की खाई है।<ref>{{cite news |last1=Winfield |first1=Alan |title=आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा|url=https://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield |access-date=17 September 2014 |work=[[The Guardian]] |archive-url=https://web.archive.org/web/20140917135230/http://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield|archive-date=17 September 2014|url-status=live}}</ref>
अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन [[ह्यूबर्ट ड्रेफस]] और [[रोजर पेनरोज़]] जैसे कुछ लोग मजबूत एआई हासिल करने की संभावना से इनकार करते हैं।{{sfn|Clocksin|2003}}<ref name=":0">{{Cite journal |last=Fjelland |first=Ragnar |date=2020-06-17 |title=सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा|journal=Humanities and Social Sciences Communications |language=en |volume=7 |issue=1 |pages=1–9 |doi=10.1057/s41599-020-0494-4 |s2cid=219710554 |issn=2662-9992 |doi-access=free }}</ref> <!-- "One problem is that while humans are complex, we are not general intelligences." [If this is relevant, it is so in some other section, and deserves a citation and more discussion of the implications.] --> जॉन मैक्कार्थी (कंप्यूटर वैज्ञानिक) उन लोगों में से हैं जो मानते हैं कि मानव-स्तरीय एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है।{{sfn|McCarthy|2007}} एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 तक होगा जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया कभी नहीं जब वही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ।<ref name="new yorker doomsday">{{cite news|author1=Raffi Khatchadourian|title=The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?|url=http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|access-date=7 February 2016|work=[[The New Yorker (magazine)|The New Yorker]]|date=23 November 2015|archive-url=https://web.archive.org/web/20160128105955/http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|archive-date=28 January 2016|url-status=live}}</ref><ref>Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.</ref> आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए #Tests_for_confirming_human-level_AGI|Tests के ऊपर पाए जा सकते हैं।


मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि [] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की भविष्यवाणी करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि भविष्यवाणी किए जाने के समय से 15 से 25 साल के बीच . उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा। <!-- "There was no difference between predictions made by experts and non-experts." see: https://aiimpacts.org/error-in-armstrong-and-sotala-2012/--><ref>Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In ''Beyond AI: Artificial Dreams'', edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia</ref>
अधिकांश एआई शोधकर्ताओं का मानना ​​है कि दृढ़ एआई को भविष्य में प्राप्त किया जा सकता है लेकिन [[ह्यूबर्ट ड्रेफस]] और [[रोजर पेनरोज़]] जैसे कुछ विचारक दृढ़ एआई प्राप्त करने की संभावना को अस्वीकृत करते हैं।{{sfn|Clocksin|2003}}<ref name=":0">{{Cite journal |last=Fjelland |first=Ragnar |date=2020-06-17 |title=सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा|journal=Humanities and Social Sciences Communications |language=en |volume=7 |issue=1 |pages=1–9 |doi=10.1057/s41599-020-0494-4 |s2cid=219710554 |issn=2662-9992 |doi-access=free }}</ref> जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जा सकता है लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का शुद्धता का अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर औसत 2081 के साथ विशेषज्ञों में से 16.5% ने उत्तर दिया "कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके अतिरिक्त 90% विशेषज्ञों ने आत्मविश्वास के साथ<ref name="new yorker doomsday">{{cite news|author1=Raffi Khatchadourian|title=The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?|url=http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|access-date=7 February 2016|work=[[The New Yorker (magazine)|The New Yorker]]|date=23 November 2015|archive-url=https://web.archive.org/web/20160128105955/http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|archive-date=28 January 2016|url-status=live}}</ref><ref>Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.</ref> आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।<!-- "One problem is that while humans are complex, we are not general intelligences." [If this is relevant, it is so in some other section, and deserves a citation and more discussion of the implications.] --><!-- "There was no difference between predictions made by experts and non-experts." see: https://aiimpacts.org/error-in-armstrong-and-sotala-2012/-->


यांत्रिक बुद्धिमत्ता शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि " 60 साल की समय सीमा में मानव स्तर एआई के आगमन का पूर्वानुमान करने की दिशा में एक दृढ़ पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित" एआई उन्होंने 1950 और 2012 के बीच किए गए 95 पूर्वानुमान का विश्लेषण किया कि मानव स्तर एआई कब तक आ सकती है।<ref>Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In ''Beyond AI: Artificial Dreams'', edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia</ref>
=== मानव अस्तित्व के लिए संभावित जोखिम{{anchor|Risk_of_human_extinction}}===
{{Main|कृत्रिम सामान्य बुद्धि से अस्तित्वगत जोखिम|एआई सुरक्षा}}


=== मानव अस्तित्व के लिए संभावित खतरा{{anchor|Risk_of_human_extinction}}===
एआई अभिधारणा मनुष्यों के लिए एक अस्तित्वगत जोखिम उत्पन्न करता है और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक आंकड़ा द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित जोखिम की मूल अभिधारणा का समर्थन करते हैं। बिल गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना को प्रस्तुत किया है।<ref>{{Cite journal |last=Müller |first=Vincent C. |date=2014-07-03 |title=सामान्य कृत्रिम बुद्धि के जोखिम|journal=Journal of Experimental & Theoretical Artificial Intelligence |volume=26 |issue=3 |pages=297–301 |doi=10.1080/0952813X.2014.895110 |s2cid=31835019 |issn=0952-813X|doi-access=free }}</ref><ref name="physica_scripta" /><ref>{{Cite journal |last=Turchin |first=Alexey |date=2019-03-01 |title=भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना|url=https://www.sciencedirect.com/science/article/pii/S0016328718301319 |journal=Futures |language=en |volume=107 |pages=45–58 |doi=10.1016/j.futures.2018.11.007 |s2cid=158975847 |issn=0016-3287}}</ref> <ref>{{cite news |last1=Rawlinson |first1=Kevin |title=|url=https://www.bbc.co.uk/news/31047780 |work=[[BBC News]] |access-date=30 January 2015 |archive-date=29 January 2015 |archive-url=https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780 |url-status=live }}</ref>{{cquote|इसलिए मानव के कई लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए प्रत्येक संभव प्रयास कर रहे हैं यदि अपेक्षाकृत एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा कि हम कुछ दशकों में अभिगम्य होते है तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है' जब आप यहां पहुंचें तो हमें कॉल करें{{endash}}हम रोशनी चालू रखेंगे?' लगभग नहीं{{endash}}लेकिन एआई के साथ संभव यही हो रहा है।<ref name="hawking editorial">{{cite news |title=Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence&nbsp;– but are we taking AI seriously enough?' |work=[[The Independent (UK)]] |url=https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |access-date=3 December 2014 |archive-date=25 September 2015 |archive-url=https://web.archive.org/web/20150925153716/http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |url-status=live }}</ref>}}
{{Main|Existential risk from artificial general intelligence|AI safety}}


थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, [[एलोन मस्क]], [[बिल गेट्स]] और [[स्टीफन हॉकिंग]] सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, [[रोमन यमपोलस्की]] और एलेक्सी तुरचिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं।<ref>{{Cite journal |last=Müller |first=Vincent C. |date=2014-07-03 |title=सामान्य कृत्रिम बुद्धि के जोखिम|journal=Journal of Experimental & Theoretical Artificial Intelligence |volume=26 |issue=3 |pages=297–301 |doi=10.1080/0952813X.2014.895110 |s2cid=31835019 |issn=0952-813X|doi-access=free }}</ref><ref name="physica_scripta" /><ref>{{Cite journal |last=Turchin |first=Alexey |date=2019-03-01 |title=भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना|url=https://www.sciencedirect.com/science/article/pii/S0016328718301319 |journal=Futures |language=en |volume=107 |pages=45–58 |doi=10.1016/j.futures.2018.11.007 |s2cid=158975847 |issn=0016-3287}}</ref> गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं,<ref>{{cite news |last1=Rawlinson |first1=Kevin |title=माइक्रोसॉफ्ट के बिल गेट्स का कहना है कि एआई एक खतरा है|url=https://www.bbc.co.uk/news/31047780 |work=[[BBC News]] |access-date=30 January 2015 |archive-date=29 January 2015 |archive-url=https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780 |url-status=live }}</ref> और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: {{cquote|So, facing possible futures of incalculable benefits and risks, the experts are surely doing everything possible to ensure the best outcome, right? Wrong. If a superior alien civilisation sent us a message saying, 'We'll arrive in a few decades,' would we just reply, 'OK, call us when you get here{{endash}}we'll leave the lights on?' Probably not{{endash}}but this is more or less what is happening with AI.<ref name="hawking editorial">{{cite news |title=Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence&nbsp;– but are we taking AI seriously enough?' |work=[[The Independent (UK)]] |url=https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |access-date=3 December 2014 |archive-date=25 September 2015 |archive-url=https://web.archive.org/web/20150925153716/http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |url-status=live }}</ref>}}
एजीआई से सम्बद्ध जोखिमों को 2021 की व्यवस्थित समीक्षा में डेटा की कमी को ध्यान में रखते हुए निम्नलिखित संभावित जोखिम पाए गए है। जिसमे एजीआई स्वयं को मानव प्रबंधकों के नियंत्रण से अलग कर रहा है और असुरक्षित लक्ष्यों को सम्मिलित किया जा रहा है या असुरक्षित एजीआई, एजीआई की विकास नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन को विकसित कर रहा है।<ref>{{Cite journal |last1=McLean |first1=Scott |last2=Read |first2=Gemma J. M. |last3=Thompson |first3=Jason |last4=Baber |first4=Chris |last5=Stanton |first5=Neville A. |last6=Salmon |first6=Paul M. |date=2021-08-13 |title=The risks associated with Artificial General Intelligence: A systematic review |journal=Journal of Experimental & Theoretical Artificial Intelligence |pages=1–15 |doi=10.1080/0952813X.2021.1964003 |s2cid=238643957 |issn=0952-813X |doi-access=free }}</ref>
 
एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: एजीआई मानव मालिकों/प्रबंधकों के नियंत्रण से खुद को हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई का विकास, एजीआई के साथ खराब नैतिकता, नैतिकता और मूल्य; AGI का अपर्याप्त प्रबंधन, और अस्तित्वगत जोखिम।<ref>{{Cite journal |last1=McLean |first1=Scott |last2=Read |first2=Gemma J. M. |last3=Thompson |first3=Jason |last4=Baber |first4=Chris |last5=Stanton |first5=Neville A. |last6=Salmon |first6=Paul M. |date=2021-08-13 |title=The risks associated with Artificial General Intelligence: A systematic review |journal=Journal of Experimental & Theoretical Artificial Intelligence |pages=1–15 |doi=10.1080/0952813X.2021.1964003 |s2cid=238643957 |issn=0952-813X |doi-access=free }}</ref>
कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के बारे में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन [[एआई नियंत्रण समस्या]] को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई जारी रहेगी अधीक्षण तक पहुँचने के बाद, विनाशकारी के बजाय एक दोस्ताना कृत्रिम बुद्धि में व्यवहार करने के लिए?<ref name="physica_scripta" /><ref>{{cite book |last1=Bostrom |first1=Nick |author-link=Nick Bostrom |title=Superintelligence: Paths, Dangers, Strategies |date=2014 |isbn=978-0199678112 |edition=First |title-link=Superintelligence: Paths, Dangers, Strategies}}<!-- preface --></ref> एआई हथियारों की होड़ से नियंत्रण समस्या का समाधान जटिल है,<ref>{{Cite journal |last1=Naudé |first1=Wim |last2=Dimitri |first2=Nicola |date=2020-06-01 |title=The race for an artificial general intelligence: implications for public policy |journal=AI & Society |language=en |volume=35 |issue=2 |pages=367–379 |doi=10.1007/s00146-019-00887-x |s2cid=52045822 |issn=1435-5655 |doi-access=free }}</ref><ref>{{Cite journal |last=Torres |first=Phil |date=2019-05-04 |title=कृत्रिम सामान्य बुद्धि की संभावना और जोखिम|url=https://doi.org/10.1080/00963402.2019.1604873 |journal=Bulletin of the Atomic Scientists |volume=75 |issue=3 |pages=105–108 |doi=10.1080/00963402.2019.1604873 |bibcode=2019BuAtS..75c.105T |s2cid=150498464 |issn=0096-3402 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181016/https://www.tandfonline.com/doi/full/10.1080/00963402.2019.1604873 |url-status=live }}</ref> जो लगभग निश्चित रूप से एक से अधिक राष्ट्र-राज्यों द्वारा एजीआई के सैन्यीकरण और शस्त्रीकरण को देखेगा, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होगा, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।<ref>{{Citation |last1=Turchin |first1=Alexey |title=Military AI as a Convergent Goal of Self-Improving AI |date=2018-07-27 |url=http://dx.doi.org/10.1201/9781351251389-25 |work=Artificial Intelligence Safety and Security |pages=375–393 |place=First edition. {{!}} Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018. |publisher=Chapman and Hall/CRC |isbn=978-1-351-25138-9 |access-date=2022-08-29 |last2=Denkenberger |first2=David |doi=10.1201/9781351251389-25 |s2cid=65323952 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181021/https://www.taylorfrancis.com/chapters/edit/10.1201/9781351251389-25/military-ai-convergent-goal-self-improving-ai-alexey-turchin-david-denkenberger |url-status=live }}</ref><ref>{{Cite journal |last1=Carayannis |first1=Elias G. |last2=Draper |first2=John |date=2022-01-11 |title=एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन|url=https://doi.org/10.1007/s00146-021-01382-y |journal=AI & Society |pages=1–14 |language=en |doi=10.1007/s00146-021-01382-y |issn=1435-5655 |pmc=8748529 |pmid=35035113 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181018/https://link.springer.com/article/10.1007/s00146-021-01382-y |url-status=live }}</ref>
थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ। [[जेरोन लैनियर]] ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, एक भ्रम है और अमीरों द्वारा एक शानदार ठगी है।<ref name="atlantic-but-what">{{cite magazine |url=https://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |title=But What Would the End of Humanity Mean for Me? |magazine=The Atlantic |date=9 May 2014 |first=James |last=Hamblin |access-date=12 December 2015 |archive-date=4 June 2014 |archive-url=https://web.archive.org/web/20140604211145/http://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |url-status=live }}</ref>
बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक [[गॉर्डन बेल]] का तर्क है कि [[तकनीकी विलक्षणता]] तक पहुंचने से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक [[गॉर्डन मूर]] ने घोषणा की: मैं एक संशयवादी हूं। मुझे विश्वास नहीं है [एक तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है।<ref>{{cite news |title=टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी|url=https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |access-date=8 April 2020 |work=IEEE Spectrum: Technology, Engineering, and Science News |issue=SPECIAL REPORT: THE SINGULARITY |date=1 June 2008 |language=en |archive-date=30 April 2019 |archive-url=https://web.archive.org/web/20190430150019/https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |url-status=live }}</ref> [[Baidu]] के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक [[एंड्रयू एनजी]] का कहना है कि एआई के अस्तित्वगत जोखिम के बारे में चिंता करना मंगल पर अत्यधिक जनसंख्या के बारे में चिंता करने जैसा है, जबकि हमने अभी तक ग्रह पर पैर भी नहीं रखा है।<ref name=shermer>{{cite journal|last1=Shermer|first1=Michael|title=सर्वनाश एआई|url=https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|access-date=27 November 2017|journal=Scientific American|date=1 March 2017|volume=316 |issue=3 |pages=77|language=en|doi=10.1038/scientificamerican0317-77|pmid=28207698 |bibcode=2017SciAm.316c..77S|archive-date=1 December 2017|archive-url=https://web.archive.org/web/20171201051401/https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|url-status=live}}</ref>


कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं कि किस प्रकार के सुरक्षा उपाय, एल्गोरिदम या संरचनात्मक प्रोग्राम इस संभावना को अधिकतम करने के लिए प्रयुक्त कर सकते हैं कि उनकी पुनरावर्ती सुधार एआई मे उच्च बुद्धिमत्ता तक अभिगमन के बाद विनाशकारी के अतिरिक्त मैत्रीपूर्ण तरीके से व्यवहार करना प्रारम्भ रखें?<ref name="physica_scripta" /><ref>{{cite book |last1=Bostrom |first1=Nick |author-link=Nick Bostrom |title=Superintelligence: Paths, Dangers, Strategies |date=2014 |isbn=978-0199678112 |edition=First |title-link=Superintelligence: Paths, Dangers, Strategies}}<!-- preface --></ref> नियंत्रण समस्या को हल करना एआई उपकरणो की दौड़ से जटिल है<ref>{{Cite journal |last1=Naudé |first1=Wim |last2=Dimitri |first2=Nicola |date=2020-06-01 |title=The race for an artificial general intelligence: implications for public policy |journal=AI & Society |language=en |volume=35 |issue=2 |pages=367–379 |doi=10.1007/s00146-019-00887-x |s2cid=52045822 |issn=1435-5655 |doi-access=free }}</ref><ref>{{Cite journal |last=Torres |first=Phil |date=2019-05-04 |title=कृत्रिम सामान्य बुद्धि की संभावना और जोखिम|url=https://doi.org/10.1080/00963402.2019.1604873 |journal=Bulletin of the Atomic Scientists |volume=75 |issue=3 |pages=105–108 |doi=10.1080/00963402.2019.1604873 |bibcode=2019BuAtS..75c.105T |s2cid=150498464 |issn=0096-3402 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181016/https://www.tandfonline.com/doi/full/10.1080/00963402.2019.1604873 |url-status=live }}</ref> जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखने मे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई के परिणामस्वरूप एजीआई सक्षम युद्ध होता है और एआई मिसलिग्न्मेंट की स्थिति में एजीआई निर्देशित युद्ध संभावित रूप से सभी मानवता के विरुद्ध है।<ref>{{Citation |last1=Turchin |first1=Alexey |title=Military AI as a Convergent Goal of Self-Improving AI |date=2018-07-27 |url=http://dx.doi.org/10.1201/9781351251389-25 |work=Artificial Intelligence Safety and Security |pages=375–393 |place=First edition. {{!}} Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018. |publisher=Chapman and Hall/CRC |isbn=978-1-351-25138-9 |access-date=2022-08-29 |last2=Denkenberger |first2=David |doi=10.1201/9781351251389-25 |s2cid=65323952 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181021/https://www.taylorfrancis.com/chapters/edit/10.1201/9781351251389-25/military-ai-convergent-goal-self-improving-ai-alexey-turchin-david-denkenberger |url-status=live }}</ref><ref>{{Cite journal |last1=Carayannis |first1=Elias G. |last2=Draper |first2=John |date=2022-01-11 |title=एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन|url=https://doi.org/10.1007/s00146-021-01382-y |journal=AI & Society |pages=1–14 |language=en |doi=10.1007/s00146-021-01382-y |issn=1435-5655 |pmc=8748529 |pmid=35035113 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181018/https://link.springer.com/article/10.1007/s00146-021-01382-y |url-status=live }}</ref>


अवधारणा है कि एआई अस्तित्वगत जोखिम या कई अवरोधक उत्पन्न कर सकता है। संदेहवादी कभी-कभी यह आरोप लगाते हैं कि अवधारणा क्रिप्टो-धार्मिक है एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास के स्थान पर उच्च बुद्धिमत्ता की संभावना में एक तर्कहीन विश्वास के साथ [[जेरोन लैनियर]] ने 2014 में तर्क दिया कि यह विचार कि शीघ्रता मशीनें किसी भी प्रकार से बुद्धिमत्ता थीं। "एक भ्रम" और अमीरों द्वारा यह एक "अद्भुत चाल" है।<ref name="atlantic-but-what">{{cite magazine |url=https://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |title=But What Would the End of Humanity Mean for Me? |magazine=The Atlantic |date=9 May 2014 |first=James |last=Hamblin |access-date=12 December 2015 |archive-date=4 June 2014 |archive-url=https://web.archive.org/web/20140604211145/http://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |url-status=live }}</ref> अत्यधिक आलोचना का तर्क है कि कम समय में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक [[गॉर्डन बेल]] का तर्क है कि [[तकनीकी विलक्षणता]] तक अभिगमन से पहले ही मानव जाति स्वयं को नष्ट कर सकती है मूर के नियम के मूल प्रस्तावक [[गॉर्डन मूर]] ने घोषणा किया कि "मैं एक संदेहवादी हूं मुझे विश्वास नहीं है कि तकनीकी विलक्षणता होने की संभावना है कम से कम लंबे समय तक और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है।"<ref>{{cite news |title=टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी|url=https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |access-date=8 April 2020 |work=IEEE Spectrum: Technology, Engineering, and Science News |issue=SPECIAL REPORT: THE SINGULARITY |date=1 June 2008 |language=en |archive-date=30 April 2019 |archive-url=https://web.archive.org/web/20190430150019/https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |url-status=live }}</ref> बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक [[एंड्रयू एनजी]] कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है जबकि हमने अभी तक ग्रह पर पैर भी नहीं रखा है।"<ref name="shermer">{{cite journal|last1=Shermer|first1=Michael|title=सर्वनाश एआई|url=https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|access-date=27 November 2017|journal=Scientific American|date=1 March 2017|volume=316 |issue=3 |pages=77|language=en|doi=10.1038/scientificamerican0317-77|pmid=28207698 |bibcode=2017SciAm.316c..77S|archive-date=1 December 2017|archive-url=https://web.archive.org/web/20171201051401/https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|url-status=live}}</ref>
== यह भी देखें ==
== यह भी देखें ==
{{div col|colwidth=18em}}
{{div col|colwidth=18em}}


* {{Annotated link |Artificial brain}}
* {{Annotated link |कृत्रिम मस्तिष्क}}
* {{Annotated link |AI safety}}
* {{Annotated link |एआई सुरक्षा}}
* {{Annotated link |AI alignment}}
* {{Annotated link |एआई संरेखण}}
*{{Annotated link|A.I. Rising}}
*{{Annotated link|एआई विकास}}
* {{Annotated link |Automated machine learning}}
* {{Annotated link |स्वचालित यंत्र अधिगम}}
* {{Annotated link |BRAIN Initiative}}
* {{Annotated link |मस्तिष्क दृष्टिकोण}}
* {{Annotated link |China Brain Project}}
* {{Annotated link |चीन मस्तिष्क परियोजना}}
* {{Annotated link |Future of Humanity Institute}}
* {{Annotated link |मानवता संस्थान का भविष्य}}
* {{Annotated link |General game playing}}
* {{Annotated link |सामान्य खेल खेलना}}
* {{Annotated link |Human Brain Project}}
* {{Annotated link |मानव मस्तिष्क परियोजना}}
* {{Annotated link|Intelligence amplification}} (में)
* {{Annotated link |मशीन नैतिकता}}
* {{Annotated link |Machine ethics}}
* {{Annotated link |बहु-कार्य अधिगम}}
* {{Annotated link |Multi-task learning}}
* {{Annotated link |कृत्रिम बुद्धि की रूपरेखा}}
* {{Annotated link |Outline of artificial intelligence}}
* {{Annotated link | ट्रांसह्युमेनिज़म}}
* {{Annotated link |Transhumanism}}
* {{Annotated link | कृत्रिम बुद्धिमत्ता}}
* {{Annotated link |Synthetic intelligence}}
* {{Annotated link |स्थानांतरित अधिगम}}
* {{Annotated link |Transfer learning}}
* {{Annotated link |लोएबनेर पुरस्कार}}
* {{Annotated link |Loebner Prize}}
* {{Annotated link |कृत्रिम बुद्धिमत्ता के लिए हार्डवेयर}}
* {{Annotated link |Hardware for artificial intelligence}}
* {{Annotated link |दुर्बल कृत्रिम बुद्धिमत्ता}}
* {{Annotated link |Weak artificial intelligence}}
{{div col end}}
{{div col end}}


==टिप्पणियाँ==
==टिप्पणियाँ==
{{notelist}}
{{notelist}}
==संदर्भ==
==संदर्भ==
{{reflist|30em}}
{{reflist|30em}}
Line 345: Line 328:


==बाहरी संबंध==
==बाहरी संबंध==
* [https://cis.temple.edu/~pwang/AGI-Intro.html The AGI portal maintained by Pei Wang]
* [https://cis.temple.edu/~pwang/AGI-Intro.html The एजीआई portal mएआईntएआईned by Pei Wang]
* [https://web.archive.org/web/20050405071221/http://genesis.csail.mit.edu/index.html The Genesis Group at MIT's CSAIL] – Modern research on the computations that underlay human intelligence
* [https://web.archive.org/web/20050405071221/http://genesis.csail.mit.edu/index.html The Genesis Group at MIT's CSएआईL] – Modern research on the computations that underlay human intelligence
* [https://opencog.org/ OpenCog open source project to develop a human-level AI]
* [https://opencog.org/ ओपीईएनCog ओपीईएन source project to develop a human-level एआई]
* [http://academia.wikia.com/wiki/A_Method_for_Simulating_the_Process_of_Logical_Human_Thought Simulating logical human thought]
* [http://academia.wikia.com/wiki/A_Method_for_Simulating_the_Process_of_Logical_Human_Thought Simulating logical human thought]
* [https://www.openphilanthropy.org/research/what-do-we-know-about-ai-timelines/ What Do We Know about AI Timelines?] – Literature review
* [https://www.openphilanthropy.org/research/what-do-we-know-about-ai-timelines/ What Do We Know about एआई Timelines?] – Literature review


{{Existential risk from artificial intelligence}}
{{Existential risk from artificial intelligence}}


{{DEFAULTSORT:Artificial general intelligence}}[[Category: काल्पनिक तकनीक]] [[Category: कृत्रिम होशियारी]] [[Category: कम्प्यूटेशनल तंत्रिका विज्ञान]]
{{DEFAULTSORT:Artificial general intelligence}}
 
 


[[Category: Machine Translated Page]]
[[Category:All Wikipedia articles in need of updating|Artificial general intelligence]]
[[Category:Created On 10/05/2023]]
[[Category:All Wikipedia articles that are incomprehensible|Artificial general intelligence]]
[[Category:All articles needing copy edit|Artificial general intelligence]]
[[Category:All articles with minor POV problems|Artificial general intelligence]]
[[Category:All articles with specifically marked weasel-worded phrases|Artificial general intelligence]]
[[Category:All articles with unsourced statements|Artificial general intelligence]]
[[Category:Articles needing more detailed references|Artificial general intelligence]]
[[Category:Articles with hatnote templates targeting a nonexistent page|Artificial general intelligence]]
[[Category:Articles with invalid date parameter in template|Artificial general intelligence]]
[[Category:Articles with minor POV problems from April 2023|Artificial general intelligence]]
[[Category:Articles with specifically marked weasel-worded phrases from April 2023|Artificial general intelligence]]
[[Category:Articles with unsourced statements from April 2011|Artificial general intelligence]]
[[Category:CS1 Deutsch-language sources (de)]]
[[Category:CS1 English-language sources (en)]]
[[Category:CS1 errors]]
[[Category:CS1 maint]]
[[Category:CS1 български-language sources (bg)]]
[[Category:Citation Style 1 templates|M]]
[[Category:Collapse templates|Artificial general intelligence]]
[[Category:Created On 10/05/2023|Artificial general intelligence]]
[[Category:Lua-based templates|Artificial general intelligence]]
[[Category:Machine Translated Page|Artificial general intelligence]]
[[Category:Multi-column templates|Artificial general intelligence]]
[[Category:Navigational boxes| ]]
[[Category:Navigational boxes without horizontal lists|Artificial general intelligence]]
[[Category:Pages using div col with small parameter|Artificial general intelligence]]
[[Category:Pages with reference errors]]
[[Category:Pages with script errors|Artificial general intelligence]]
[[Category:Sidebars with styles needing conversion|Artificial general intelligence]]
[[Category:Template documentation pages|Documentation/doc]]
[[Category:Templates Translated in Hindi|Artificial general intelligence]]
[[Category:Templates Vigyan Ready|Artificial general intelligence]]
[[Category:Templates based on the Citation/CS1 Lua module]]
[[Category:Templates generating COinS|Cite magazine]]
[[Category:Templates generating microformats|Artificial general intelligence]]
[[Category:Templates that add a tracking category|Artificial general intelligence]]
[[Category:Templates that are not mobile friendly|Artificial general intelligence]]
[[Category:Templates that generate short descriptions|Artificial general intelligence]]
[[Category:Templates using TemplateData|Artificial general intelligence]]
[[Category:Templates using under-protected Lua modules|Artificial general intelligence]]
[[Category:Use British English from March 2019|Artificial general intelligence]]
[[Category:Use dmy dates from December 2019|Artificial general intelligence]]
[[Category:Webarchive template wayback links]]
[[Category:Wikipedia articles in need of updating from April 2023|Artificial general intelligence]]
[[Category:Wikipedia articles needing clarification from April 2023|Artificial general intelligence]]
[[Category:Wikipedia articles needing clarification from September 2021|Artificial general intelligence]]
[[Category:Wikipedia articles needing copy edit from April 2023|Artificial general intelligence]]
[[Category:Wikipedia articles that are incomprehensible from April 2023|Artificial general intelligence]]
[[Category:Wikipedia fully protected templates|Div col]]
[[Category:Wikipedia metatemplates|Artificial general intelligence]]
[[Category:कम्प्यूटेशनल तंत्रिका विज्ञान|Artificial general intelligence]]
[[Category:काल्पनिक तकनीक|Artificial general intelligence]]
[[Category:कृत्रिम होशियारी|Artificial general intelligence]]

Latest revision as of 16:53, 17 May 2023

Unsolved problem in computer science:

Could an artificial general intelligence be created? If so, how?

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार की काल्पनिक बुद्धिमत्ता है। एजीआई मे अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य पशु कर सकते हैं।[1][2] वैकल्पिक रूप से एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। एजीआई बनाना कुछ कृत्रिम बुद्धिमत्ता शोध और ओपीईएनएआई,[3] डीपमाइंड[4] और एंथ्रोपिक जैसी संस्थाओ का प्राथमिक लक्ष्य है। वैज्ञानिक साहित्य और भविष्य अध्ययन में एजीआई एक सामान्य विषय है।[3]

एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही वार्तालाप का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है दूसरों लोगों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है और अल्पसंख्यक मानते हैं कि इसे कभी प्राप्त नहीं किया जा सकता है।[5] इसके अतिरिक्त इस विषय पर भी वार्तालाप चल रही है कि क्या आधुनिक सघन अध्ययन प्रणाली जैसे कि जीपीटी-4, एजीआई का प्रारंभिक अभी तक अपेक्षाकृत अर्ध रूप है।[6] या इसके लिए नए दृष्टिकोण की आवश्यकता है।[7]

एजीआई के मानवता के लिए जिखिम उत्पन्न करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है जबकि अन्य एजीआई के विकास को एक जोखिम प्रस्तुत करने के लिए बहुत दूरस्थ पाते हैं।[8][5][7]

2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई है।[9]

शब्दावली

एजीआई को दृढ़ एआई[10][11][12] और पूर्ण एआई[13] को सामान्य बुद्धिमत्ता प्रक्रिया के रूप में भी जाना जाता है।[14] हालांकि, कुछ शैक्षणिक स्रोत कंप्यूटर प्रोग्राम के लिए "दृढ़ एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। इसके विपरीत कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।[15][11] कुछ शैक्षणिक स्रोत "कममहत्व एआई" का उपयोग किसी भी प्रोग्राम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान स्मरण शक्ति रखते हैं।[lower-alpha 1] संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई और उच्च बुद्धिमत्ता सम्मिलित हैं।[5]

विशेषताएं

एआई के लिए विभिन्न मानदंड (सबसे प्रसिद्ध ट्यूरिंग परीक्षण) प्रस्तावित किए गए हैं लेकिन व्यापक रूप से कोई परिभाषा स्वीकृत नहीं की गई है।[lower-alpha 2]

एआई लक्षण

हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:[17]

और यदि आवश्यक हो तो किसी दिए गए लक्ष्य को पूरा करने लिए कृत्रिम बुद्धिमत्ता एकीकरण प्रणाली का प्रयोग करना जो अन्य महत्वपूर्ण क्षमताओं में सम्मिलित हैं:[18]

  • मशीन धारणा की क्षमता (जैसे कंप्यूटर दृष्टि आदि)
  • कार्य करने की क्षमता (उदाहरण के लिए वस्तुओं को स्थानांतरित करना और परिवर्तित करना, शोध करने के लिए स्थान परिवर्तित करना आदि।)

इसमें जोखिम का पता लगाने और प्रतिक्रिया देने की क्षमता सम्मिलित है।[19] कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल बुद्धिमत्ता और निर्णय लेने) काल्पनिक उपन्यास, मानसिक छवियों या अवधारणाओं को बनाने की क्षमता और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।[20][21]

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमत्ता घटक आदि सम्मिलित हैं। हालाँकि इस विषय पर कोई सहमति नहीं है कि आधुनिक एआई प्रणाली उन्हें पर्याप्त मात्रा में सुरक्षित रखते हैं।

गणितीय औपचारिकताएँ

एजीआई का एक गणितीय शुद्ध विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित प्रस्तावित एजीआई घटक "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता को अधिकतम करता है।[22] इस प्रकार के एजीआई मानव-समान व्यवहार को प्रदर्शित करने के अतिरिक्त बुद्धिमत्ता की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता को सार्वभौमिक कृत्रिम बुद्धिमत्ता भी कहा जाता है।[23][24]

2015 में जनलीक और मार्कस हटर ने दिखाया कि लेग-हटर बुद्धिमत्ता वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक घटक की क्षमता एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (यूटीएम) के संबंध में मापा जाता है।[25] एआईएक्सआई सबसे बुद्धिमत्ता नीति है यदि यह उसी यूटीएम का उपयोग करती है जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलित इष्टतमता गुणों को कम करता है।"[26] यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है। जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलग होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह भौतिक द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।[27] कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं यह धारणा अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है।[27] इसके बाद माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान के साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता या समकक्ष सामान्यीकरण करने की क्षमता होती है।[28]</nowiki></ref> इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना, यदि सक्रियतावाद धारण है। भौतिक द्वैतवाद नहीं है तो बुद्धिमत्ता के लिए सम्पीडन आवश्यक या पर्याप्त नहीं होता है बुद्धिमत्ता पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें) इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है। जैसे कि प्राकृतिक भाषा का उपयोग कई कारकों पर निर्भर करता है।[29] उदाहरण के लिए जिस तरीके से घटक सन्निहित है[30] या इसका कोई पुरस्कृत कार्य है जो भूख, दर्द और इसी प्रकार की अनुभूति के मानवीय मनुष्यों के निकट है।[31]

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण

मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है। जिनमें निम्नलिखित सम्मिलित हैं।[32][33]

ट्यूरिंग परीक्षण (ट्यूरिंग)

मशीन और मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है जो परीक्षण को स्वीकृत करती है यदि यह मूल्यांकन कर्ता को समय के एक महत्वपूर्ण भाग को मूर्ख बना सकती है। तब ध्यान दे कि ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धिमत्ता के रूप में क्या योग्यता होनी चाहिए और केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करने की आवश्यकता होती है।

कॉफ़ी परीक्षण (वोज्नियाक)

एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है। कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उपयुक्त बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट परीक्षण (गोएर्टज़ेल)

मशीन एक विश्वविद्यालय में पंजीकृत होती है वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)

मशीन कम से कम एक ही कार्य में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण कार्य करती है।

एआई-पूर्ण समस्याएं

ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का अनुसरण करें और जानें कि किस विषय में बात की जा रही है और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि) मानव-स्तरीय मशीन प्रदर्शन तक अभिगमन के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता होती है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए दृढ़ एआई को प्रयुक्त करने की आवश्यकता होती है क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।[34] एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से बचने के लिए की जाती है।[35]

एआई-पूर्ण समस्याओं को केवल वर्तमान[may be outdated as of April 2023] कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के अटैक को पीछे हटाना है।[36][37]

इतिहास

प्राचीन एआई

आधुनिक एआई शोध 1950 के दशक के मध्य में प्रारम्भ हुई।[38] एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी। जिसमे कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी।[39] एआई के निर्माता हर्बर्ट ए. साइमन ने 1965 में लिखा था कि "मशीनें बीस साल के भीतर कोई भी कार्य करने में सक्षम हो जाएंगी जो एक मनुष्य कर सकता है।[40]

उनका पूर्वानुमान स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं। जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे।[41] संभव के रूप में समय की सामान्य सहमति और पूर्वानुमान के अनुसार उन्होंने 1967 में कहा कि "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या अपेक्षाकृत रूप तक हल हो सकती है।"[42]

डौग लेनट की सीईसी परियोजना (जो 1984 में प्रारम्भ हुई) और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की प्रारम्भ में यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। वित्तीय संस्थाओ को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।[lower-alpha 3] 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर परियोजना ने एजीआई में रुचि को पुनर्जीवित किया था। जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य सम्मिलित थे जैसे "आकस्मिक बातचीत प्रारम्भ रखें"।[46] इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।[44][47] हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार रूप से गिर गया और पांचवीं पीढ़ी के कंप्यूटर परियोजना के लक्ष्य कभी पूरे नहीं हुए।[48]20 वर्षों में दूसरी बार एजीआई की आसन्न उपलब्धि का पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक एआई शोधकर्ताओं के पास अपेक्षाकृत व्यर्थ दायित्व करने की प्रतिष्ठा थी। वे पूर्वानुमान करने के लिए अनिच्छुक हो गए[lower-alpha 4] और "जंगली आंखों वाले सपने देखने वाले" वर्गीकृत किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धिमत्ता का उल्लेख करने से मना कर दिया था।[50]

संकीर्ण एआई अनुसंधान

1990 के दशक और 21वीं सदी की प्रारम्भ में मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और शैक्षणिक सम्मान प्राप्त किया था जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकते है।[51] ये "प्रयुक्त एआई" प्रणाली अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं और इस अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक विकसित प्रवृत्ति माना गया था और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद है।[52]

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले प्रोग्रामों को मिलाकर दृढ़ एआई को विकसित किया जा सकता है।[53] हंस मोरवेस ने 1988 में लिखा था कि मुझे विश्वास है कृत्रिम बुद्धिमत्ता के लिए यह बॉटम अप मार्ग एक दिन पारंपरिक टॉप-डाउन मार्ग को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और सामान्य ज्ञान प्रदान करने के लिए तैयार है जो तर्कबुद्धिमत्ता प्रोग्राम में निराशाजनक रूप से महत्वपूर्ण रहा है। पूरी तरह से बुद्धिमत्ता मशीनों का परिणाम तब होगा जब दो प्रयासों को एकत्र करते हुए रूपक बहुमुल्य स्पंदन को चलाया जाएगा।[53] हालाँकि यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सांकेतिक स्तरीय परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा प्रायः व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "ऊपरी भाग" (प्रतीकात्मक) दृष्टिकोण किसी प्रकर के "निम्न ऊपरी" (संवेदी) दृष्टिकोण को कहीं बीच में प्राप्त हो सकते है यदि इस पत्र में ग्स्तरीय विचार मान्य हैं तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है नीचे से ऊपर एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं अभिगम्य किया जा सकता है और न ही यह स्पष्ट है कि हमें इस प्रकार के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से अलग करने की राशि अर्थात जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करने की आवश्यकता है।[54]

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान

शब्द "कृत्रिम सामान्य बुद्धिमत्ता" का उपयोग 1997 के प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था।[55] पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से प्रस्तुत किया गया और इसे लोकप्रिय बनाया गया था।[56] 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था।[57] "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में एजीआई में पहला समर स्कूल ज़ियामेन चीन में 2009 में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010[58] और 2011[59] में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। एमआईटी ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया था। जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता सम्मिलित थे।

2023 तक अधिकांश एआई शोधकर्ता एजीआई पर अपेक्षाकृत ध्यान देते हैं कुछ विशेषज्ञों का अनुमान है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए गुप्त सूचना बहुत जटिल है। हालांकि कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं और कई कृत्रिम सामान्य बुद्धिमत्ता पर सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

घटनाओं से सम्बन्धित समय

अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है कि वास्तव में एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है।[60] 2007 तक एजीआई अनुसंधान समुदाय में सामान्य सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है।[61] अर्थात 2015 और 2045 के बीच प्रशंसनीय थी।[62] मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक सुझाव दी है कि क्या प्रगति इतनी तीव्रता से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक पूर्वानुमानों के लिए समान रूप से 16-26 वर्षों के भीतर हो सकती है विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।[63]

2012 में एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया था जिसने छवि नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता था। जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से अपेक्षाकृत अच्छी है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया था। एलेक्सनेट को वर्तमान सघन अध्ययन का प्रारंभिक "ग्राउंड-ब्रेकर" माना जाता था।[64]

2017 में शोधकर्ताओं फेंग लियू, योंगशि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे गूगल एआई, ऐप्पल की सिरी और अन्य पर गुप्त परीक्षण किए। अधिकतम पर ये एआई लगभग 47 के आईक्यू मान तक पहुँच गए जो पहली कक्षा में लगभग छह साल के बच्चे के अनुरूप है। एक वयस्क औसतन लगभग 100 आता है। इसी प्रकार के परीक्षण 2014 में किए गए थे। जिसमें आईक्यू प्राप्तांक 27 के अधिकतम मान तक गया था।[65][66]

2020 में ओपीईएनएआई ने जीपीटी-3 विकसित किया था एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस विषय पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।[67]

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया था और "परियोजना दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया था। ओपीईएन एआई ने अपने सुरक्षा दिशानिर्देशों का अनुसरण करने के लिए चैटबॉट में परिवर्तन करने के लिए कहा तब रोहरर ने जीपीटी-3 एपीआई से परियोजना दिसंबर को असंबद्ध कर दिया था।[68]

2022 में गाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया था जो एक सामान्य-उद्देश्य प्रणाली है। जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।[69]

2023 में माइक्रोसॉफ्ट शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया था। जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और नियम जैसे कई डोमेन में विस्तृत कार्यों में मानव-स्तर के कार्यों का प्रदर्शन किया। इस शोध ने इस विषय पर वार्तालाप छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है। इस प्रकार की प्रणालियों के आगे शोध और मूल्यांकन की आवश्यकता पर महत्व दिया गया था।[70]

मस्तिष्क अनुरूपण

संपूर्ण मस्तिष्क अनुकरण

एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क के विस्तार से मस्तिष्क अवलोकन और मस्तिष्क चित्रण करके इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में प्रारूपित करके बनाया जाता है। कंप्यूटर अनुरूपण मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से सक्षम होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही कार्य करता है।[71] चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क अनुरूपण के संदर्भ में कम्प्यूटेशनल न्यूरो विज्ञान और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध [62] में दृढ़ एआई के दृष्टिकोण के रूप में की गई है। न्यूरो काल्पनिक प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं तीव्रता से सुधार कर रही हैं और "द सिंगुलैरिटी इज़ नियर"[61] पुस्तक में रे कुर्ज़वील ने पूर्वानुमान किया है कि पर्याप्त गुणवत्ता का मानचित्र एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर आधारित हो सकती है।

प्रारंभिक अनुमान

निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में अन्तर्ग्रथन होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक संबंधन (अन्तर्ग्रथन) होते हैं। तीन साल के बच्चे के मस्तिष्क में लगभग 1015 अन्तर्ग्रथ (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं 1014 से 5×1014 अन्तर्ग्रथ (100 से 500 ट्रिलियन) तक[72] न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) होता है।[73]

1997 में कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया था जिसकी तुलना के लिए यदि "गणना" एक "चल बिन्दु संचालन" के बराबर थी। वर्तमान मे सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में प्राप्त किया गया था। उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर का पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025 यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि प्रारम्भ हो रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग

कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई सम्मिलित कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क अनुरूपण को संभवतः जैविक न्यूरॉन्स के विस्तृत कोशिकीय व्यवहार पर अधिकृत करना होगा जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा प्रस्तुत किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई अनुक्रम इसके अतिरिक्त अनुमान ग्लियाल कोशिकाओं के लिए उत्तरदाई नहीं हैं। जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।[74]

वर्तमान शोध

कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग संरचना पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क अनुरूपण का परीक्षण कर रही हैं। कृत्रिम बुद्धिमत्ता प्रणाली परियोजना ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय अनुरूपण को प्रयुक्त किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे थे।[75] ब्लू मस्तिष्क परियोजना ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 अन्तर्ग्रथ वाले एकल नियोकोर्टिकल स्तम्भ का वास्तविक समय अनुरूपण बनाने के लिए सबसे तीव्र सुपरकंप्यूटर संरचना, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया था।[76] एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं" ब्लू मस्तिष्क के निदेशक हेनरी मार्कराम परियोजना 2009 में ऑक्सफोर्ड में टीईडी सम्मेलन में कहा गया था।[77] न्यूरो-सिलिकॉन अंतरापृष्ठ को वैकल्पिक कार्यान्वयन योजना के रूप में प्रस्तावित किया गया है जो अपेक्षाकृत अच्छा हो सकता है।[78] हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन मस्तिष्क?" में उपरोक्त तर्कों ("मस्तिष्क अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया था।[79] उन्होंने तंत्रिका ऊतक विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम[specify] ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं और न ही किसी प्रकार के प्रसंस्करण न्यूरॉन्स का प्रदर्शन करते हैं।

ओपनवॉर्म परियोजना में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 (कुल लगभग 1000 कोशिकाओं के बीच) न्यूरॉन्स हैं। परियोजना के प्रारम्भ से पहले पशु के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था। लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल कार्य नहीं करते थे। वर्तमान में,[may be outdated as of April 2023] प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के शुद्ध अनुकरण पर ध्यान केंद्रित करते हैं। लेकिन परिणाम को अभी तक पूरी तरह से सफल नहीं कहा जा सकता है।

अनुरूपण-आधारित दृष्टिकोणों की आलोचना

अनुरूपण-आधारित मस्तिष्क प्रस्ताव की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और सामान्य अर्थ के लिए आवश्यक है।[80] यदि यह सिद्धांत सही है तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक शरीर) से अधिक सम्मिलित करने की आवश्यकता होगी।[62] गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है। लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा। 109 समेकित भुगतान सांख्‍यिकी (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील और मोरेवेक द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए जो मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम हो लेकिन कुछ रुचि के अतिरिक्त[81] ऐसा कोई अनुकरण सम्मिलित नहीं है।[citation needed] इसके कई कारण हैं:

  1. न्यूरॉन मॉडल अतिसरलीकृत लगता है। (अगला भाग देखें)।
  2. उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है।[lower-alpha 5] शुद्ध रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरो काल्पनिक # कार्यात्मक चुंबकीय अनुनाद जैसी तकनीकों का उपयोग करके देखी गई है कि किससे संबंधित है।
  3. यहां तक ​​​​कि यदि अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है तो प्रारंभिक अनुरूपन प्रोग्राम बहुत ही अक्षम होने की संभावना है और इसलिए अपेक्षाकृत अधिक हार्डवेयर की आवश्यकता हो सकती है।
  4. एक जीव का मस्तिष्क महत्वपूर्ण होते हुए भी एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन अवधारणा इस दार्शनिक अवधारणा को औपचारिक रूप देती है और सेफैलोपॉड में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया है।[83]

इसके अतिरिक्त मानव मस्तिष्क का पैमाना वर्तमान में अपेक्षाकृत अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब अन्तर्ग्रथ होते हैं।[84][85] एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है। जिनमें से 16.3 बिलियन प्रमस्तिष्क प्रांतस्था में होते हैं और 69 बिलियन सेरिबैलम में होते हैं।[86] ग्लियाल कोशिकीय अन्तर्ग्रथ वर्तमान में अनिर्धारित हैं लेकिन अपेक्षाकृत बहुत अधिक होने के लिए जाने जाते हैं।

दार्शनिक दृष्टिकोण

दर्शनशास्त्र में परिभाषित दृढ़ एआई

1980 में दार्शनिक जॉन सियरल ने अपने चीनी कक्ष के तर्क के एक भाग के रूप में दृढ़ एआई शब्द का निर्माण किया था।[87] वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे।[lower-alpha 6]

  • दृढ़ एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली पर विचार कर सकती है जो एक मस्तिष्क और चेतना है।
  • कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसे कार्य' करती है वह उस पर विचार करती है और उसके पास मस्तिष्क और चेतना होती है।

पहले वाले को उन्होंने "दृढ़" कहा क्योंकि यह एक दृढ़ प्रामाण देता है यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "दृढ़ एआई" मशीन के समान होता है लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी हो सकता है। जिसका शैक्षणिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग सामान्य है।[88]

मुख्यधारा विषयक एआई की सबसे अधिक रुचि इस विषय में है कि कोई प्रोग्राम कैसे व्यवहार करता है।[89] रसेल और पीटर नॉरविग के अनुसार "जब तक प्रोग्राम कार्य करता है वे चिंता नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण" पता है कि क्या यह वास्तव में मन है। वास्तव में, यह बताने का कोई तरीका नहीं हो सकता है एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि के बराबर संभव है।" इस प्रकार रसेल और नॉरविग के अनुसार "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं और दृढ़ एआई परिकल्पना की चिंता नहीं करते हैं।"[90] इस प्रकार, शैक्षणिक एआई अनुसंधान के लिए "दृढ़ एआई" और "एजीआई" दो बहुत अलग वस्तुएं हैं।

सियरल और मुख्यधारा विषयक एआई के विपरीत कुछ पूर्वानुमान जैसे रे कुर्ज़वील "दृढ़ एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं।[61] यह सियरल के दृढ़ एआई के समान नहीं है जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल उनकी समझ से बाहर है।[90]

चेतना

बुद्धि के अतिरिक्त मानव मन के अन्य दृष्टिकोण दृढ़ एआई की अवधारणा के लिए प्रासंगिक हैं और ये विज्ञान कथन और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:

  • चेतनाः गुण और विचार होना।[lower-alpha 7]
  • आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
  • भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
  • ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है क्योंकि दृढ़ एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं। जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव पशुओ के अधिकार एकीकृत करने पर प्रारंभिक कार्य किया गया है। पूर्ण नैतिक प्रतिनिधित्व[clarification needed] दृढ़ एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलित कानूनी और सामाजिक संरचना के साथ[92] बिल जॉय, दूसरों के बीच तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए जोखिम हो सकती है।[93]</nowiki></ref> यह दिखाया जाना बाकी है कि दृढ़ एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या आवश्यक नही है। चेतना की भूमिका स्पष्ट नहीं है और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधों का अनुकरण करती है तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमत्ता मशीन से परिपूर्ण होते है यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमत्ता तरीके से कार्य करना प्रारम्भ कर सकते है।

कृत्रिम चेतना अनुसंधान

हालांकि दृढ़ एआई/एजीआई में चेतना की भूमिका विवादास्पद है। कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को प्रयुक्त करने की संभावनाओं की जांच करते है।[82] प्रारंभिक प्रयास में इगोर अलेक्जेंडर[94] ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लग सकते है।[clarification needed]

दृढ़ एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण

1956 में एआई अनुसंधान के प्रारम्भ के बाद से मानव स्तर पर बुद्धिमत्ता नियम के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है।[needs update][95] एक संभावित कारण यह है कि कंप्यूटर-विज्ञान उन्मुख और न्यूरो विज्ञान उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप और नम्यता की कमी है।[95][96][97] साथ ही एआई अनुसंधान में सम्मिलित जटिलता भी दृढ़ एआई अनुसंधान की प्रगति को सीमित करती है।[95]

एआई अनुसंधान मे कमी के लिए वैचारिक सीमाएं एक और संभावित कारण हैं।[95] एआई शोधकर्ताओं को दृढ़ एआई प्राप्त करने की खोज के लिए एक दृढ़ आधार प्रदान करने के लिए अपने अनुशासन की वैचारिक संरचना को संशोधित करने की आवश्यकता हो सकती है। इसका तात्पर्य यह है कि एक सामाजि सांस्कृतिक संदर्भ में एक दृढ़ एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है।[clarification needed][fact or opinion?] जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था कि यह संरचना[clarification needed] से प्रारम्भ होती है। वीज़ेनबाम[clarification needed] अवलोकन कि बुद्धिमत्ता केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।[95]

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे कार्य कर सकते हैं जो लोगों के लिए जटिल हैं जैसे कि गणित लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है जैसे चलना (मोरवेक का विरोधाभास)।[needs update][95] डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग विचार और तर्क को समान मानते हैं।[non sequitur][98] विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए इस विचार ने एआई शोधकर्ताओं को परेशान किया है।[non sequitur][98]

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास उत्पन्न करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल पूर्वानुमानों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है।[62] एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं।[99] अधिकांश जांचकर्ता 21वीं सदी में एजीआई प्राप्त करने को लेकर आशान्वित हैं।[62]

दृढ़ एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है।[100][101][102] कई शोधकर्ता एआई के भविष्य के पूर्वानुमान से जुड़े किसी भी संदेह को कम आंकते हैं। लेकिन मानव मस्तिष्क मॉडलिंग जैसे विचारों को गंभीरता से लिए अतिरिक्त एजीआई शोधकर्ता समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।[needs copy edit][62]

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे।[specify][95][non sequitur] जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना प्रारम्भ किया था तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी।[103] उस समय शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।[103] जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ कार्य करते समय फिर से परिभाषित करते हैं। एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है।[incomprehensible][103] एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है।[further explanation needed][103] हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है। जिसने अमूर्त संचालकों की भूमिका के लिए समस्याएँ उत्पन्न कर दी हैं।[further explanation needed][104]

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से अपेक्षाकृत अच्छा रहता है।[100] लेकिन तीव्रता से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को प्रयुक्त करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धिमत्ता से अनुरूपन की स्वीकृति देते हैं। जबकि दृढ़ एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है। यह व्यापक रूप से सहमत है।[weasel words] एआई शोधकर्ताओं ने इस विषय पर वार्तालाप की है कि भावात्मक कंप्यूटिंग है या नहीं है।[105] एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों को स्वीकृति देता है स्वयं का मस्तिष्क रखने के लिए[clarification needed].[95] भावनाएँ मनुष्य को अनुभवों को याद रखने में सहायता करती हैं।[98] डेविड गेलर्नटर लिखते हैं कि कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी सूक्ष्मताओ का अनुकरण नहीं कर सकता है।[98] भावना के दृढ़ एआई शोध का विषय बने रहने की संभावना है।[106][107]

विवाद और जोखिम

व्यवहार्यता

एजीआई 2022 से काल्पनिक बना हुआ है।[108][109] ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं इस पर सभी के विचार अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा कार्य करने में सक्षम हो सकती है जो एक मनुष्य कर सकता है।" यह पूर्वानुमान सच होने में विफल है। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस प्रकार की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं और अनुभूति की वैज्ञानिक रूप से गहरी समझ की आवश्यकता है।[110] द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तीव्र प्रकाश अंतरिक्ष उड़ान के बीच की खाई है।[111]

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि दृढ़ एआई को भविष्य में प्राप्त किया जा सकता है लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक दृढ़ एआई प्राप्त करने की संभावना को अस्वीकृत करते हैं।[95][112] जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जा सकता है लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का शुद्धता का अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर औसत 2081 के साथ विशेषज्ञों में से 16.5% ने उत्तर दिया "कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके अतिरिक्त 90% विशेषज्ञों ने आत्मविश्वास के साथ[113][114] आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

यांत्रिक बुद्धिमत्ता शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि " 60 साल की समय सीमा में मानव स्तर एआई के आगमन का पूर्वानुमान करने की दिशा में एक दृढ़ पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित" एआई उन्होंने 1950 और 2012 के बीच किए गए 95 पूर्वानुमान का विश्लेषण किया कि मानव स्तर एआई कब तक आ सकती है।[115]

मानव अस्तित्व के लिए संभावित जोखिम

एआई अभिधारणा मनुष्यों के लिए एक अस्तित्वगत जोखिम उत्पन्न करता है और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक आंकड़ा द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित जोखिम की मूल अभिधारणा का समर्थन करते हैं। बिल गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना को प्रस्तुत किया है।[116][92][117] [118]

इसलिए मानव के कई लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए प्रत्येक संभव प्रयास कर रहे हैं यदि अपेक्षाकृत एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा कि हम कुछ दशकों में अभिगम्य होते है तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है' जब आप यहां पहुंचें तो हमें कॉल करें–हम रोशनी चालू रखेंगे?' लगभग नहीं–लेकिन एआई के साथ संभव यही हो रहा है।[119]

एजीआई से सम्बद्ध जोखिमों को 2021 की व्यवस्थित समीक्षा में डेटा की कमी को ध्यान में रखते हुए निम्नलिखित संभावित जोखिम पाए गए है। जिसमे एजीआई स्वयं को मानव प्रबंधकों के नियंत्रण से अलग कर रहा है और असुरक्षित लक्ष्यों को सम्मिलित किया जा रहा है या असुरक्षित एजीआई, एजीआई की विकास नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन को विकसित कर रहा है।[120]

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं कि किस प्रकार के सुरक्षा उपाय, एल्गोरिदम या संरचनात्मक प्रोग्राम इस संभावना को अधिकतम करने के लिए प्रयुक्त कर सकते हैं कि उनकी पुनरावर्ती सुधार एआई मे उच्च बुद्धिमत्ता तक अभिगमन के बाद विनाशकारी के अतिरिक्त मैत्रीपूर्ण तरीके से व्यवहार करना प्रारम्भ रखें?[92][121] नियंत्रण समस्या को हल करना एआई उपकरणो की दौड़ से जटिल है[122][123] जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखने मे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई के परिणामस्वरूप एजीआई सक्षम युद्ध होता है और एआई मिसलिग्न्मेंट की स्थिति में एजीआई निर्देशित युद्ध संभावित रूप से सभी मानवता के विरुद्ध है।[124][125]

अवधारणा है कि एआई अस्तित्वगत जोखिम या कई अवरोधक उत्पन्न कर सकता है। संदेहवादी कभी-कभी यह आरोप लगाते हैं कि अवधारणा क्रिप्टो-धार्मिक है एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास के स्थान पर उच्च बुद्धिमत्ता की संभावना में एक तर्कहीन विश्वास के साथ जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि शीघ्रता मशीनें किसी भी प्रकार से बुद्धिमत्ता थीं। "एक भ्रम" और अमीरों द्वारा यह एक "अद्भुत चाल" है।[126] अत्यधिक आलोचना का तर्क है कि कम समय में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक अभिगमन से पहले ही मानव जाति स्वयं को नष्ट कर सकती है मूर के नियम के मूल प्रस्तावक गॉर्डन मूर ने घोषणा किया कि "मैं एक संदेहवादी हूं मुझे विश्वास नहीं है कि तकनीकी विलक्षणता होने की संभावना है कम से कम लंबे समय तक और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है।"[127] बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है जबकि हमने अभी तक ग्रह पर पैर भी नहीं रखा है।"[128]

यह भी देखें

टिप्पणियाँ

  1. Cite error: Invalid <ref> tag; no text was provided for refs named Searle's Strong AI
  2. AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent."[16] (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  3. The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.[43] In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research".[44][45]
  4. As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."[49]
  5. In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.[82]
  6. As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."[73]
  7. Note that consciousness is difficult to define. A popular definition, due to Thomas Nagel, is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.[91]

संदर्भ

  1. Hodson, Hal (1 March 2019). "DeepMind and Google: the battle to control artificial intelligence". 1843. Archived from the original on 7 July 2020. Retrieved 7 July 2020. AGI stands for Artificial General Intelligence, a hypothetical computer program...
  2. Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 October 2019). "The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge". EMBO Reports (in English). 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926.
  3. 3.0 3.1 "ओपनएआई चार्टर". openai.com (in English). Retrieved 6 April 2023.
  4. "के बारे में". openai.com (in English). Retrieved 6 April 2023.
  5. 5.0 5.1 5.2 "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. Retrieved 6 April 2023.
  6. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  7. 7.0 7.1 "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review (in English). Retrieved 6 April 2023.
  8. "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News (in English). 23 March 2023. Retrieved 6 April 2023.
  9. Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (PDF), Global Catastrophic Risk Institute Working Paper 20, archived (PDF) from the original on 14 November 2021, retrieved 13 January 2022
  10. Kurzweil 2005, p. 260.
  11. 11.0 11.1 Kurzweil, Ray (5 August 2005a), "Long Live AI", Forbes, archived from the original on 14 August 2005: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  12. Treder, Mike (10 August 2005), "Advanced Human Intelligence", Responsible Nanotechnology, archived from the original on 16 October 2019
  13. "The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013". Archived from the original on 26 February 2014. Retrieved 22 February 2014.
  14. Newell & Simon 1976, This is the term they use for "human-level" intelligence in the physical symbol system hypothesis.
  15. "मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय". Archived from the original on 25 September 2009. Retrieved 8 October 2007.
  16. McCarthy, John (2007a). "Basic Questions". Stanford University. Archived from the original on 26 October 2007. Retrieved 6 December 2007.
  17. This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  18. Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  19. White, R. W. (1959). "Motivation reconsidered: The concept of competence". Psychological Review. 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397.
  20. Johnson 1987
  21. de Charms, R. (1968). Personal causation. New York: Academic Press.
  22. Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  23. Goertzel, Ben (2014). "Artificial General Intelligence: Concept, State of the Art, and Future Prospects". Journal of Artificial General Intelligence. Lecture Notes in Computer Science. 8598. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID 8387410.
  24. Legg, Shane (2008). मशीन सुपर इंटेलिजेंस (PDF) (Thesis). University of Lugano. Archived (PDF) from the original on 15 June 2022. Retrieved 19 July 2022.
  25. Everitt, Tom; Lea, Gary; Hutter, Marcus. "एजीआई सेफ्टी लिटरेचर रिव्यू" (PDF). International Joint Conferences on Artificial Intelligence Organization. Retrieved 26 April 2023.
  26. Leike, Jan; Hutter, Marcus (2015). बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी. The 28th Conference on Learning Theory. arXiv:1510.04931. Archived from the original on 6 December 2022. Retrieved 6 December 2022.
  27. 27.0 27.1 {{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }
  28. <ref> = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी>Chollet, Francois (2019). "बुद्धि के माप पर". arXiv:1911.01547 [cs.AI].</span> </li> <li id="cite_note-31"><span class="mw-cite-backlink">[[#cite_ref-31|↑]]</span> <span class="reference-text"><nowiki>{{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }
  29. Bennett, Michael Timothy (2021). प्रतीक उद्भव और किसी भी कार्य का समाधान. 14th Conference on Artificial General Intelligence. arXiv:2109.01281. doi:10.1007/978-3-030-93758-4_4. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  30. Bennett, Michael Timothy; Maruyama, Yoshihiro (2021). कृत्रिम वैज्ञानिक. 14th Conference on Artificial General Intelligence. arXiv:2110.01831. doi:10.1007/978-3-030-93758-4_6. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  31. Muehlhauser, Luke (11 August 2013). "What is AGI?". Machine Intelligence Research Institute. Archived from the original on 25 April 2014. Retrieved 1 May 2014.
  32. "What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence". Talky Blog (in English). 13 July 2019. Archived from the original on 17 July 2019. Retrieved 17 July 2019.
  33. Shapiro, Stuart C. (1992). "Artificial Intelligence" (PDF). In Stuart C. Shapiro (ed.). आर्टिफिशियल इंटेलिजेंस का विश्वकोश (Second ed.). New York: John Wiley. pp. 54–57. Archived (PDF) from the original on 1 February 2016. (Section 4 is on "AI-Complete Tasks".)
  34. Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "एआई-पूर्णता की परिभाषित विशेषता के रूप में ट्यूरिंग टेस्ट" (PDF). Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. Archived (PDF) from the original on 22 May 2013.
  35. Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Archived 4 March 2016 at the Wayback Machine. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  36. Bergmair, Richard (7 January 2006). "प्राकृतिक भाषा स्टेग्नोग्राफ़ी और एक "एआई-पूर्ण" सुरक्षा आदिम". CiteSeer. CiteSeerX 10.1.1.105.129.
  37. Crevier 1993, pp. 48–50
  38. "Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines". Archived from the original on 6 May 2022. Retrieved 12 March 2022.
  39. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  40. "Scientist on the Set: An Interview with Marvin Minsky". Archived from the original on 16 July 2012. Retrieved 5 April 2008.
  41. Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  42. Lighthill 1973; Howe 1994
  43. 44.0 44.1 NRC 1999, "Shift to Applied Research Increases Investment".
  44. Crevier 1993, pp. 115–117; Russell & Norvig 2003, pp. 21–22.
  45. Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  46. Crevier 1993, pp. 161–162, 197–203, 240; Russell & Norvig 2003, p. 25.
  47. Crevier 1993, pp. 209–212
  48. McCarthy, John (2000). "Reply to Lighthill". Stanford University. Archived from the original on 30 September 2008. Retrieved 29 September 2007.
  49. Markoff, John (14 October 2005). "आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन". The New York Times. Archived from the original on 2 February 2023. Retrieved 18 February 2017. इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।
  50. Russell & Norvig 2003, pp. 25–26
  51. "इमर्जिंग टेक हाइप साइकिल में रुझान". Gartner Reports. Archived from the original on 22 May 2019. Retrieved 7 May 2019.
  52. 53.0 53.1 Moravec 1988, p. 20
  53. Harnad, S (1990). "सिंबल ग्राउंडिंग प्रॉब्लम". Physica D. 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. S2CID 3204300.
  54. Gubrud 1997
  55. "Who coined the term "AGI"? » goertzel.org" (in English). Archived from the original on 28 December 2018. Retrieved 28 December 2018., via Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'
  56. "First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009". Archived from the original on 28 September 2020. Retrieved 11 May 2020.
  57. "Избираеми дисциплини 2009/2010 - пролетен триместър" [Elective courses 2009/2010 - spring trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in български). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  58. "Избираеми дисциплини 2010/2011 - зимен триместър" [Elective courses 2010/2011 - winter trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in български). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  59. Goertzel & Pennachin 2006.
  60. 61.0 61.1 61.2 (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Archived 30 June 2011 at the Wayback Machine where he defines strong AI as "machine intelligence with the full range of human intelligence."
  61. 62.0 62.1 62.2 62.3 62.4 62.5 Goertzel 2007.
  62. Katja Grace (2016). "Error in Armstrong and Sotala 2012". AI Impacts (blog). Archived from the original on 4 December 2020. Retrieved 24 August 2020.
  63. Butz, Martin V. (1 March 2021). "मजबूत एआई की ओर". KI - Künstliche Intelligenz (in English). 35 (1): 91–101. doi:10.1007/s13218-021-00705-x. ISSN 1610-1987. S2CID 256065190.
  64. Liu, Feng; Shi, Yong; Liu, Ying (2017). "आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड". Annals of Data Science. 4 (2): 179–191. arXiv:1709.10242. doi:10.1007/s40745-017-0109-0. S2CID 37900130.
  65. Brien, Jörn (5 October 2017). "Google AI सिरी से दोगुना स्मार्ट है" [Google AI is twice as smart as Siri - but a six-year-old beats both] (in Deutsch). Archived from the original on 3 January 2019. Retrieved 2 January 2019.
  66. Grossman, Gary (3 September 2020). "हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं". VentureBeat. Archived from the original on 4 September 2020. Retrieved 5 September 2020. Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI.
  67. Quach, Katyanna. "A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down". The Register. Archived from the original on 16 October 2021. Retrieved 16 October 2021.
  68. Wiggers, Kyle (13 May 2022), "DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots", TechCrunch, archived from the original on 16 June 2022, retrieved 12 June 2022
  69. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  70. Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  71. Drachman 2005.
  72. 73.0 73.1 Russell & Norvig 2003.
  73. Swaminathan, Nikhil (January–February 2011). "Glia—the other brain cells". Discover. Archived from the original on 8 February 2014. Retrieved 24 January 2014.
  74. Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). "स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल" (PDF). PNAS. 105 (9): 3593–3598. Bibcode:2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. Archived from the original (PDF) on 12 June 2009. Retrieved 23 June 2015.
  75. "परियोजना के मील के पत्थर". Blue Brain. Retrieved 11 August 2008.
  76. "कृत्रिम मस्तिष्क '10 साल दूर'". BBC News. 22 July 2009. Archived from the original on 26 July 2017. Retrieved 25 July 2009.
  77. University of Calgary news Archived 18 August 2009 at the Wayback Machine, NBC News news Archived 4 July 2017 at the Wayback Machine
  78. Moravec 1998.
  79. de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  80. "[links to bee brain studies]". Honey Bee Brain. Archived from the original on 25 July 2008. Retrieved 30 March 2010.
  81. 82.0 82.1 Yudkowsky 2006.
  82. Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). "ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स". J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID 15829594.
  83. Williams & Herrup 1988
  84. "nervous system, human." Encyclopædia Britannica. 9 January 2007
  85. Azevedo et al. 2009.
  86. Searle 1980
  87. For example:
  88. though see Explainable artificial intelligence for curiosity by the field about why a program behaves the way it does
  89. 90.0 90.1 Russell & Norvig 2003, p. 947.
  90. Nagel 1974.
  91. 92.0 92.1 92.2 {{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=Physica Scripta |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}
  92. <ref>Joy, Bill (April 2000). "भविष्य को हमारी आवश्यकता क्यों नहीं है". Wired.<nowiki>
  93. Aleksander 1996.
  94. 95.0 95.1 95.2 95.3 95.4 95.5 95.6 95.7 95.8 Clocksin 2003.
  95. James, Alex P. (2022). "आर्टिफिशियल जनरल इंटेलिजेंस चिप डेवलपमेंट क्यों, क्या और कैसे". IEEE Transactions on Cognitive and Developmental Systems. 14 (2): 333–347. arXiv:2012.06338. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Archived from the original on 28 August 2022. Retrieved 28 August 2022.
  96. Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; He, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "हाइब्रिड टियांजिक चिप आर्किटेक्चर के साथ आर्टिफिशियल जनरल इंटेलिजेंस की ओर". Nature (in English). 572 (7767): 106–111. Bibcode:2019Natur.572..106P. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Archived from the original on 29 August 2022. Retrieved 29 August 2022.
  97. 98.0 98.1 98.2 98.3 Gelernter 2010.
  98. Strickland, Eliza (2021). "The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle?". IEEE Spectrum. 58 (10): 26–31. doi:10.1109/mspec.2021.9563956. ISSN 0018-9235. S2CID 238478853.
  99. 100.0 100.1 McCarthy 2007.
  100. Yamakawa, Hiroshi (2021). "The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain". Neural Networks. 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. PMID 34600220. S2CID 232170707.
  101. Jones, David T.; Kerber, Kevin A. (7 February 2022). "Artificial Intelligence and the Practice of Neurology in 2035". Neurology. 98 (6): 238–245. doi:10.1212/wnl.0000000000013200. ISSN 0028-3878. PMID 35131918. S2CID 246635279. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  102. 103.0 103.1 103.2 103.3 Holte & Choueiry 2003.
  103. Zucker 2003.
  104. Deane, George (2022). "Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence". Artificial Life. 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
  105. Kaplan, Andreas; Haenlein, Michael (2019). "Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  106. Priyadarshini, Ishaani; Cotton, Chase (2022). "AI Cannot Understand Memes: Experiments with OCR and Facial Emotions". Computers, Materials & Continua (in English). 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. S2CID 239639188. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  107. Boucher, Philip (March 2019). "Concluding remarks". आर्टिफिशियल इंटेलिजेंस कैसे काम करता है (PDF) (Report). European Parliamentary Research Service. Archived (PDF) from the original on 3 March 2020. Retrieved 3 March 2020. आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।
  108. itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archived 9 November 2020 at the Wayback Machine, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  109. Allen, Paul; Greaves, Mark (12 October 2011). "विलक्षणता निकट नहीं है". MIT Technology Review. Retrieved 17 September 2014.
  110. Winfield, Alan. "आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा". The Guardian. Archived from the original on 17 September 2014. Retrieved 17 September 2014.
  111. Fjelland, Ragnar (17 June 2020). "सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा". Humanities and Social Sciences Communications (in English). 7 (1): 1–9. doi:10.1057/s41599-020-0494-4. ISSN 2662-9992. S2CID 219710554.
  112. Raffi Khatchadourian (23 November 2015). "The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?". The New Yorker. Archived from the original on 28 January 2016. Retrieved 7 February 2016.
  113. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  114. Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In Beyond AI: Artificial Dreams, edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia
  115. Müller, Vincent C. (3 July 2014). "सामान्य कृत्रिम बुद्धि के जोखिम". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. S2CID 31835019.
  116. Turchin, Alexey (1 March 2019). "भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना". Futures (in English). 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. S2CID 158975847.
  117. Rawlinson, Kevin. BBC News https://www.bbc.co.uk/news/31047780. Archived from the original on 29 January 2015. Retrieved 30 January 2015. {{cite news}}: Missing or empty |title= (help)
  118. "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent (UK). Archived from the original on 25 September 2015. Retrieved 3 December 2014.
  119. McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (13 August 2021). "The risks associated with Artificial General Intelligence: A systematic review". Journal of Experimental & Theoretical Artificial Intelligence: 1–15. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. S2CID 238643957.
  120. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112.
  121. Naudé, Wim; Dimitri, Nicola (1 June 2020). "The race for an artificial general intelligence: implications for public policy". AI & Society (in English). 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. S2CID 52045822.
  122. Torres, Phil (4 May 2019). "कृत्रिम सामान्य बुद्धि की संभावना और जोखिम". Bulletin of the Atomic Scientists. 75 (3): 105–108. Bibcode:2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. S2CID 150498464. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  123. Turchin, Alexey; Denkenberger, David (27 July 2018), "Military AI as a Convergent Goal of Self-Improving AI", Artificial Intelligence Safety and Security, First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC, pp. 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, S2CID 65323952, archived from the original on 2 February 2023, retrieved 29 August 2022{{citation}}: CS1 maint: location (link)
  124. Carayannis, Elias G.; Draper, John (11 January 2022). "एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन". AI & Society (in English): 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID 35035113. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  125. Hamblin, James (9 May 2014). "But What Would the End of Humanity Mean for Me?". The Atlantic. Archived from the original on 4 June 2014. Retrieved 12 December 2015.
  126. "टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी". IEEE Spectrum: Technology, Engineering, and Science News (in English). No. SPECIAL REPORT: THE SINGULARITY. 1 June 2008. Archived from the original on 30 April 2019. Retrieved 8 April 2020.
  127. Shermer, Michael (1 March 2017). "सर्वनाश एआई". Scientific American (in English). 316 (3): 77. Bibcode:2017SciAm.316c..77S. doi:10.1038/scientificamerican0317-77. PMID 28207698. Archived from the original on 1 December 2017. Retrieved 27 November 2017.


स्रोत

बाहरी संबंध