कृत्रिम सामान्य बुद्धि: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 8: Line 8:
{{distinguish|जनरेटिव आर्टिफिशियल इंटेलिजेंस
{{distinguish|जनरेटिव आर्टिफिशियल इंटेलिजेंस
}}
}}
'''कृत्रिम सामान्य बुद्धि''' (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। AGI अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं।<ref>{{cite news |last=Hodson |first=Hal |date=1 March 2019 |title=DeepMind and Google: the battle to control artificial intelligence |work=[[1843 (magazine)|1843]] |url=https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |url-status=live |access-date=7 July 2020 |archive-url=https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |archive-date=7 July 2020 |quote=AGI stands for Artificial General Intelligence, a hypothetical computer program...}}</ref><ref>{{Cite journal |last1=Shevlin |first1=Henry |last2=Vold |first2=Karina |last3=Crosby |first3=Matthew |last4=Halina |first4=Marta |date=2019-10-04 |title=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge |journal=EMBO Reports |language=en |volume=20 |issue=10 |pages=e49177 |doi=10.15252/embr.201949177 |issn=1469-221X |pmc=6776890 |pmid=31531926}}</ref> वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। [3] AGI बनाना कुछ [[ कृत्रिम होशियारी |कृत्रिम होशियारी]] रिसर्च और [[OpenAI]],<ref name=":1">{{Cite web |title=ओपनएआई चार्टर|url=https://openai.com/charter |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> [[डीपमाइंड]]<ref>{{Cite web |title=के बारे में|url=https://openai.com/about |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। साइंस फिक्शन और फ्यूचर स्टडीज में AGI एक सामान्य विषय है।<ref name=":1" />
'''कृत्रिम सामान्य बुद्धि''' (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। एजीआई अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं।<ref>{{cite news |last=Hodson |first=Hal |date=1 March 2019 |title=DeepMind and Google: the battle to control artificial intelligence |work=[[1843 (magazine)|1843]] |url=https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |url-status=live |access-date=7 July 2020 |archive-url=https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |archive-date=7 July 2020 |quote=AGI stands for Artificial General Intelligence, a hypothetical computer program...}}</ref><ref>{{Cite journal |last1=Shevlin |first1=Henry |last2=Vold |first2=Karina |last3=Crosby |first3=Matthew |last4=Halina |first4=Marta |date=2019-10-04 |title=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge |journal=EMBO Reports |language=en |volume=20 |issue=10 |pages=e49177 |doi=10.15252/embr.201949177 |issn=1469-221X |pmc=6776890 |pmid=31531926}}</ref> वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। [3] एजीआई बनाना कुछ [[ कृत्रिम होशियारी |कृत्रिम बुद्धिमत्ता]] शोध और [[OpenAI|ओपीईएनएआई]],<ref name=":1">{{Cite web |title=ओपनएआई चार्टर|url=https://openai.com/charter |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> [[डीपमाइंड]]<ref>{{Cite web |title=के बारे में|url=https://openai.com/about |access-date=2023-04-06 |website=openai.com |language=en-US}}</ref> और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। साइंस फिक्शन और फ्यूचर स्टडीज में एजीआई एक सामान्य विषय है।<ref name=":1" />


AGI के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है।<ref name=":2">{{Cite web |title=AI timelines: What do experts in artificial intelligence expect for the future? |url=https://ourworldindata.org/ai-timelines |access-date=2023-04-06 |website=Our World in Data}}</ref> इसके अतिरिक्त, इस बात पर भी बहस चल रही है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे कि [[GPT-4]], AGI का प्रारंभिक अभी तक अधूरा रूप है<ref>{{Cite arXiv |last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |date=2023-03-27 |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4 |class=cs.CL |eprint=2303.12712 }}</ref> या यदि नए दृष्टिकोण की आवश्यकता है।<ref name=":3">{{Cite web |title=Artificial general intelligence: Are we close, and does it even make sense to try? |url=https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/ |access-date=2023-04-06 |website=MIT Technology Review |language=en}}</ref>
एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है।<ref name=":2">{{Cite web |title=AI timelines: What do experts in artificial intelligence expect for the future? |url=https://ourworldindata.org/ai-timelines |access-date=2023-04-06 |website=Our World in Data}}</ref> इसके अतिरिक्त, इस बात पर भी बहस चल रही है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे कि [[GPT-4|जीपीटी-4]], एजीआई का प्रारंभिक अभी तक अधूरा रूप है<ref>{{Cite arXiv |last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |date=2023-03-27 |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4 |class=cs.CL |eprint=2303.12712 }}</ref> या यदि नए दृष्टिकोण की आवश्यकता है।<ref name=":3">{{Cite web |title=Artificial general intelligence: Are we close, and does it even make sense to try? |url=https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/ |access-date=2023-04-06 |website=MIT Technology Review |language=en}}</ref>


एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद मौजूद है; उदाहरण के लिए, OpenAI इसे एक अस्तित्वगत जोखिम के रूप में मानता है, जबकि अन्य AGI के विकास को एक जोखिम पेश करने के लिए बहुत दूरस्थ पाते हैं।।<ref>{{Cite news |date=2023-03-23 |title=Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks |language=en-AU |work=ABC News |url=https://www.abc.net.au/news/2023-03-24/what-is-agi-artificial-general-intelligence-ai-experts-risks/102035132 |access-date=2023-04-06}}</ref><ref name=":2" /><ref name=":3" />
एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए, ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है, जबकि अन्य एजीआई के विकास को एक जोखिम पेश करने के लिए बहुत दूरस्थ पाते हैं।।<ref>{{Cite news |date=2023-03-23 |title=Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks |language=en-AU |work=ABC News |url=https://www.abc.net.au/news/2023-03-24/what-is-agi-artificial-general-intelligence-ai-experts-risks/102035132 |access-date=2023-04-06}}</ref><ref name=":2" /><ref name=":3" />


2020 के एक सर्वेक्षण में 37 देशों में फैली 72 सक्रिय AGI R&D परियोजनाओं की पहचान की गई।<ref name="baum">{{citation|last=Baum|first=Seth|title=A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy|url=https://gcrinstitute.org/papers/055_agi-2020.pdf|id=Global Catastrophic Risk Institute Working Paper 20|access-date=13 January 2022|archive-date=14 November 2021|archive-url=https://web.archive.org/web/20211114170005/https://gcrinstitute.org/papers/055_agi-2020.pdf|url-status=live}}</ref>
2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई।<ref name="baum">{{citation|last=Baum|first=Seth|title=A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy|url=https://gcrinstitute.org/papers/055_agi-2020.pdf|id=Global Catastrophic Risk Institute Working Paper 20|access-date=13 January 2022|archive-date=14 November 2021|archive-url=https://web.archive.org/web/20211114170005/https://gcrinstitute.org/papers/055_agi-2020.pdf|url-status=live}}</ref>
== शब्दावली ==
== शब्दावली ==
एजीआई को मजबूत एआई,{{sfn|Kurzweil|2005|p=260}}<ref name="Kurzweil 2005-08-05">{{Citation |last=Kurzweil |first=Ray |title=Long Live AI |date=5 August 2005a |url=https://www.forbes.com/home/free_forbes/2005/0815/030.html |magazine=[[Forbes]] |url-status=dead |archiveurl=https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html |archivedate=2005-08-14}}: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."</ref><ref>{{Citation |last=Treder |first=Mike |title=Advanced Human Intelligence |date=10 August 2005 |url=https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |work=Responsible Nanotechnology |archive-url=https://web.archive.org/web/20191016214415/https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |url-status=live |archive-date=16 October 2019}}</ref> पूर्ण एआई,<ref>{{Cite web |title=The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013 |url=http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |url-status=live |archive-url=https://web.archive.org/web/20140226123940/http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |archive-date=26 February 2014 |access-date=22 February 2014}}</ref> या सामान्य बुद्धिमान कार्रवाई के रूप में भी जाना जाता है।{{sfn|Newell|Simon|1976|ps=, This is the term they use for "human-level" intelligence in the [[physical symbol system]] hypothesis.}} हालांकि, कुछ अकादमिक स्रोत कंप्यूटर प्रोग्राम के लिए "मजबूत एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। [ए] इसके विपरीत, कमजोर एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।<ref>{{Cite web |title=मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय|url=http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |url-status=dead |archive-url=https://web.archive.org/web/20090925043908/http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |archive-date=25 September 2009 |access-date=8 October 2007}}</ref><ref name="Kurzweil 2005-08-05" /> कुछ अकादमिक स्रोत "कमजोर एआई" का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।{{efn|name="Searle's Strong AI"}}
एजीआई को मजबूत एआई,{{sfn|Kurzweil|2005|p=260}}<ref name="Kurzweil 2005-08-05">{{Citation |last=Kurzweil |first=Ray |title=Long Live AI |date=5 August 2005a |url=https://www.forbes.com/home/free_forbes/2005/0815/030.html |magazine=[[Forbes]] |url-status=dead |archiveurl=https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html |archivedate=2005-08-14}}: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."</ref><ref>{{Citation |last=Treder |first=Mike |title=Advanced Human Intelligence |date=10 August 2005 |url=https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |work=Responsible Nanotechnology |archive-url=https://web.archive.org/web/20191016214415/https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |url-status=live |archive-date=16 October 2019}}</ref> पूर्ण एआई,<ref>{{Cite web |title=The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013 |url=http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |url-status=live |archive-url=https://web.archive.org/web/20140226123940/http://tedxtalks.ted.com/video/The-Age-of-Artificial-Intellige |archive-date=26 February 2014 |access-date=22 February 2014}}</ref> या सामान्य बुद्धिमान कार्रवाई के रूप में भी जाना जाता है।{{sfn|Newell|Simon|1976|ps=, This is the term they use for "human-level" intelligence in the [[physical symbol system]] hypothesis.}} हालांकि, कुछ अकादमिक स्रोत कंप्यूटर प्रोग्राम के लिए "मजबूत एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। [ए] इसके विपरीत, कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।<ref>{{Cite web |title=मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय|url=http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |url-status=dead |archive-url=https://web.archive.org/web/20090925043908/http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm |archive-date=25 September 2009 |access-date=8 October 2007}}</ref><ref name="Kurzweil 2005-08-05" /> कुछ अकादमिक स्रोत "कममहत्व एआई" का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।{{efn|name="Searle's Strong AI"}}


संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई,<ref name=":2" />और अधीक्षण।
संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई,<ref name=":2" />और अधीक्षण।
Line 26: Line 26:


=== बुद्धि लक्षण ===
=== बुद्धि लक्षण ===
हालाँकि, शोधकर्ता आमतौर पर यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:<ref>This list of intelligent traits is based on the topics covered by major AI textbooks, including:
हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:<ref>This list of intelligent traits is based on the topics covered by major AI textbooks, including:
{{Harvnb|Russell|Norvig|2003}},
{{Harvnb|Russell|Norvig|2003}},
{{Harvnb|Luger|Stubblefield|2004}},
{{Harvnb|Luger|Stubblefield|2004}},
{{Harvnb|Poole|Mackworth|Goebel|1998}} and
{{Harvnb|Poole|Mackworth|Goebel|1998}} and
{{Harvnb|Nilsson|1998}}.</ref> * [[स्वचालित तर्क]], रणनीति का उपयोग करें, पहेलियों को हल करें और [[अनिश्चितता]] के तहत निर्णय लें;
{{Harvnb|Nilsson|1998}}.</ref> * [[स्वचालित तर्क]], रणनीति का उपयोग करें, पहेलियों को हल करें और [[अनिश्चितता]] के तहत निर्णय लें
* सामान्य ज्ञान_ज्ञान_(कृत्रिम_बुद्धिमत्ता) सहित ज्ञान प्रतिनिधित्व;
* सामान्य ज्ञान_ज्ञान_(कृत्रिम_बुद्धिमत्ता) सहित ज्ञान प्रतिनिधित्व;
* [[स्वचालित योजना और शेड्यूलिंग]];
* [[स्वचालित योजना और शेड्यूलिंग]];
* [[यंत्र अधिगम]];
* [[यंत्र अधिगम]];
* [[प्राकृतिक भाषा प्रसंस्करण]] में संवाद करें;
* [[प्राकृतिक भाषा प्रसंस्करण]] में संवाद करें;
और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में [[आर्टिफिशियल इंटेलिजेंस सिस्टम इंटीग्रेशन]] एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं:<ref>Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). {{ISBN|0-262-16239-3}}</ref>
और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में [[आर्टिफिशियल इंटेलिजेंस सिस्टम इंटीग्रेशन|कृत्रिम बुद्धिमत्ता सिस्टम इंटीग्रेशन]] एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं:<ref>Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). {{ISBN|0-262-16239-3}}</ref>
* [[मशीन धारणा]] की क्षमता (जैसे [[कंप्यूटर दृष्टि]], सुनना, आदि), और
* [[मशीन धारणा]] की क्षमता (जैसे [[कंप्यूटर दृष्टि]], सुनना, आदि), और
* कार्य करने की क्षमता (जैसे [[रोबोटिक]]्स, तलाशने के लिए स्थान बदलना आदि)
* कार्य करने की क्षमता (जैसे [[रोबोटिक]]्स, तलाशने के लिए स्थान बदलना आदि)
इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है।<ref>{{cite journal | last1 = White | first1 = R. W. | year = 1959 | title = Motivation reconsidered: The concept of competence | journal = Psychological Review | volume = 66 | issue = 5| pages = 297–333 | doi=10.1037/h0040934| pmid = 13844397 }}</ref> कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल इंटेलिजेंस और निर्णय लेने) कल्पना (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।<ref>{{Harvnb|Johnson|1987}}</ref><ref>de Charms, R. (1968). Personal causation. New York: Academic Press.</ref>
इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है।<ref>{{cite journal | last1 = White | first1 = R. W. | year = 1959 | title = Motivation reconsidered: The concept of competence | journal = Psychological Review | volume = 66 | issue = 5| pages = 297–333 | doi=10.1037/h0040934| pmid = 13844397 }}</ref> कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल इंटेलिजेंस और निर्णय लेने) कल्पना (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।<ref>{{Harvnb|Johnson|1987}}</ref><ref>de Charms, R. (1968). Personal causation. New York: Academic Press.</ref>


कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, मौजूद हैं (उदाहरण के लिए [[कम्प्यूटेशनल रचनात्मकता]], स्वचालित तर्क, [[निर्णय समर्थन प्रणाली]], [[रोबोट]], [[विकासवादी संगणना]], [[बुद्धिमान एजेंट]] देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक AI सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।
कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, सम्मिलित हैं (उदाहरण के लिए [[कम्प्यूटेशनल रचनात्मकता]], स्वचालित तर्क, [[निर्णय समर्थन प्रणाली]], [[रोबोट]], [[विकासवादी संगणना]], [[बुद्धिमान एजेंट]] देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक एआई सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।


=== गणितीय औपचारिकताएँ ===
=== गणितीय औपचारिकताएँ ===
AGI का एक गणितीय सटीक विनिर्देश 2000 में [[मार्कस हटर]] द्वारा प्रस्तावित किया गया था। AIXI नामित, प्रस्तावित AGI एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है।<ref>{{cite book |last=Hutter |first=Marcus |date=2005 |title=Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability |series=Texts in Theoretical Computer Science an EATCS Series |url=https://link.springer.com/book/10.1007/b138233 |publisher=Springer |doi=10.1007/b138233 |isbn=978-3-540-26877-2 |access-date=19 July 2022 |archive-date=19 July 2022 |archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/book/10.1007/b138233 |url-status=live }}</ref> इस प्रकार के एजीआई, मानव-समान व्यवहार को प्रदर्शित करने के बजाय बुद्धि की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है<ref>{{cite thesis |last=Legg |first=Shane |date=2008 |title=मशीन सुपर इंटेलिजेंस|publisher=University of Lugano |url=http://www.vetta.org/documents/Machine_Super_Intelligence.pdf |access-date=19 July 2022 |archive-date=15 June 2022 |archive-url=https://web.archive.org/web/20220615160113/https://www.vetta.org/documents/Machine_Super_Intelligence.pdf |url-status=live }}</ref> को सार्वभौमिक कृत्रिम बुद्धि भी कहा जाता है।<ref>{{cite journal|journal=Journal of Artificial General Intelligence|last=Goertzel|first=Ben|title=Artificial General Intelligence: Concept, State of the Art, and Future Prospects|series=Lecture Notes in Computer Science |date=2014|volume=8598 |doi=10.1007/978-3-319-09274-4 |isbn=978-3-319-09273-7 |s2cid=8387410 |url=https://www.researchgate.net/publication/271390398}}</ref>
एजीआई का एक गणितीय सटीक विनिर्देश 2000 में [[मार्कस हटर]] द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित, प्रस्तावित एजीआई एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है।<ref>{{cite book |last=Hutter |first=Marcus |date=2005 |title=Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability |series=Texts in Theoretical Computer Science an EATCS Series |url=https://link.springer.com/book/10.1007/b138233 |publisher=Springer |doi=10.1007/b138233 |isbn=978-3-540-26877-2 |access-date=19 July 2022 |archive-date=19 July 2022 |archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/book/10.1007/b138233 |url-status=live }}</ref> इस प्रकार के एजीआई, मानव-समान व्यवहार को प्रदर्शित करने के बजाय बुद्धि की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है<ref>{{cite thesis |last=Legg |first=Shane |date=2008 |title=मशीन सुपर इंटेलिजेंस|publisher=University of Lugano |url=http://www.vetta.org/documents/Machine_Super_Intelligence.pdf |access-date=19 July 2022 |archive-date=15 June 2022 |archive-url=https://web.archive.org/web/20220615160113/https://www.vetta.org/documents/Machine_Super_Intelligence.pdf |url-status=live }}</ref> को सार्वभौमिक कृत्रिम बुद्धि भी कहा जाता है।<ref>{{cite journal|journal=Journal of Artificial General Intelligence|last=Goertzel|first=Ben|title=Artificial General Intelligence: Concept, State of the Art, and Future Prospects|series=Lecture Notes in Computer Science |date=2014|volume=8598 |doi=10.1007/978-3-319-09274-4 |isbn=978-3-319-09273-7 |s2cid=8387410 |url=https://www.researchgate.net/publication/271390398}}</ref>


2015 में जन लीक और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता"<ref>{{Cite web |last1=Everitt |first1=Tom |last2=Lea |first2=Gary |last3=Hutter |first3=Marcus |title=एजीआई सेफ्टी लिटरेचर रिव्यू|url=https://www.ijcai.org/proceedings/2018/0768.pdf |access-date=April 26, 2023 |website=International Joint Conferences on Artificial Intelligence Organization}}</ref> - "एक निश्चित [[यूनिवर्सल ट्यूरिंग मशीन]] (UTM) के संबंध में मापा जाता है। AIXI है सबसे बुद्धिमान नीति अगर यह उसी UTM का उपयोग करती है", जिसका परिणाम "AIXI के लिए सभी मौजूदा इष्टतमता गुणों को कम करता है"।<ref>{{cite conference | conference=The 28th Conference on Learning Theory | last1=Leike | first1=Jan | last2=Hutter | first2=Marcus | title=बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी| date=2015 | eprint=1510.04931 | url=https://proceedings.mlr.press/v40/Leike15.html | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020503/https://proceedings.mlr.press/v40/Leike15.html | url-status=live }}</ref> यह समस्या AIXI द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन-शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।<ref name="”mtb1”"><nowiki>{{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }</nowiki></ref> कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं - यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है।<ref name="”mtb1”" /> इसके बाद, माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कमजोरी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की। [27] साथ के प्रयोगों (कमजोरी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कमजोरी को अधिकतम करने से इष्टतम "कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता" [29] या समकक्ष "सामान्यीकरण करने की क्षमता" होती है रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी>{{cite arXiv |last=Chollet |first=Francois |date=2019 |title=बुद्धि के माप पर|class=cs.AI |eprint=1911.01547}}<nowiki></ref></nowiki> (इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना ). यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें)।
2015 में जन लीक और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता"<ref>{{Cite web |last1=Everitt |first1=Tom |last2=Lea |first2=Gary |last3=Hutter |first3=Marcus |title=एजीआई सेफ्टी लिटरेचर रिव्यू|url=https://www.ijcai.org/proceedings/2018/0768.pdf |access-date=April 26, 2023 |website=International Joint Conferences on Artificial Intelligence Organization}}</ref> - "एक निश्चित [[यूनिवर्सल ट्यूरिंग मशीन]] (UTM) के संबंध में मापा जाता है। एआईएक्सआई है सबसे बुद्धिमान नीति अगर यह उसी UTM का उपयोग करती है", जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलिता इष्टतमता गुणों को कम करता है"।<ref>{{cite conference | conference=The 28th Conference on Learning Theory | last1=Leike | first1=Jan | last2=Hutter | first2=Marcus | title=बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी| date=2015 | eprint=1510.04931 | url=https://proceedings.mlr.press/v40/Leike15.html | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020503/https://proceedings.mlr.press/v40/Leike15.html | url-status=live }}</ref> यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन-शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।<ref name="”mtb1”"><nowiki>{{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }</nowiki></ref> कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं - यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है।<ref name="”mtb1”" /> इसके बाद, माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की। [27] साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम "कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता" [29] या समकक्ष "सामान्यीकरण करने की क्षमता" होती है रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी>{{cite arXiv |last=Chollet |first=Francois |date=2019 |title=बुद्धि के माप पर|class=cs.AI |eprint=1911.01547}}<nowiki></ref></nowiki> (इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना ). यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें)।


इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा,<ref><nowiki>{{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=</nowiki>https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }</ref> उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है,<ref name="mtb2">{{cite conference | conference=14th Conference on Artificial General Intelligence | last=Bennett | first=Michael Timothy | title=प्रतीक उद्भव और किसी भी कार्य का समाधान| date=2021 | doi=10.1007/978-3-030-93758-4_4 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | arxiv=2109.01281 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052018/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | url-status=live }}</ref> या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है।<ref>{{cite conference | conference=14th Conference on Artificial General Intelligence | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | title=कृत्रिम वैज्ञानिक| date=2021 | doi=10.1007/978-3-030-93758-4_6 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | arxiv=2110.01831 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | url-status=live }}</ref>
इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा,<ref><nowiki>{{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=</nowiki>https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }</ref> उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है,<ref name="mtb2">{{cite conference | conference=14th Conference on Artificial General Intelligence | last=Bennett | first=Michael Timothy | title=प्रतीक उद्भव और किसी भी कार्य का समाधान| date=2021 | doi=10.1007/978-3-030-93758-4_4 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | arxiv=2109.01281 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052018/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_4 | url-status=live }}</ref> या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है।<ref>{{cite conference | conference=14th Conference on Artificial General Intelligence | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | title=कृत्रिम वैज्ञानिक| date=2021 | doi=10.1007/978-3-030-93758-4_6 | url=https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | arxiv=2110.01831 | access-date=19 July 2022 | archive-date=19 July 2022 | archive-url=https://web.archive.org/web/20220719052038/https://link.springer.com/chapter/10.1007/978-3-030-93758-4_6 | url-status=live }}</ref>


=== मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण{{anchor|Tests_for_confirming_human-level_AGI}}===
=== मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण{{anchor|Tests_for_confirming_human-level_AGI}}===
मानव-स्तरीय AGI की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:<ref>{{cite web|last=Muehlhauser|first=Luke|title=What is AGI?|url=http://intelligence.org/2013/08/11/what-is-agi/|publisher=Machine Intelligence Research Institute|access-date=1 May 2014|date=11 August 2013|archive-url=https://web.archive.org/web/20140425115445/http://intelligence.org/2013/08/11/what-is-agi/|archive-date=25 April 2014|url-status=live}}</ref><ref>{{Cite web|url=https://www.talkyblog.com/artificial_general_intelligence_agi/|title=What is Artificial General Intelligence (AGI)? {{!}} 4 Tests For Ensuring Artificial General Intelligence|date=13 July 2019|website=Talky Blog|language=en-US|access-date=17 July 2019|archive-url=https://web.archive.org/web/20190717071152/https://www.talkyblog.com/artificial_general_intelligence_agi/|archive-date=17 July 2019|url-status=live}}</ref>  
मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:<ref>{{cite web|last=Muehlhauser|first=Luke|title=What is AGI?|url=http://intelligence.org/2013/08/11/what-is-agi/|publisher=Machine Intelligence Research Institute|access-date=1 May 2014|date=11 August 2013|archive-url=https://web.archive.org/web/20140425115445/http://intelligence.org/2013/08/11/what-is-agi/|archive-date=25 April 2014|url-status=live}}</ref><ref>{{Cite web|url=https://www.talkyblog.com/artificial_general_intelligence_agi/|title=What is Artificial General Intelligence (AGI)? {{!}} 4 Tests For Ensuring Artificial General Intelligence|date=13 July 2019|website=Talky Blog|language=en-US|access-date=17 July 2019|archive-url=https://web.archive.org/web/20190717071152/https://www.talkyblog.com/artificial_general_intelligence_agi/|archive-date=17 July 2019|url-status=live}}</ref>  


'''ट्यूरिंग टेस्ट (ट्यूरिंग)'''
'''ट्यूरिंग टेस्ट (ट्यूरिंग)'''
Line 64: Line 64:
{{Main|एआई-पूर्णता}}
{{Main|एआई-पूर्णता}}


ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का पालन करें, जानें कि किस बारे में बात की जा रही है (ज्ञान), और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि)। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।
ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का पालन करें, जानें कि किस विषय में बात की जा रही है (ज्ञान), और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि)। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।


एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।<ref name="Shapiro92">{{cite book |last=Shapiro |first=Stuart C. |year=1992 |chapter-url=http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |url-status=live |archive-url=https://web.archive.org/web/20160201014644/http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |archive-date=1 February 2016 |chapter=Artificial Intelligence |editor=Stuart C. Shapiro |title=आर्टिफिशियल इंटेलिजेंस का विश्वकोश|edition=Second |pages=54–57 |location=New York |publisher=John Wiley}} (Section 4 is on "AI-Complete Tasks".)</ref>
एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।<ref name="Shapiro92">{{cite book |last=Shapiro |first=Stuart C. |year=1992 |chapter-url=http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |url-status=live |archive-url=https://web.archive.org/web/20160201014644/http://www.cse.buffalo.edu/~shapiro/Papers/ai.pdf |archive-date=1 February 2016 |chapter=Artificial Intelligence |editor=Stuart C. Shapiro |title=आर्टिफिशियल इंटेलिजेंस का विश्वकोश|edition=Second |pages=54–57 |location=New York |publisher=John Wiley}} (Section 4 is on "AI-Complete Tasks".)</ref>
Line 82: Line 82:
[[डौग लेनट]] की सीईसी परियोजना (जो 1984 में शुरू हुई), और [[एलन नेवेल]] की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई [[प्रतीकात्मक एआई]], एजीआई में निर्देशित किए गए थे।
[[डौग लेनट]] की सीईसी परियोजना (जो 1984 में शुरू हुई), और [[एलन नेवेल]] की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई [[प्रतीकात्मक एआई]], एजीआई में निर्देशित किए गए थे।


हालाँकि, 1970 के दशक की शुरुआत में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।{{efn|The [[Lighthill report]] specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.<ref>{{Harvnb|Lighthill|1973}}; {{Harvnb|Howe|1994}}</ref> In the U.S., [[DARPA]] became determined to fund only "mission-oriented direct research, rather than basic undirected research".{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=115–117}}; {{Harvnb|Russell|Norvig|2003|pp=21–22}}.</ref>}} 1980 के दशक की शुरुआत में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य शामिल थे जैसे "आकस्मिक बातचीत जारी रखें"।<ref>{{harvnb|Crevier|1993|p=211}}, {{harvnb|Russell|Norvig|2003|p=24}} and see also {{Harvnb|Feigenbaum|McCorduck|1983}}</ref> इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=161–162,197–203,240}}; {{harvnb|Russell|Norvig|2003|p=25}}.</ref> हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार ढंग से गिर गया, और पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए।<ref>{{Harvnb|Crevier|1993|pp=209–212}}</ref>20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की भविष्यवाणी करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने के लिए अनिच्छुक हो गए{{efn|As AI founder [[John McCarthy (computer scientist)|John McCarthy]] writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."<ref>{{cite web |title=Reply to Lighthill |last=McCarthy |first=John |author-link=John McCarthy (computer scientist) |publisher=Stanford University |year=2000 |url=http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |access-date=29 September 2007 |archive-url=https://web.archive.org/web/20080930164952/http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |archive-date=30 September 2008 |url-status=live}}</ref>}} और "जंगली आंखों वाले सपने देखने वाले [एस]" लेबल किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।<ref>{{cite news |quote=इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।|first=John |last=Markoff |date=14 October 2005 |title=आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन|work=The New York Times |url=https://www.nytimes.com/2005/10/14/technology/14artificial.html?ei=5070&en=11ab55edb7cead5e&ex=1185940800&adxnnl=1&adxnnlx=1185805173-o7WsfW7qaP0x5%2FNUs1cQCQ |access-date=18 February 2017 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181023/https://www.nytimes.com/2005/10/14/technology/behind-artificial-intelligence-a-squadron-of-bright-real-people.html |url-status=live }}</ref>
हालाँकि, 1970 के दशक की प्रारम्भ में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।{{efn|The [[Lighthill report]] specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.<ref>{{Harvnb|Lighthill|1973}}; {{Harvnb|Howe|1994}}</ref> In the U.S., [[DARPA]] became determined to fund only "mission-oriented direct research, rather than basic undirected research".{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=115–117}}; {{Harvnb|Russell|Norvig|2003|pp=21–22}}.</ref>}} 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य शामिल थे जैसे "आकस्मिक बातचीत जारी रखें"।<ref>{{harvnb|Crevier|1993|p=211}}, {{harvnb|Russell|Norvig|2003|p=24}} and see also {{Harvnb|Feigenbaum|McCorduck|1983}}</ref> इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।{{sfn|NRC|1999|loc="Shift to Applied Research Increases Investment"}}<ref>{{Harvnb|Crevier|1993|pp=161–162,197–203,240}}; {{harvnb|Russell|Norvig|2003|p=25}}.</ref> हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार ढंग से गिर गया, और पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए।<ref>{{Harvnb|Crevier|1993|pp=209–212}}</ref>20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने के लिए अनिच्छुक हो गए{{efn|As AI founder [[John McCarthy (computer scientist)|John McCarthy]] writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."<ref>{{cite web |title=Reply to Lighthill |last=McCarthy |first=John |author-link=John McCarthy (computer scientist) |publisher=Stanford University |year=2000 |url=http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |access-date=29 September 2007 |archive-url=https://web.archive.org/web/20080930164952/http://www-formal.stanford.edu/jmc/reviews/lighthill/lighthill.html |archive-date=30 September 2008 |url-status=live}}</ref>}} और "जंगली आंखों वाले सपने देखने वाले [एस]" लेबल किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।<ref>{{cite news |quote=इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।|first=John |last=Markoff |date=14 October 2005 |title=आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन|work=The New York Times |url=https://www.nytimes.com/2005/10/14/technology/14artificial.html?ei=5070&en=11ab55edb7cead5e&ex=1185940800&adxnnl=1&adxnnlx=1185805173-o7WsfW7qaP0x5%2FNUs1cQCQ |access-date=18 February 2017 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181023/https://www.nytimes.com/2005/10/14/technology/behind-artificial-intelligence-a-squadron-of-bright-real-people.html |url-status=live }}</ref>
=== संकीर्ण एआई अनुसंधान ===
=== संकीर्ण एआई अनुसंधान ===
{{Main|कृत्रिम बुद्धिमत्ता}}
{{Main|कृत्रिम बुद्धिमत्ता}}


1990 के दशक और 21वीं सदी की शुरुआत में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकता है।<ref>{{Harvnb|Russell|Norvig|2003|pp=25–26}}</ref> ये "एप्लाइड एआई" सिस्टम अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी।<ref>{{cite web |title=इमर्जिंग टेक हाइप साइकिल में रुझान|url=https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |publisher=Gartner Reports |access-date=7 May 2019 |archive-url=https://web.archive.org/web/20190522024829/https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |archive-date=22 May 2019 |url-status=live }}</ref>
1990 के दशक और 21वीं सदी की प्रारम्भ में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकता है।<ref>{{Harvnb|Russell|Norvig|2003|pp=25–26}}</ref> ये "एप्लाइड एआई" सिस्टम अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी।<ref>{{cite web |title=इमर्जिंग टेक हाइप साइकिल में रुझान|url=https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |publisher=Gartner Reports |access-date=7 May 2019 |archive-url=https://web.archive.org/web/20190522024829/https://blogs.gartner.com/smarterwithgartner/files/2018/08/PR_490866_5_Trends_in_the_Emerging_Tech_Hype_Cycle_2018_Hype_Cycle.png |archive-date=22 May 2019 |url-status=live }}</ref>


अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। [[हंस मोरवेस]] ने 1988 में लिखा था:<ref name=":4">{{Harvnb|Moravec|1988|p=20}}</ref>  
अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। [[हंस मोरवेस]] ने 1988 में लिखा था:<ref name=":4">{{Harvnb|Moravec|1988|p=20}}</ref>  


मुझे विश्वास है कि आर्टिफिशियल इंटेलिजेंस के लिए यह बॉटम-अप रूट एक दिन पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमन्सेंस ज्ञान प्रदान करने के लिए तैयार है, जो रीजनिंग प्रोग्राम में निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करते हुए रूपक सुनहरी कील को चलाया जाएगा।<ref name=":4" />
मुझे विश्वास है कि कृत्रिम बुद्धिमत्ता के लिए यह बॉटम-अप रूट एक दिन पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमन्सेंस ज्ञान प्रदान करने के लिए तैयार है, जो रीजनिंग प्रोग्राम में निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करते हुए रूपक सुनहरी कील को चलाया जाएगा।<ref name=":4" />


हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सिंबल ग्राउंडिंग परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "टॉप-डाउन" (प्रतीकात्मक) दृष्टिकोण किसी तरह "नीचे-ऊपर" (संवेदी) दृष्टिकोण को कहीं बीच में मिलेंगे। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक पहुंचने का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां पहुंचने से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)।<ref>{{cite journal | last1 = Harnad | first1 = S | year = 1990 | title = सिंबल ग्राउंडिंग प्रॉब्लम| journal = Physica D | volume = 42 | issue = 1–3| pages = 335–346 | doi=10.1016/0167-2789(90)90087-6| bibcode = 1990PhyD...42..335H | arxiv = cs/9906002| s2cid = 3204300 }}</ref>
हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सिंबल ग्राउंडिंग परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "टॉप-डाउन" (प्रतीकात्मक) दृष्टिकोण किसी तरह "नीचे-ऊपर" (संवेदी) दृष्टिकोण को कहीं बीच में मिलेंगे। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)।<ref>{{cite journal | last1 = Harnad | first1 = S | year = 1990 | title = सिंबल ग्राउंडिंग प्रॉब्लम| journal = Physica D | volume = 42 | issue = 1–3| pages = 335–346 | doi=10.1016/0167-2789(90)90087-6| bibcode = 1990PhyD...42..335H | arxiv = cs/9906002| s2cid = 3204300 }}</ref>


=== आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान ===
=== आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान ===
शब्द "आर्टिफिशियल जनरल इंटेलिजेंस" का इस्तेमाल 1997 की शुरुआत में मार्क गुब्रुड द्वारा किया गया था<ref>{{Harvnb|Gubrud|1997}}</ref> पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में। 2002 के आसपास [[शेन लेग]] और [[बेन गोएर्टज़ेल]] द्वारा इस शब्द को फिर से पेश किया गया और इसे लोकप्रिय बनाया गया।<ref>{{Cite web|url=http://goertzel.org/who-coined-the-term-agi/|title=Who coined the term "AGI"? » goertzel.org|language=en-US|access-date=28 December 2018|archive-url=https://web.archive.org/web/20181228083048/http://goertzel.org/who-coined-the-term-agi/|archive-date=28 December 2018|url-status=live}}, via [[Life 3.0]]: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'</ref> 2006 में AGI अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था <ref>{{cite web |title=First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009 |url=https://goertzel.org/AGI_Summer_School_2009.htm |access-date=11 May 2020 |archive-date=28 September 2020 |archive-url=https://web.archive.org/web/20200928173146/https://www.goertzel.org/AGI_Summer_School_2009.htm |url-status=live }}</ref> "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में। एजीआई में पहला समर स्कूल ज़ियामेन, चीन में 2009[59] में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010<ref>{{cite web |title=Избираеми дисциплини 2009/2010 - пролетен триместър |language=bg |trans-title=Elective courses 2009/2010 - spring trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726103659/http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |url-status=live }}</ref> और 2011<ref>{{cite web |title=Избираеми дисциплини 2010/2011 - зимен триместър |language=bg |trans-title=Elective courses 2010/2011 - winter trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726094625/http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |url-status=live }}</ref> में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। MIT ने 2018 में AGI में एक पाठ्यक्रम प्रस्तुत किया, जिसे [[लेक्स फ्रिडमैन]] द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।
शब्द "आर्टिफिशियल जनरल इंटेलिजेंस" का इस्तेमाल 1997 की प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था<ref>{{Harvnb|Gubrud|1997}}</ref> पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में। 2002 के आसपास [[शेन लेग]] और [[बेन गोएर्टज़ेल]] द्वारा इस शब्द को फिर से पेश किया गया और इसे लोकप्रिय बनाया गया।<ref>{{Cite web|url=http://goertzel.org/who-coined-the-term-agi/|title=Who coined the term "AGI"? » goertzel.org|language=en-US|access-date=28 December 2018|archive-url=https://web.archive.org/web/20181228083048/http://goertzel.org/who-coined-the-term-agi/|archive-date=28 December 2018|url-status=live}}, via [[Life 3.0]]: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'</ref> 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था <ref>{{cite web |title=First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009 |url=https://goertzel.org/AGI_Summer_School_2009.htm |access-date=11 May 2020 |archive-date=28 September 2020 |archive-url=https://web.archive.org/web/20200928173146/https://www.goertzel.org/AGI_Summer_School_2009.htm |url-status=live }}</ref> "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में। एजीआई में पहला समर स्कूल ज़ियामेन, चीन में 2009[59] में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010<ref>{{cite web |title=Избираеми дисциплини 2009/2010 - пролетен триместър |language=bg |trans-title=Elective courses 2009/2010 - spring trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726103659/http://fmi-plovdiv.org/index.jsp?id=1054&ln=1 |url-status=live }}</ref> और 2011<ref>{{cite web |title=Избираеми дисциплини 2010/2011 - зимен триместър |language=bg |trans-title=Elective courses 2010/2011 - winter trimester |website=Факултет по математика и информатика [Faculty of Mathematics and Informatics] |url=http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |access-date=11 May 2020 |archive-date=26 July 2020 |archive-url=https://web.archive.org/web/20200726094625/http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1 |url-status=live }}</ref> में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। MIT ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया, जिसे [[लेक्स फ्रिडमैन]] द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।


2023 तक, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई [[आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन]] सम्मेलनों की एक श्रृंखला में योगदान करते हैं।
2023 तक, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई [[आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन]] सम्मेलनों की एक श्रृंखला में योगदान करते हैं।


=== समयमान ===
=== समयमान ===
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है{{sfn|Goertzel|Pennachin|2006}} कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक AGI अनुसंधान समुदाय में आम सहमति प्रतीत होती थी कि द सिंगुलैरिटी में [[रे कुर्ज़वील]] द्वारा चर्चा की गई समयरेखा निकट है<ref name="K">{{Harv|Kurzweil|2005|p=260}} or see [http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html Advanced Human Intelligence] {{Webarchive|url=https://web.archive.org/web/20110630032301/http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |date=30 June 2011 }} where he defines strong AI as "machine intelligence with the full range of human intelligence."</ref> (अर्थात 2015 और 2045 के बीच) प्रशंसनीय थी।{{sfn|Goertzel|2007}} मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेजी से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह भविष्यवाणी करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की शुरुआत आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।<ref>{{cite web |url=https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |title=Error in Armstrong and Sotala 2012 |website=AI Impacts |type=blog |author=Katja Grace |year=2016 |access-date=2020-08-24 |archive-date=4 December 2020 |archive-url=https://web.archive.org/web/20201204012302/https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |url-status=live }}</ref>
अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है{{sfn|Goertzel|Pennachin|2006}} कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक एजीआई अनुसंधान समुदाय में आम सहमति प्रतीत होती थी कि द सिंगुलैरिटी में [[रे कुर्ज़वील]] द्वारा चर्चा की गई समयरेखा निकट है<ref name="K">{{Harv|Kurzweil|2005|p=260}} or see [http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html Advanced Human Intelligence] {{Webarchive|url=https://web.archive.org/web/20110630032301/http://crnano.typepad.com/crnblog/2005/08/advanced_human_.html |date=30 June 2011 }} where he defines strong AI as "machine intelligence with the full range of human intelligence."</ref> (अर्थात 2015 और 2045 के बीच) प्रशंसनीय थी।{{sfn|Goertzel|2007}} मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेजी से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।<ref>{{cite web |url=https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |title=Error in Armstrong and Sotala 2012 |website=AI Impacts |type=blog |author=Katja Grace |year=2016 |access-date=2020-08-24 |archive-date=4 December 2020 |archive-url=https://web.archive.org/web/20201204012302/https://aiimpacts.org/error-in-armstrong-and-sotala-2012/ |url-status=live }}</ref>


2012 में, [[एलेक्स क्रिज़ेव्स्की]], [[इल्या सुतस्केवर]], और [[जेफ्री हिंटन]] ने [[एलेक्सनेट]] नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने [[ इमेज नेट |इमेज नेट]] प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया)। [66] एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।<ref name=":5">{{Cite journal |last=Butz |first=Martin V. |date=2021-03-01 |title=मजबूत एआई की ओर|url=https://doi.org/10.1007/s13218-021-00705-x |journal=KI - Künstliche Intelligenz |language=en |volume=35 |issue=1 |pages=91–101 |doi=10.1007/s13218-021-00705-x |s2cid=256065190 |issn=1610-1987}}</ref>
2012 में, [[एलेक्स क्रिज़ेव्स्की]], [[इल्या सुतस्केवर]], और [[जेफ्री हिंटन]] ने [[एलेक्सनेट]] नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने [[ इमेज नेट |इमेज नेट]] प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया)। [66] एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।<ref name=":5">{{Cite journal |last=Butz |first=Martin V. |date=2021-03-01 |title=मजबूत एआई की ओर|url=https://doi.org/10.1007/s13218-021-00705-x |journal=KI - Künstliche Intelligenz |language=en |volume=35 |issue=1 |pages=91–101 |doi=10.1007/s13218-021-00705-x |s2cid=256065190 |issn=1610-1987}}</ref>


2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कमजोर एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये AI लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था।<ref>{{cite journal |title=आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड|journal=Annals of Data Science |volume=4 |issue=2 |pages=179–191 |arxiv=1709.10242 |doi=10.1007/s40745-017-0109-0 |year=2017 |last1=Liu |first1=Feng |last2=Shi |first2=Yong |last3=Liu |first3=Ying |s2cid=37900130}}</ref><ref>{{cite web |title=Google AI सिरी से दोगुना स्मार्ट है|url=https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003 |access-date=2 January 2019 |last=Brien |first=Jörn |date=2017-10-05 |language=de |trans-title=Google AI is twice as smart as Siri - but a six-year-old beats both |archive-url=https://web.archive.org/web/20190103055657/https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003/ |archive-date=3 January 2019|url-status=live}}</ref>
2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये एआई लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था।<ref>{{cite journal |title=आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड|journal=Annals of Data Science |volume=4 |issue=2 |pages=179–191 |arxiv=1709.10242 |doi=10.1007/s40745-017-0109-0 |year=2017 |last1=Liu |first1=Feng |last2=Shi |first2=Yong |last3=Liu |first3=Ying |s2cid=37900130}}</ref><ref>{{cite web |title=Google AI सिरी से दोगुना स्मार्ट है|url=https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003 |access-date=2 January 2019 |last=Brien |first=Jörn |date=2017-10-05 |language=de |trans-title=Google AI is twice as smart as Siri - but a six-year-old beats both |archive-url=https://web.archive.org/web/20190103055657/https://t3n.de/news/iq-kind-schlauer-google-ki-siri-864003/ |archive-date=3 January 2019|url-status=live}}</ref>


2020 में, OpenAI ने GPT-3 विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। [[वेंचरबीट]] लेख में [[गैरी ग्रॉसमैन]] के अनुसार, जबकि इस बात पर सहमति है कि GPT-3 AGI का एक उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण AI प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।<ref>{{cite web |url=https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |title=हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं|date=September 3, 2020 |first=Gary |last=Grossman |access-date=September 5, 2020 |publisher=[[VentureBeat]] |quote="Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI." |archive-date=4 September 2020 |archive-url=https://web.archive.org/web/20200904191750/https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |url-status=live }}</ref>
2020 में, ओपीईएनएआई ने जीपीटी-3 विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। [[वेंचरबीट]] लेख में [[गैरी ग्रॉसमैन]] के अनुसार, जबकि इस बात पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।<ref>{{cite web |url=https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |title=हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं|date=September 3, 2020 |first=Gary |last=Grossman |access-date=September 5, 2020 |publisher=[[VentureBeat]] |quote="Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI." |archive-date=4 September 2020 |archive-url=https://web.archive.org/web/20200904191750/https://venturebeat.com/2020/09/03/were-entering-the-ai-twilight-zone-between-narrow-and-general-ai/ |url-status=live }}</ref>


उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने GPT-3 खाते का उपयोग किया, और "प्रोजेक्ट दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया। OpenAI ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने GPT-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया।<ref>{{cite web |last1=Quach |first1=Katyanna |title=A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down |url=https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |publisher=The Register |access-date=16 October 2021 |archive-date=16 October 2021 |archive-url=https://web.archive.org/web/20211016232620/https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |url-status=live }}</ref>
उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया, और "प्रोजेक्ट दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया। ओपीईएनएआई ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने जीपीटी-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया।<ref>{{cite web |last1=Quach |first1=Katyanna |title=A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down |url=https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |publisher=The Register |access-date=16 October 2021 |archive-date=16 October 2021 |archive-url=https://web.archive.org/web/20211016232620/https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/ |url-status=live }}</ref>


2022 में[[गाटो (डीपमाइंड)]] ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।<ref>{{citation|title=DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots|first=Kyle|last=Wiggers|date=May 13, 2022|work=[[TechCrunch]]|url=https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|access-date=12 June 2022|archive-date=16 June 2022|archive-url=https://web.archive.org/web/20220616185232/https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|url-status=live}}</ref>
2022 में[[गाटो (डीपमाइंड)]] ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।<ref>{{citation|title=DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots|first=Kyle|last=Wiggers|date=May 13, 2022|work=[[TechCrunch]]|url=https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|access-date=12 June 2022|archive-date=16 June 2022|archive-url=https://web.archive.org/web/20220616185232/https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/|url-status=live}}</ref>


2023 में, Microsoft रिसर्च ने OpenAI के GPT-4 के शुरुआती संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले AI मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या GPT-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर जोर दिया गया।<ref>{{cite arXiv|last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4  |date=22 March 2023 |class=cs.CL |eprint=2303.12712}}</ref>
2023 में, Microsoft शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर महत्व दिया गया।<ref>{{cite arXiv|last1=Bubeck |first1=Sébastien |last2=Chandrasekaran |first2=Varun |last3=Eldan |first3=Ronen |last4=Gehrke |first4=Johannes |last5=Horvitz |first5=Eric |last6=Kamar |first6=Ece |last7=Lee |first7=Peter |last8=Lee |first8=Yin Tat |last9=Li |first9=Yuanzhi |last10=Lundberg |first10=Scott |last11=Nori |first11=Harsha |last12=Palangi |first12=Hamid |last13=Ribeiro |first13=Marco Tulio |last14=Zhang |first14=Yi |title=Sparks of Artificial General Intelligence: Early experiments with GPT-4  |date=22 March 2023 |class=cs.CL |eprint=2303.12712}}</ref>
== ब्रेन सिमुलेशन ==
== ब्रेन सिमुलेशन ==


Line 118: Line 118:
{{Main|माइंड उदभारण}}
{{Main|माइंड उदभारण}}


AGI को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क को विस्तार से [[मस्तिष्क स्कैनिंग]] और [[ब्रेन मैपिंग]] करके और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी करके बनाया जाता है। [[कंप्यूटर सिमुलेशन]] मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है।<ref name="Roadmap">{{Harvnb|Sandberg|Boström|2008}}. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."</ref> चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल न्यूरोसाइंस और [[neuroinformatics|न्यूरोइनफॉरमैटिक्स]] में संपूर्ण [[मस्तिष्क अनुकरण]] पर चर्चा की गई है। इसकी चर्चा आर्टिफिशियल इंटेलिजेंस रिसर्च {{sfn|Goertzel|2007}} में मजबूत एआई के दृष्टिकोण के रूप में की गई है। [[न्यूरोइमेजिंग]] प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और द सिंगुलैरिटी इज़ नियर<ref name="K" /> पुस्तक में भविष्यवादी रे कुर्ज़वील ने भविष्यवाणी की है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर होगी।
एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क को विस्तार से [[मस्तिष्क स्कैनिंग]] और [[ब्रेन मैपिंग]] करके और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी करके बनाया जाता है। [[कंप्यूटर सिमुलेशन]] मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है।<ref name="Roadmap">{{Harvnb|Sandberg|Boström|2008}}. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."</ref> चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल न्यूरोसाइंस और [[neuroinformatics|न्यूरोइनफॉरमैटिक्स]] में संपूर्ण [[मस्तिष्क अनुकरण]] पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध {{sfn|Goertzel|2007}} में मजबूत एआई के दृष्टिकोण के रूप में की गई है। [[न्यूरोइमेजिंग]] प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और द सिंगुलैरिटी इज़ नियर<ref name="K" /> पुस्तक में भविष्यवादी रे कुर्ज़वील ने पूर्वानुमान की है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर होगी।


===प्रारंभिक अनुमान===
===प्रारंभिक अनुमान===
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में सिनैप्स होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 1015 सिनेप्स (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 1014 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन) तक।{{sfn|Drachman|2005}} [[न्यूरॉन्स]] गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (SUPS) है।{{sfn|Russell|Norvig|2003}}
निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में सिनैप्स होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 1015 सिनेप्स (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 1014 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन) तक।{{sfn|Drachman|2005}} [[न्यूरॉन्स]] गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) है।{{sfn|Russell|Norvig|2003}}


1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया। [ई] (तुलना के लिए, यदि "गणना" एक "फ्लोटिंग-पॉइंट" के बराबर थी ऑपरेशन" - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - फिर 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में हासिल किया गया था।) उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर की भविष्यवाणी करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025, यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही है।
1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया। [ई] (तुलना के लिए, यदि "गणना" एक "फ्लोटिंग-पॉइंट" के बराबर थी ऑपरेशन" - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - फिर 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में हासिल किया गया था।) उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर की पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025, यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही है।


=== अधिक विस्तार से न्यूरॉन्स की मॉडलिंग ===
=== अधिक विस्तार से न्यूरॉन्स की मॉडलिंग ===
Kurzweil द्वारा ग्रहण किया गया [[कृत्रिम न्यूरॉन]] मॉडल और कई मौजूदा [[कृत्रिम तंत्रिका नेटवर्क]] कार्यान्वयन में उपयोग [[जैविक न्यूरॉन मॉडल]] की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।<ref name="Discover2011JanFeb">{{Cite journal|author=Swaminathan, Nikhil|title=Glia—the other brain cells|journal=Discover|date=Jan–Feb 2011|url=http://discovermagazine.com/2011/jan-feb/62|access-date=24 January 2014|archive-url=https://web.archive.org/web/20140208071350/http://discovermagazine.com/2011/jan-feb/62|archive-date=8 February 2014|url-status=live}}</ref>
कुर्ज़वील द्वारा ग्रहण किया गया [[कृत्रिम न्यूरॉन]] मॉडल और कई सम्मिलिता [[कृत्रिम तंत्रिका नेटवर्क]] कार्यान्वयन में उपयोग [[जैविक न्यूरॉन मॉडल]] की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।<ref name="Discover2011JanFeb">{{Cite journal|author=Swaminathan, Nikhil|title=Glia—the other brain cells|journal=Discover|date=Jan–Feb 2011|url=http://discovermagazine.com/2011/jan-feb/62|access-date=24 January 2014|archive-url=https://web.archive.org/web/20140208071350/http://discovermagazine.com/2011/jan-feb/62|archive-date=8 February 2014|url-status=live}}</ref>
=== वर्तमान शोध ===
=== वर्तमान शोध ===
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। [[आर्टिफिशियल इंटेलिजेंस सिस्टम]] प्रोजेक्ट ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय सिमुलेशन को लागू किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे।<ref>{{cite journal |last1=Izhikevich |first1=Eugene M. |last2=Edelman |first2=Gerald M. |date=4 March 2008 |title=स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल|url=http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |journal=PNAS |volume=105 |issue=9 |pages=3593–3598 |doi= 10.1073/pnas.0712231105|access-date=23 June 2015 |archive-url=https://web.archive.org/web/20090612095651/http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |archive-date=12 June 2009 |pmid=18292226 |pmc=2265160|bibcode=2008PNAS..105.3593I |doi-access=free }}</ref> [[ब्लू ब्रेन]] प्रोजेक्ट ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 सिनैप्स वाले एकल चूहे नियोकोर्टिकल कॉलम का वास्तविक समय सिमुलेशन बनाने के लिए सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर, [[आईबीएम]] के [[ब्लू जीन]] प्लेटफॉर्म में से एक का उपयोग किया।<ref>{{cite web|url=http://bluebrain.epfl.ch/Jahia/site/bluebrain/op/edit/pid/19085|title=परियोजना के मील के पत्थर|work=Blue Brain|access-date=11 August 2008}}</ref> एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं," ब्लू ब्रेन के निदेशक हेनरी मार्कराम प्रोजेक्ट, 2009 में ऑक्सफोर्ड में TED सम्मेलन में कहा गया।<ref>{{Cite news |url=http://news.bbc.co.uk/1/hi/technology/8164060.stm |title=कृत्रिम मस्तिष्क '10 साल दूर'|work=BBC News |date=22 July 2009 |access-date=25 July 2009 |archive-url=https://web.archive.org/web/20170726040959/http://news.bbc.co.uk/1/hi/technology/8164060.stm |archive-date=26 July 2017 |url-status=live }}</ref> न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर हो सकता है।<ref>[http://gauntlet.ucalgary.ca/story/10343 University of Calgary news] {{Webarchive|url=https://web.archive.org/web/20090818081044/http://gauntlet.ucalgary.ca/story/10343 |date=18 August 2009 }}, [http://www.nbcnews.com/id/12037941 NBC News news] {{Webarchive|url=https://web.archive.org/web/20170704063922/http://www.nbcnews.com/id/12037941/ |date=4 July 2017 }}</ref>
कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। [[आर्टिफिशियल इंटेलिजेंस सिस्टम|कृत्रिम बुद्धिमत्ता सिस्टम]] प्रोजेक्ट ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय सिमुलेशन को लागू किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे।<ref>{{cite journal |last1=Izhikevich |first1=Eugene M. |last2=Edelman |first2=Gerald M. |date=4 March 2008 |title=स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल|url=http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |journal=PNAS |volume=105 |issue=9 |pages=3593–3598 |doi= 10.1073/pnas.0712231105|access-date=23 June 2015 |archive-url=https://web.archive.org/web/20090612095651/http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf |archive-date=12 June 2009 |pmid=18292226 |pmc=2265160|bibcode=2008PNAS..105.3593I |doi-access=free }}</ref> [[ब्लू ब्रेन]] प्रोजेक्ट ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 सिनैप्स वाले एकल चूहे नियोकोर्टिकल कॉलम का वास्तविक समय सिमुलेशन बनाने के लिए सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर, [[आईबीएम]] के [[ब्लू जीन]] प्लेटफॉर्म में से एक का उपयोग किया।<ref>{{cite web|url=http://bluebrain.epfl.ch/Jahia/site/bluebrain/op/edit/pid/19085|title=परियोजना के मील के पत्थर|work=Blue Brain|access-date=11 August 2008}}</ref> एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं," ब्लू ब्रेन के निदेशक हेनरी मार्कराम प्रोजेक्ट, 2009 में ऑक्सफोर्ड में TED सम्मेलन में कहा गया।<ref>{{Cite news |url=http://news.bbc.co.uk/1/hi/technology/8164060.stm |title=कृत्रिम मस्तिष्क '10 साल दूर'|work=BBC News |date=22 July 2009 |access-date=25 July 2009 |archive-url=https://web.archive.org/web/20170726040959/http://news.bbc.co.uk/1/hi/technology/8164060.stm |archive-date=26 July 2017 |url-status=live }}</ref> न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर हो सकता है।<ref>[http://gauntlet.ucalgary.ca/story/10343 University of Calgary news] {{Webarchive|url=https://web.archive.org/web/20090818081044/http://gauntlet.ucalgary.ca/story/10343 |date=18 August 2009 }}, [http://www.nbcnews.com/id/12037941 NBC News news] {{Webarchive|url=https://web.archive.org/web/20170704063922/http://www.nbcnews.com/id/12037941/ |date=4 July 2017 }}</ref>


हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन ब्रेन?" में उपरोक्त तर्कों ("दिमाग अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया।{{sfn|Moravec|1998}} उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए मौजूदा सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम {{specify|date=April 2023}} ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।
हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन ब्रेन?" में उपरोक्त तर्कों ("दिमाग अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया।{{sfn|Moravec|1998}} उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम {{specify|date=April 2023}} ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।


ओपनवॉर्म प्रोजेक्ट में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की शुरुआत से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, शुरुआत में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में, {{Current event inline|date=April 2023}} प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।
ओपनवॉर्म प्रोजेक्ट में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की प्रारम्भ से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में, {{Current event inline|date=April 2023}} प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।


=== सिमुलेशन-आधारित दृष्टिकोणों की आलोचना ===
=== सिमुलेशन-आधारित दृष्टिकोणों की आलोचना ===
सिम्युलेटेड ब्रेन एप्रोच की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर जोर देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य पहलू है और जमीनी अर्थ के लिए आवश्यक है।<ref>{{Harvnb|de Vega|Glenberg|Graesser|2008}}. A wide range of views in current research, all of which require grounding to some degree</ref> यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी।{{sfn|Goertzel|2007}} गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।
सिम्युलेटेड ब्रेन एप्रोच की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और जमीनी अर्थ के लिए आवश्यक है।<ref>{{Harvnb|de Vega|Glenberg|Graesser|2008}}. A wide range of views in current research, all of which require grounding to some degree</ref> यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी।{{sfn|Goertzel|2007}} गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।


109 cps (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरेवेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम, लेकिन कुछ रुचि के बावजूद<ref>{{Cite web |title=[links to bee brain studies] |website=Honey Bee Brain |url=http://www.setiai.com/archives/cat_honey_bee_brain.html |access-date=30 March 2010 |archive-url=https://web.archive.org/web/20080725000706/http://www.setiai.com/archives/cat_honey_bee_brain.html |archive-date=2008-07-25 |url-status=dead}}</ref> ऐसा कोई अनुकरण मौजूद नहीं है। {{Citation needed|date=April 2011}} इसके कई कारण हैं:
109 cps (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरेवेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम, लेकिन कुछ रुचि के बावजूद<ref>{{Cite web |title=[links to bee brain studies] |website=Honey Bee Brain |url=http://www.setiai.com/archives/cat_honey_bee_brain.html |access-date=30 March 2010 |archive-url=https://web.archive.org/web/20080725000706/http://www.setiai.com/archives/cat_honey_bee_brain.html |archive-date=2008-07-25 |url-status=dead}}</ref> ऐसा कोई अनुकरण सम्मिलित नहीं है। {{Citation needed|date=April 2011}} इसके कई कारण हैं:
# न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
# न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
# उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है{{efn|In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.{{sfn|Yudkowsky|2006}}}} सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
# उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है{{efn|In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.{{sfn|Yudkowsky|2006}}}} सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
#भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
#भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
# एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। [[विस्तारित मन]] थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और [[cephalopods]] में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।<ref>{{cite journal | pmid = 15829594 | doi=10.1152/jn.00684.2004 | volume=94 | issue=2 | title=ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स|date=August 2005 | journal=J. Neurophysiol. | pages=1443–58 | last1 = Yekutieli | first1 = Y | last2 = Sagiv-Zohar | first2 = R | last3 = Aharonov | first3 = R | last4 = Engel | first4 = Y | last5 = Hochner | first5 = B | last6 = Flash | first6 = T|author6-link=Tamar Flash}}</ref>
# एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। [[विस्तारित मन]] थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और [[cephalopods]] में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।<ref>{{cite journal | pmid = 15829594 | doi=10.1152/jn.00684.2004 | volume=94 | issue=2 | title=ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स|date=August 2005 | journal=J. Neurophysiol. | pages=1443–58 | last1 = Yekutieli | first1 = Y | last2 = Sagiv-Zohar | first2 = R | last3 = Aharonov | first3 = R | last4 = Engel | first4 = Y | last5 = Hochner | first5 = B | last6 = Flash | first6 = T|author6-link=Tamar Flash}}</ref>
इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब सिनैप्स होते हैं।<ref>{{Harvnb|Williams|Herrup|1988}}</ref><ref>[http://search.eb.com/eb/article-75525 "nervous system, human."] ''[[Encyclopædia Britannica]]''. 9 January 2007</ref> एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन [[सेरेब्रल कॉर्टेक्स]] में हैं और 69 बिलियन [[सेरिबैलम]] में हैं।{{sfn|Azevedo et al.|2009}} [[ग्लियाल सेल]] सिनैप्स वर्तमान में अनिर्धारित हैं, लेकिन बहुत अधिक होने के लिए जाने जाते हैं।
इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब सिनैप्स होते हैं।<ref>{{Harvnb|Williams|Herrup|1988}}</ref><ref>[http://search.eb.com/eb/article-75525 "nervous system, human."] ''[[Encyclopædia Britannica]]''. 9 January 2007</ref> एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन [[सेरेब्रल कॉर्टेक्स]] में हैं और 69 बिलियन [[सेरिबैलम]] में हैं।{{sfn|Azevedo et al.|2009}} [[ग्लियाल सेल]] सिनैप्स वर्तमान में अनिर्धारित हैं, लेकिन बहुत अधिक होने के लिए जाने जाते हैं।


== दार्शनिक दृष्टिकोण ==
== दार्शनिक दृष्टिकोण ==
Line 148: Line 148:


=== दर्शनशास्त्र में परिभाषित मजबूत एआई ===
=== दर्शनशास्त्र में परिभाषित मजबूत एआई ===
1980 में, दार्शनिक [[जॉन सियरल]] ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा।<ref>{{Harvnb|Searle|1980}}</ref> वह कृत्रिम बुद्धिमत्ता के बारे में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे:{{efn|As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."{{sfn|Russell|Norvig|2003}} }}
1980 में, दार्शनिक [[जॉन सियरल]] ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा।<ref>{{Harvnb|Searle|1980}}</ref> वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे:{{efn|As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."{{sfn|Russell|Norvig|2003}} }}
* मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
* मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
* कमजोर एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।
* कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।
पहले वाले को उन्होंने "मजबूत" कहा क्योंकि यह एक मजबूत बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कमजोर एआई" मशीन का व्यवहार ठीक "मजबूत एआई" मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।<ref>For example:
पहले वाले को उन्होंने "मजबूत" कहा क्योंकि यह एक मजबूत बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "मजबूत एआई" मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।<ref>For example:
*{{Harvnb|Russell|Norvig|2003}},
*{{Harvnb|Russell|Norvig|2003}},
*[http://www.encyclopedia.com/doc/1O87-strongAI.html Oxford University Press Dictionary of Psychology] {{Webarchive|url=https://web.archive.org/web/20071203103022/http://www.encyclopedia.com/doc/1O87-strongAI.html |date=3 December 2007 }} (quoted in "High Beam Encyclopedia"),
*[http://www.encyclopedia.com/doc/1O87-strongAI.html Oxford University Press Dictionary of Psychology] {{Webarchive|url=https://web.archive.org/web/20071203103022/http://www.encyclopedia.com/doc/1O87-strongAI.html |date=3 December 2007 }} (quoted in "High Beam Encyclopedia"),
Line 157: Line 157:
*[http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm Will Biological Computers Enable Artificially Intelligent Machines to Become Persons?] {{Webarchive|url=https://web.archive.org/web/20080513031753/http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm |date=13 May 2008 }} Anthony Tongen</ref>
*[http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm Will Biological Computers Enable Artificially Intelligent Machines to Become Persons?] {{Webarchive|url=https://web.archive.org/web/20080513031753/http://www.cbhd.org/resources/biotech/tongen_2003-11-07.htm |date=13 May 2008 }} Anthony Tongen</ref>


मेनस्ट्रीम एआई की सबसे अधिक रुचि इस बात में है कि कोई प्रोग्राम कैसे व्यवहार करता है।<ref>though see [[Explainable artificial intelligence]] for curiosity by the field about why a program behaves the way it does</ref> रसेल और [[पीटर नॉरविग]] के अनुसार, "जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।" पता है कि क्या यह वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की "कमजोर एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि संभव है" के बराबर है। इस प्रकार, रसेल और नॉरविग के अनुसार, "अधिकांश एआई शोधकर्ता कमजोर एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।"{{sfn|Russell|Norvig|2003|p=947}} इस प्रकार, अकादमिक एआई अनुसंधान के लिए, "मजबूत एआई" और "एजीआई" दो बहुत अलग चीजें हैं।
मेनस्ट्रीम एआई की सबसे अधिक रुचि इस बात में है कि कोई प्रोग्राम कैसे व्यवहार करता है।<ref>though see [[Explainable artificial intelligence]] for curiosity by the field about why a program behaves the way it does</ref> रसेल और [[पीटर नॉरविग]] के अनुसार, "जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।" पता है कि क्या यह वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि संभव है" के बराबर है। इस प्रकार, रसेल और नॉरविग के अनुसार, "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।"{{sfn|Russell|Norvig|2003|p=947}} इस प्रकार, अकादमिक एआई अनुसंधान के लिए, "मजबूत एआई" और "एजीआई" दो बहुत अलग चीजें हैं।


सरेल और मुख्यधारा एआई के विपरीत, कुछ भविष्यवादी जैसे रे कुर्ज़वील "मजबूत एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं।<ref name="K" /> यह Searle के मजबूत AI के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के AGI के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है, और अधिकांश आर्टिफिशियल इंटेलिजेंस शोधकर्ताओं के लिए यह सवाल दायरे से बाहर है।{{sfn|Russell|Norvig|2003|p=947}}
सरेल और मुख्यधारा एआई के विपरीत, कुछ भविष्यवादी जैसे रे कुर्ज़वील "मजबूत एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं।<ref name="K" /> यह Searle के मजबूत एआई के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है, और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल दायरे से बाहर है।{{sfn|Russell|Norvig|2003|p=947}}


=== चेतना ===
=== चेतना ===
बुद्धि के अलावा मानव मन के अन्य पहलू मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और [[कृत्रिम बुद्धि की नैतिकता]] में एक प्रमुख भूमिका निभाते हैं:
बुद्धि के अलावा मानव मन के अन्य दृष्टिकोण मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और [[कृत्रिम बुद्धि की नैतिकता]] में एक प्रमुख भूमिका निभाते हैं:
*चेतनाः गुण और [[विचार]] होना।{{efn|Note that [[consciousness]] is difficult to define. A popular definition, due to [[Thomas Nagel]], is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.{{sfn|Nagel|1974}}}}
*चेतनाः गुण और [[विचार]] होना।{{efn|Note that [[consciousness]] is difficult to define. A popular definition, due to [[Thomas Nagel]], is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.{{sfn|Nagel|1974}}}}
* आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के बारे में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
* आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
*भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
*भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
*ज्ञान: ज्ञान की क्षमता।
*ज्ञान: ज्ञान की क्षमता।


इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो [[पशु अधिकार]]ों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है {{clarify|text=full ethical agents|date=April 2023}} 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए मौजूदा कानूनी और सामाजिक ढांचे के साथ।<ref name="physica_scripta"><nowiki>{{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=</nowiki>[[Physica Scripta]] |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}</ref> [[बिल जॉय]], दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>{{cite magazine| title=भविष्य को हमारी आवश्यकता क्यों नहीं है| last=Joy | first=Bill |author-link=Bill Joy | magazine=Wired |date=April 2000 }}<nowiki></ref></nowiki>
इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो [[पशु अधिकार]]ों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है {{clarify|text=full ethical agents|date=April 2023}} 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलिता कानूनी और सामाजिक ढांचे के साथ।<ref name="physica_scripta"><nowiki>{{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=</nowiki>[[Physica Scripta]] |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}</ref> [[बिल जॉय]], दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>{{cite magazine| title=भविष्य को हमारी आवश्यकता क्यों नहीं है| last=Joy | first=Bill |author-link=Bill Joy | magazine=Wired |date=April 2000 }}<nowiki></ref></nowiki>


यह दिखाया जाना बाकी है कि मजबूत एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।
यह दिखाया जाना बाकी है कि मजबूत एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।
Line 175: Line 175:
{{Main|कृत्रिम चेतना}}
{{Main|कृत्रिम चेतना}}


हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को लागू करने की संभावनाओं की जांच करता है।{{sfn|Yudkowsky|2006}} प्रारंभिक प्रयास में [[इगोर अलेक्जेंडर]]{{sfn|Aleksander|1996}} ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही मौजूद थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लगेंगे।{{clarify|date=September 2021}}
हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को लागू करने की संभावनाओं की जांच करता है।{{sfn|Yudkowsky|2006}} प्रारंभिक प्रयास में [[इगोर अलेक्जेंडर]]{{sfn|Aleksander|1996}} ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लगेंगे।{{clarify|date=September 2021}}


== मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण ==
== मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण ==
Line 200: Line 200:


=== व्यवहार्यता ===
=== व्यवहार्यता ===
2022 तक AGI सट्टा बना हुआ है।<ref name="spec1">{{cite report |last=Boucher |first=Philip |date=March 2019 |url=https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |title=आर्टिफिशियल इंटेलिजेंस कैसे काम करता है|section=Concluding remarks |quote=आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।|publisher=European Parliamentary Research Service |access-date=March 3, 2020 |archive-date=3 March 2020 |archive-url=https://web.archive.org/web/20200303125008/https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |url-status=live }}</ref><ref name="spec2">[https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf itu.int: Beyond Mad?: The Race For Artificial General Intelligence] {{Webarchive|url=https://web.archive.org/web/20201109025023/https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf |date=9 November 2020 }}, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020</ref> ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा काम करने में सक्षम होंगी जो एक आदमी कर सकता है"। यह भविष्यवाणी सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक [[पॉल एलन]] का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए "अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं" और "अनुभूति की वैज्ञानिक रूप से गहरी समझ" की आवश्यकता होगी।<ref>{{cite news|last1=Allen|first1=Paul |last2=Greaves |first2=Mark |title=विलक्षणता निकट नहीं है|url=http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ |access-date=17 September 2014 |work=[[MIT Technology Review]] |date=October 12, 2011 }}</ref> द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई।<ref>{{cite news |last1=Winfield |first1=Alan |title=आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा|url=https://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield |access-date=17 September 2014 |work=[[The Guardian]] |archive-url=https://web.archive.org/web/20140917135230/http://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield|archive-date=17 September 2014|url-status=live}}</ref>
2022 तक एजीआई सट्टा बना हुआ है।<ref name="spec1">{{cite report |last=Boucher |first=Philip |date=March 2019 |url=https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |title=आर्टिफिशियल इंटेलिजेंस कैसे काम करता है|section=Concluding remarks |quote=आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।|publisher=European Parliamentary Research Service |access-date=March 3, 2020 |archive-date=3 March 2020 |archive-url=https://web.archive.org/web/20200303125008/https://www.europarl.europa.eu/at-your-service/files/be-heard/religious-and-non-confessional-dialogue/events/en-20190319-how-artificial-intelligence-works.pdf |url-status=live }}</ref><ref name="spec2">[https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf itu.int: Beyond Mad?: The Race For Artificial General Intelligence] {{Webarchive|url=https://web.archive.org/web/20201109025023/https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf |date=9 November 2020 }}, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020</ref> ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा काम करने में सक्षम होंगी जो एक आदमी कर सकता है"। यह पूर्वानुमान सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक [[पॉल एलन]] का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए "अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं" और "अनुभूति की वैज्ञानिक रूप से गहरी समझ" की आवश्यकता होगी।<ref>{{cite news|last1=Allen|first1=Paul |last2=Greaves |first2=Mark |title=विलक्षणता निकट नहीं है|url=http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ |access-date=17 September 2014 |work=[[MIT Technology Review]] |date=October 12, 2011 }}</ref> द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई।<ref>{{cite news |last1=Winfield |first1=Alan |title=आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा|url=https://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield |access-date=17 September 2014 |work=[[The Guardian]] |archive-url=https://web.archive.org/web/20140917135230/http://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield|archive-date=17 September 2014|url-status=live}}</ref>


अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन [[ह्यूबर्ट ड्रेफस]] और [[रोजर पेनरोज़]] जैसे कुछ विचारक मजबूत एआई हासिल करने की संभावना से इनकार करते हैं।{{sfn|Clocksin|2003}}<ref name=":0">{{Cite journal |last=Fjelland |first=Ragnar |date=2020-06-17 |title=सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा|journal=Humanities and Social Sciences Communications |language=en |volume=7 |issue=1 |pages=1–9 |doi=10.1057/s41599-020-0494-4 |s2cid=219710554 |issn=2662-9992 |doi-access=free }}</ref> जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है। AGI वैक्स और वेन की व्यवहार्यता पर AI विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया " कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ।<ref name="new yorker doomsday">{{cite news|author1=Raffi Khatchadourian|title=The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?|url=http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|access-date=7 February 2016|work=[[The New Yorker (magazine)|The New Yorker]]|date=23 November 2015|archive-url=https://web.archive.org/web/20160128105955/http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|archive-date=28 January 2016|url-status=live}}</ref><ref>Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.</ref> आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।<!-- "One problem is that while humans are complex, we are not general intelligences." [If this is relevant, it is so in some other section, and deserves a citation and more discussion of the implications.] -->
अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन [[ह्यूबर्ट ड्रेफस]] और [[रोजर पेनरोज़]] जैसे कुछ विचारक मजबूत एआई हासिल करने की संभावना से इनकार करते हैं।{{sfn|Clocksin|2003}}<ref name=":0">{{Cite journal |last=Fjelland |first=Ragnar |date=2020-06-17 |title=सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा|journal=Humanities and Social Sciences Communications |language=en |volume=7 |issue=1 |pages=1–9 |doi=10.1057/s41599-020-0494-4 |s2cid=219710554 |issn=2662-9992 |doi-access=free }}</ref> जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया " कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ।<ref name="new yorker doomsday">{{cite news|author1=Raffi Khatchadourian|title=The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?|url=http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|access-date=7 February 2016|work=[[The New Yorker (magazine)|The New Yorker]]|date=23 November 2015|archive-url=https://web.archive.org/web/20160128105955/http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom|archive-date=28 January 2016|url-status=live}}</ref><ref>Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.</ref> आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।<!-- "One problem is that while humans are complex, we are not general intelligences." [If this is relevant, it is so in some other section, and deserves a citation and more discussion of the implications.] -->


मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि "[ए] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की भविष्यवाणी करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि भविष्यवाणी के समय से 15 से 25 साल के बीच निर्मित"। उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा। <!-- "There was no difference between predictions made by experts and non-experts." see: https://aiimpacts.org/error-in-armstrong-and-sotala-2012/--><ref>Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In ''Beyond AI: Artificial Dreams'', edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia</ref>
मशीन इंटेलिजेंस शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि "[ए] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की पूर्वानुमान करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित"। उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा। <!-- "There was no difference between predictions made by experts and non-experts." see: https://aiimpacts.org/error-in-armstrong-and-sotala-2012/--><ref>Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In ''Beyond AI: Artificial Dreams'', edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia</ref>
=== मानव अस्तित्व के लिए संभावित खतरा{{anchor|Risk_of_human_extinction}}===
=== मानव अस्तित्व के लिए संभावित खतरा{{anchor|Risk_of_human_extinction}}===
{{Main|कृत्रिम सामान्य बुद्धि से अस्तित्वगत जोखिम|एआई सुरक्षा}}
{{Main|कृत्रिम सामान्य बुद्धि से अस्तित्वगत जोखिम|एआई सुरक्षा}}
Line 210: Line 210:
थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की, और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं। गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की:<ref>{{Cite journal |last=Müller |first=Vincent C. |date=2014-07-03 |title=सामान्य कृत्रिम बुद्धि के जोखिम|journal=Journal of Experimental & Theoretical Artificial Intelligence |volume=26 |issue=3 |pages=297–301 |doi=10.1080/0952813X.2014.895110 |s2cid=31835019 |issn=0952-813X|doi-access=free }}</ref><ref name="physica_scripta" /><ref>{{Cite journal |last=Turchin |first=Alexey |date=2019-03-01 |title=भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना|url=https://www.sciencedirect.com/science/article/pii/S0016328718301319 |journal=Futures |language=en |volume=107 |pages=45–58 |doi=10.1016/j.futures.2018.11.007 |s2cid=158975847 |issn=0016-3287}}</ref> गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं,<ref>{{cite news |last1=Rawlinson |first1=Kevin |title=माइक्रोसॉफ्ट के बिल गेट्स का कहना है कि एआई एक खतरा है|url=https://www.bbc.co.uk/news/31047780 |work=[[BBC News]] |access-date=30 January 2015 |archive-date=29 January 2015 |archive-url=https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780 |url-status=live }}</ref> और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: {{cquote|इसलिए, अनगिनत लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए हर संभव प्रयास कर रहे हैं, है ना? गलत। अगर एक बेहतर एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा, 'हम कुछ दशकों में पहुंचेंगे,' तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है, जब आप यहां पहुंचें तो हमें कॉल करें{{endash}}हम रोशनी चालू रखेंगे?' शायद नहीं{{endash}}लेकिन AI के साथ कमोबेश यही हो रहा है।<ref name="hawking editorial">{{cite news |title=Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence&nbsp;– but are we taking AI seriously enough?' |work=[[The Independent (UK)]] |url=https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |access-date=3 December 2014 |archive-date=25 September 2015 |archive-url=https://web.archive.org/web/20150925153716/http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |url-status=live }}</ref>}}
थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की, और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं। गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की:<ref>{{Cite journal |last=Müller |first=Vincent C. |date=2014-07-03 |title=सामान्य कृत्रिम बुद्धि के जोखिम|journal=Journal of Experimental & Theoretical Artificial Intelligence |volume=26 |issue=3 |pages=297–301 |doi=10.1080/0952813X.2014.895110 |s2cid=31835019 |issn=0952-813X|doi-access=free }}</ref><ref name="physica_scripta" /><ref>{{Cite journal |last=Turchin |first=Alexey |date=2019-03-01 |title=भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना|url=https://www.sciencedirect.com/science/article/pii/S0016328718301319 |journal=Futures |language=en |volume=107 |pages=45–58 |doi=10.1016/j.futures.2018.11.007 |s2cid=158975847 |issn=0016-3287}}</ref> गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं,<ref>{{cite news |last1=Rawlinson |first1=Kevin |title=माइक्रोसॉफ्ट के बिल गेट्स का कहना है कि एआई एक खतरा है|url=https://www.bbc.co.uk/news/31047780 |work=[[BBC News]] |access-date=30 January 2015 |archive-date=29 January 2015 |archive-url=https://web.archive.org/web/20150129183607/http://www.bbc.co.uk/news/31047780 |url-status=live }}</ref> और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की: {{cquote|इसलिए, अनगिनत लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए हर संभव प्रयास कर रहे हैं, है ना? गलत। अगर एक बेहतर एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा, 'हम कुछ दशकों में पहुंचेंगे,' तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है, जब आप यहां पहुंचें तो हमें कॉल करें{{endash}}हम रोशनी चालू रखेंगे?' शायद नहीं{{endash}}लेकिन AI के साथ कमोबेश यही हो रहा है।<ref name="hawking editorial">{{cite news |title=Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence&nbsp;– but are we taking AI seriously enough?' |work=[[The Independent (UK)]] |url=https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |access-date=3 December 2014 |archive-date=25 September 2015 |archive-url=https://web.archive.org/web/20150925153716/http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html |url-status=live }}</ref>}}


एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: "एजीआई खुद को मानव मालिकों/प्रबंधकों के नियंत्रण से हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई, एजीआई का विकास खराब नैतिकता, नैतिकता और मूल्यों के साथ AGI और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन"।<ref>{{Cite journal |last1=McLean |first1=Scott |last2=Read |first2=Gemma J. M. |last3=Thompson |first3=Jason |last4=Baber |first4=Chris |last5=Stanton |first5=Neville A. |last6=Salmon |first6=Paul M. |date=2021-08-13 |title=The risks associated with Artificial General Intelligence: A systematic review |journal=Journal of Experimental & Theoretical Artificial Intelligence |pages=1–15 |doi=10.1080/0952813X.2021.1964003 |s2cid=238643957 |issn=0952-813X |doi-access=free }}</ref>
एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: "एजीआई खुद को मानव मालिकों/प्रबंधकों के नियंत्रण से हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई, एजीआई का विकास खराब नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन"।<ref>{{Cite journal |last1=McLean |first1=Scott |last2=Read |first2=Gemma J. M. |last3=Thompson |first3=Jason |last4=Baber |first4=Chris |last5=Stanton |first5=Neville A. |last6=Salmon |first6=Paul M. |date=2021-08-13 |title=The risks associated with Artificial General Intelligence: A systematic review |journal=Journal of Experimental & Theoretical Artificial Intelligence |pages=1–15 |doi=10.1080/0952813X.2021.1964003 |s2cid=238643957 |issn=0952-813X |doi-access=free }}</ref>


कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के बारे में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई होगी अधीक्षण तक पहुँचने के बाद विनाशकारी के बजाय मैत्रीपूर्ण तरीके से व्यवहार करना जारी रखें?<ref name="physica_scripta" /><ref>{{cite book |last1=Bostrom |first1=Nick |author-link=Nick Bostrom |title=Superintelligence: Paths, Dangers, Strategies |date=2014 |isbn=978-0199678112 |edition=First |title-link=Superintelligence: Paths, Dangers, Strategies}}<!-- preface --></ref> नियंत्रण समस्या को हल करना एआई हथियारों की दौड़ से जटिल है,<ref>{{Cite journal |last1=Naudé |first1=Wim |last2=Dimitri |first2=Nicola |date=2020-06-01 |title=The race for an artificial general intelligence: implications for public policy |journal=AI & Society |language=en |volume=35 |issue=2 |pages=367–379 |doi=10.1007/s00146-019-00887-x |s2cid=52045822 |issn=1435-5655 |doi-access=free }}</ref><ref>{{Cite journal |last=Torres |first=Phil |date=2019-05-04 |title=कृत्रिम सामान्य बुद्धि की संभावना और जोखिम|url=https://doi.org/10.1080/00963402.2019.1604873 |journal=Bulletin of the Atomic Scientists |volume=75 |issue=3 |pages=105–108 |doi=10.1080/00963402.2019.1604873 |bibcode=2019BuAtS..75c.105T |s2cid=150498464 |issn=0096-3402 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181016/https://www.tandfonline.com/doi/full/10.1080/00963402.2019.1604873 |url-status=live }}</ref> जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखेंगे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई का, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होता है, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।<ref>{{Citation |last1=Turchin |first1=Alexey |title=Military AI as a Convergent Goal of Self-Improving AI |date=2018-07-27 |url=http://dx.doi.org/10.1201/9781351251389-25 |work=Artificial Intelligence Safety and Security |pages=375–393 |place=First edition. {{!}} Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018. |publisher=Chapman and Hall/CRC |isbn=978-1-351-25138-9 |access-date=2022-08-29 |last2=Denkenberger |first2=David |doi=10.1201/9781351251389-25 |s2cid=65323952 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181021/https://www.taylorfrancis.com/chapters/edit/10.1201/9781351251389-25/military-ai-convergent-goal-self-improving-ai-alexey-turchin-david-denkenberger |url-status=live }}</ref><ref>{{Cite journal |last1=Carayannis |first1=Elias G. |last2=Draper |first2=John |date=2022-01-11 |title=एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन|url=https://doi.org/10.1007/s00146-021-01382-y |journal=AI & Society |pages=1–14 |language=en |doi=10.1007/s00146-021-01382-y |issn=1435-5655 |pmc=8748529 |pmid=35035113 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181018/https://link.springer.com/article/10.1007/s00146-021-01382-y |url-status=live }}</ref>
कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई होगी अधीक्षण तक पहुँचने के बाद विनाशकारी के बजाय मैत्रीपूर्ण तरीके से व्यवहार करना जारी रखें?<ref name="physica_scripta" /><ref>{{cite book |last1=Bostrom |first1=Nick |author-link=Nick Bostrom |title=Superintelligence: Paths, Dangers, Strategies |date=2014 |isbn=978-0199678112 |edition=First |title-link=Superintelligence: Paths, Dangers, Strategies}}<!-- preface --></ref> नियंत्रण समस्या को हल करना एआई हथियारों की दौड़ से जटिल है,<ref>{{Cite journal |last1=Naudé |first1=Wim |last2=Dimitri |first2=Nicola |date=2020-06-01 |title=The race for an artificial general intelligence: implications for public policy |journal=AI & Society |language=en |volume=35 |issue=2 |pages=367–379 |doi=10.1007/s00146-019-00887-x |s2cid=52045822 |issn=1435-5655 |doi-access=free }}</ref><ref>{{Cite journal |last=Torres |first=Phil |date=2019-05-04 |title=कृत्रिम सामान्य बुद्धि की संभावना और जोखिम|url=https://doi.org/10.1080/00963402.2019.1604873 |journal=Bulletin of the Atomic Scientists |volume=75 |issue=3 |pages=105–108 |doi=10.1080/00963402.2019.1604873 |bibcode=2019BuAtS..75c.105T |s2cid=150498464 |issn=0096-3402 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181016/https://www.tandfonline.com/doi/full/10.1080/00963402.2019.1604873 |url-status=live }}</ref> जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखेंगे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई का, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होता है, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।<ref>{{Citation |last1=Turchin |first1=Alexey |title=Military AI as a Convergent Goal of Self-Improving AI |date=2018-07-27 |url=http://dx.doi.org/10.1201/9781351251389-25 |work=Artificial Intelligence Safety and Security |pages=375–393 |place=First edition. {{!}} Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018. |publisher=Chapman and Hall/CRC |isbn=978-1-351-25138-9 |access-date=2022-08-29 |last2=Denkenberger |first2=David |doi=10.1201/9781351251389-25 |s2cid=65323952 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181021/https://www.taylorfrancis.com/chapters/edit/10.1201/9781351251389-25/military-ai-convergent-goal-self-improving-ai-alexey-turchin-david-denkenberger |url-status=live }}</ref><ref>{{Cite journal |last1=Carayannis |first1=Elias G. |last2=Draper |first2=John |date=2022-01-11 |title=एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन|url=https://doi.org/10.1007/s00146-021-01382-y |journal=AI & Society |pages=1–14 |language=en |doi=10.1007/s00146-021-01382-y |issn=1435-5655 |pmc=8748529 |pmid=35035113 |access-date=29 August 2022 |archive-date=2 February 2023 |archive-url=https://web.archive.org/web/20230202181018/https://link.springer.com/article/10.1007/s00146-021-01382-y |url-status=live }}</ref>


थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ। [[जेरोन लैनियर]] ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, "एक भ्रम" और अमीरों द्वारा एक "अद्भुत चाल" है।<ref name="atlantic-but-what">{{cite magazine |url=https://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |title=But What Would the End of Humanity Mean for Me? |magazine=The Atlantic |date=9 May 2014 |first=James |last=Hamblin |access-date=12 December 2015 |archive-date=4 June 2014 |archive-url=https://web.archive.org/web/20140604211145/http://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |url-status=live }}</ref>
थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ [[जेरोन लैनियर]] ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, "एक भ्रम" और अमीरों द्वारा एक "अद्भुत चाल" है।<ref name="atlantic-but-what">{{cite magazine |url=https://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |title=But What Would the End of Humanity Mean for Me? |magazine=The Atlantic |date=9 May 2014 |first=James |last=Hamblin |access-date=12 December 2015 |archive-date=4 June 2014 |archive-url=https://web.archive.org/web/20140604211145/http://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ |url-status=live }}</ref>


बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक [[गॉर्डन बेल]] का तर्क है कि [[तकनीकी विलक्षणता]] तक पहुंचने से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक [[गॉर्डन मूर]] ने घोषणा की: "मैं एक संशयवादी हूं। मुझे विश्वास नहीं है कि [तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है रास्ता।"<ref>{{cite news |title=टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी|url=https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |access-date=8 April 2020 |work=IEEE Spectrum: Technology, Engineering, and Science News |issue=SPECIAL REPORT: THE SINGULARITY |date=1 June 2008 |language=en |archive-date=30 April 2019 |archive-url=https://web.archive.org/web/20190430150019/https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |url-status=live }}</ref> Baidu के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक [[एंड्रयू एनजी]] कहते हैं कि एआई के अस्तित्वगत जोखिम के बारे में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के बारे में चिंता करने जैसा है, जब हमने अभी तक ग्रह पर पैर भी नहीं रखा है।<ref name="shermer">{{cite journal|last1=Shermer|first1=Michael|title=सर्वनाश एआई|url=https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|access-date=27 November 2017|journal=Scientific American|date=1 March 2017|volume=316 |issue=3 |pages=77|language=en|doi=10.1038/scientificamerican0317-77|pmid=28207698 |bibcode=2017SciAm.316c..77S|archive-date=1 December 2017|archive-url=https://web.archive.org/web/20171201051401/https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|url-status=live}}</ref>
बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक [[गॉर्डन बेल]] का तर्क है कि [[तकनीकी विलक्षणता]] तक अभिगमन से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक [[गॉर्डन मूर]] ने घोषणा की: "मैं एक संशयवादी हूं। मुझे विश्वास नहीं है कि [तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है रास्ता।"<ref>{{cite news |title=टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी|url=https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |access-date=8 April 2020 |work=IEEE Spectrum: Technology, Engineering, and Science News |issue=SPECIAL REPORT: THE SINGULARITY |date=1 June 2008 |language=en |archive-date=30 April 2019 |archive-url=https://web.archive.org/web/20190430150019/https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity |url-status=live }}</ref> बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक [[एंड्रयू एनजी]] कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है, जब हमने अभी तक ग्रह पर पैर भी नहीं रखा है।<ref name="shermer">{{cite journal|last1=Shermer|first1=Michael|title=सर्वनाश एआई|url=https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|access-date=27 November 2017|journal=Scientific American|date=1 March 2017|volume=316 |issue=3 |pages=77|language=en|doi=10.1038/scientificamerican0317-77|pmid=28207698 |bibcode=2017SciAm.316c..77S|archive-date=1 December 2017|archive-url=https://web.archive.org/web/20171201051401/https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/|url-status=live}}</ref>
== यह भी देखें ==
== यह भी देखें ==
{{div col|colwidth=18em}}
{{div col|colwidth=18em}}
Line 225: Line 225:
*{{Annotated link|ए.आई. उभरता हुआ}}
*{{Annotated link|ए.आई. उभरता हुआ}}
* {{Annotated link |स्वचालित मशीन लर्निंग}}
* {{Annotated link |स्वचालित मशीन लर्निंग}}
* {{Annotated link |मस्तिष्क पहल}}
* {{Annotated link |मस्तिष्क दृष्टिकोण}}
* {{Annotated link |चीन मस्तिष्क परियोजना}}
* {{Annotated link |चीन मस्तिष्क परियोजना}}
* {{Annotated link |मानवता संस्थान का भविष्य}}
* {{Annotated link |मानवता संस्थान का भविष्य}}
Line 351: Line 351:


==बाहरी संबंध==
==बाहरी संबंध==
* [https://cis.temple.edu/~pwang/AGI-Intro.html The AGI portal maintained by Pei Wang]
* [https://cis.temple.edu/~pwang/AGI-Intro.html The एजीआई portal mएआईntएआईned by Pei Wang]
* [https://web.archive.org/web/20050405071221/http://genesis.csail.mit.edu/index.html The Genesis Group at MIT's CSAIL] – Modern research on the computations that underlay human intelligence
* [https://web.archive.org/web/20050405071221/http://genesis.csail.mit.edu/index.html The Genesis Group at MIT's CSएआईL] – Modern research on the computations that underlay human intelligence
* [https://opencog.org/ OpenCog open source project to develop a human-level AI]
* [https://opencog.org/ ओपीईएनCog ओपीईएन source project to develop a human-level एआई]
* [http://academia.wikia.com/wiki/A_Method_for_Simulating_the_Process_of_Logical_Human_Thought Simulating logical human thought]
* [http://academia.wikia.com/wiki/A_Method_for_Simulating_the_Process_of_Logical_Human_Thought Simulating logical human thought]
* [https://www.openphilanthropy.org/research/what-do-we-know-about-ai-timelines/ What Do We Know about AI Timelines?] – Literature review
* [https://www.openphilanthropy.org/research/what-do-we-know-about-ai-timelines/ What Do We Know about एआई Timelines?] – Literature review


{{Existential risk from artificial intelligence}}
{{Existential risk from artificial intelligence}}

Revision as of 14:54, 15 May 2023

Unsolved problem in computer science:

Could an artificial general intelligence be created? If so, how?

कृत्रिम सामान्य बुद्धि (एजीआई) एक प्रकार का काल्पनिक बुद्धिमान एजेंट है। एजीआई अवधारणा यह है कि यह किसी भी बौद्धिक कार्य को पूरा करना सीख सकता है जिसे मनुष्य या अन्य जानवर कर सकते हैं।[1][2] वैकल्पिक रूप से, एजीआई को एक स्वायत्त प्रणाली के रूप में परिभाषित किया गया है जो आर्थिक रूप से मूल्यवान कार्यों के बहुमत में मानव क्षमताओं से अधिक है। [3] एजीआई बनाना कुछ कृत्रिम बुद्धिमत्ता शोध और ओपीईएनएआई,[3] डीपमाइंड[4] और एंथ्रोपिक जैसी कंपनियों का प्राथमिक लक्ष्य है। साइंस फिक्शन और फ्यूचर स्टडीज में एजीआई एक सामान्य विषय है।[3]

एजीआई के विकास की समयरेखा शोधकर्ताओं और विशेषज्ञों के बीच चल रही बहस का विषय बनी हुई है। कुछ लोगों का तर्क है कि यह वर्षों या दशकों में संभव हो सकता है, दूसरों का कहना है कि इसमें एक सदी या उससे अधिक समय लग सकता है, और अल्पसंख्यक मानते हैं कि इसे कभी हासिल नहीं किया जा सकता है।[5] इसके अतिरिक्त, इस बात पर भी बहस चल रही है कि क्या आधुनिक डीप लर्निंग सिस्टम, जैसे कि जीपीटी-4, एजीआई का प्रारंभिक अभी तक अधूरा रूप है[6] या यदि नए दृष्टिकोण की आवश्यकता है।[7]

एजीआई के मानवता के लिए खतरा पैदा करने की क्षमता पर विवाद सम्मिलित है उदाहरण के लिए, ओपीईएनएआई इसे एक अस्तित्वगत जोखिम के रूप में मानता है, जबकि अन्य एजीआई के विकास को एक जोखिम पेश करने के लिए बहुत दूरस्थ पाते हैं।।[8][5][7]

2020 के एक सर्वेक्षण में 37 देशों में विस्तृत 72 सक्रिय एजीआई अनुसंधान एवं विकास परियोजनाओं की पहचान की गई।[9]

शब्दावली

एजीआई को मजबूत एआई,[10][11][12] पूर्ण एआई,[13] या सामान्य बुद्धिमान कार्रवाई के रूप में भी जाना जाता है।[14] हालांकि, कुछ अकादमिक स्रोत कंप्यूटर प्रोग्राम के लिए "मजबूत एआई" शब्द आरक्षित करते हैं जो भावना या चेतना का अनुभव करते हैं। [ए] इसके विपरीत, कम महत्व एआई (या संकीर्ण एआई) एक विशिष्ट समस्या को हल करने में सक्षम है, लेकिन सामान्य संज्ञानात्मक क्षमताओं का अभाव है।[15][11] कुछ अकादमिक स्रोत "कममहत्व एआई" का उपयोग किसी भी कार्यक्रम को अधिक व्यापक रूप से संदर्भित करने के लिए करते हैं जो चेतना का अनुभव नहीं करते हैं या न ही मनुष्यों के समान दिमाग रखते हैं।[lower-alpha 1]

संबंधित अवधारणाओं में मानव-स्तर एआई, परिवर्तनकारी एआई,[5]और अधीक्षण।

विशेषताएं

बुद्धि के लिए विभिन्न मानदंड प्रस्तावित किए गए हैं (सबसे प्रसिद्ध ट्यूरिंग टेस्ट) लेकिन व्यापक रूप से कोई परिभाषा स्वीकार नहीं की गई है।[lower-alpha 2]

बुद्धि लक्षण

हालाँकि, शोधकर्ता सामान्यतः यह मानते हैं कि निम्नलिखित कार्य करने के लिए बुद्धिमत्ता की आवश्यकता होती है:[17] * स्वचालित तर्क, रणनीति का उपयोग करें, पहेलियों को हल करें और अनिश्चितता के तहत निर्णय लें

और, यदि आवश्यक हो, किसी दिए गए लक्ष्य को पूरा करने में कृत्रिम बुद्धिमत्ता सिस्टम इंटीग्रेशन एकीकरण। अन्य महत्वपूर्ण क्षमताओं में शामिल हैं:[18]

इसमें खतरे का पता लगाने और प्रतिक्रिया देने की क्षमता शामिल है।[19] कई अंतःविषय दृष्टिकोण (जैसे संज्ञानात्मक विज्ञान, कम्प्यूटेशनल इंटेलिजेंस और निर्णय लेने) कल्पना (उपन्यास मानसिक छवियों और अवधारणाओं को बनाने की क्षमता) और स्वायत्तता जैसे अतिरिक्त लक्षणों पर विचार करते हैं।[20][21]

कंप्यूटर-आधारित प्रणालियाँ जो इनमें से कई क्षमताओं को प्रदर्शित करती हैं, सम्मिलित हैं (उदाहरण के लिए कम्प्यूटेशनल रचनात्मकता, स्वचालित तर्क, निर्णय समर्थन प्रणाली, रोबोट, विकासवादी संगणना, बुद्धिमान एजेंट देखें)। हालाँकि, इस बात पर कोई सहमति नहीं है कि आधुनिक एआई सिस्टम उन्हें पर्याप्त मात्रा में रखते हैं।

गणितीय औपचारिकताएँ

एजीआई का एक गणितीय सटीक विनिर्देश 2000 में मार्कस हटर द्वारा प्रस्तावित किया गया था। एआईएक्सआई नामित, प्रस्तावित एजीआई एजेंट "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को पूरा करने की क्षमता" को अधिकतम करता है।[22] इस प्रकार के एजीआई, मानव-समान व्यवहार को प्रदर्शित करने के बजाय बुद्धि की गणितीय परिभाषा को अधिकतम करने की क्षमता की विशेषता है[23] को सार्वभौमिक कृत्रिम बुद्धि भी कहा जाता है।[24]

2015 में जन लीक और मार्कस हटर ने दिखाया कि लेग-हटर इंटेलिजेंस - "वातावरण की एक विस्तृत श्रृंखला में लक्ष्यों को प्राप्त करने की एक एजेंट की क्षमता"[25] - "एक निश्चित यूनिवर्सल ट्यूरिंग मशीन (UTM) के संबंध में मापा जाता है। एआईएक्सआई है सबसे बुद्धिमान नीति अगर यह उसी UTM का उपयोग करती है", जिसका परिणाम "एआईएक्सआई के लिए सभी सम्मिलिता इष्टतमता गुणों को कम करता है"।[26] यह समस्या एआईएक्सआई द्वारा बुद्धि के लिए एक प्रॉक्सी के रूप में संपीड़न के उपयोग से उत्पन्न होती है, जो केवल तभी मान्य होती है जब अनुभूति पर्यावरण से अलगाव में होती है जिसमें लक्ष्यों का पीछा किया जाता है। यह मन-शरीर द्वैतवाद के रूप में जानी जाने वाली एक दार्शनिक स्थिति को औपचारिक रूप देता है।[27] कुछ लोग सक्रियतावाद को अधिक विश्वसनीय पाते हैं - यह धारणा कि अनुभूति उसी वातावरण में होती है जिसमें लक्ष्यों का पीछा किया जाता है।[27] इसके बाद, माइकल टिमोथी बेनेट ने सक्रिय अनुभूति को औपचारिक रूप दिया और "कममहत्वी" नामक बुद्धि के लिए एक वैकल्पिक प्रॉक्सी की पहचान की। [27] साथ के प्रयोगों (कममहत्वी और संपीड़न की तुलना) और गणितीय प्रमाणों से पता चला है कि कममहत्वी को अधिकतम करने से इष्टतम "कार्यों की एक विस्तृत श्रृंखला को पूरा करने की क्षमता" [29] या समकक्ष "सामान्यीकरण करने की क्षमता" होती है रेफरी नाम = "एमटीबी 2" /> या समान रूप से सामान्यीकृत करने की क्षमता रेफरी>Chollet, Francois (2019). "बुद्धि के माप पर". arXiv:1911.01547 [cs.AI].</ref> (इस प्रकार किसी भी परिभाषा द्वारा बुद्धि को अधिकतम करना ). यदि सक्रियतावाद धारण करता है और मन-शरीर द्वैतवाद नहीं करता है, तो बुद्धि के लिए सम्पीडन आवश्यक या पर्याप्त नहीं है, बुद्धि पर व्यापक रूप से रखे गए विचारों पर सवाल उठाते हुए (हटर पुरस्कार भी देखें)।

इन औपचारिकताओं में से किसी एक को संतुष्ट करने वाला एजीआई मानव-समान व्यवहार प्रदर्शित करता है (जैसे कि प्राकृतिक भाषा का उपयोग) कई कारकों पर निर्भर करेगा,[28] उदाहरण के लिए जिस तरीके से एजेंट सन्निहित है,[29] या क्या इसका कोई इनाम कार्य है जो भूख, दर्द, और इसी तरह की अनुभूति के मानवीय आदिमों के करीब है।[30]

मानव-स्तरीय एजीआई के परीक्षण के लिए परीक्षण

मानव-स्तरीय एजीआई की पुष्टि करने के लिए कई परीक्षणों पर विचार किया गया है, जिनमें शामिल हैं:[31][32]

ट्यूरिंग टेस्ट (ट्यूरिंग)

एक मशीन और एक मानव दोनों एक दूसरे मानव के साथ अनदेखी करते हैं, जिसे मूल्यांकन करना चाहिए कि दोनों में से कौन सी मशीन है, जो परीक्षण पास करती है यदि यह मूल्यांकनकर्ता को समय के एक महत्वपूर्ण अंश को मूर्ख बना सकती है। नोट: ट्यूरिंग यह निर्धारित नहीं करता है कि बुद्धि के रूप में क्या योग्यता होनी चाहिए, केवल यह जानना कि यह एक मशीन है उसे अयोग्य घोषित करना चाहिए।

कॉफ़ी टेस्ट (वोज्नियाक)

एक औसत अमेरिकी घर में प्रवेश करने और कॉफी बनाने का तरीका जानने के लिए एक मशीन की आवश्यकता होती है: कॉफी मशीन ढूंढें, कॉफी ढूंढें, पानी डालें, एक मग ढूंढें और उचित बटन दबाकर कॉफी बनाएं।

रोबोट कॉलेज स्टूडेंट टेस्ट (गोएर्टज़ेल)

एक मशीन एक विश्वविद्यालय में दाखिला लेती है, वही कक्षाएं लेती और पास करती है जो मनुष्य करते हैं और एक डिग्री प्राप्त करते हैं।

रोजगार परीक्षा (निल्स जॉन निल्सन)

एक मशीन कम से कम एक ही काम में इंसानों के साथ-साथ आर्थिक रूप से महत्वपूर्ण काम करती है।

एआई-पूर्ण समस्याएं

ऐसी कई समस्याएं हैं जिनके लिए सामान्य बुद्धि की आवश्यकता हो सकती है, यदि मशीनों को समस्याओं को हल करने के साथ-साथ लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए यह आवश्यक है कि एक मशीन दोनों भाषाओं (एनएलपी) में पढ़े और लिखे, लेखक के तर्क (कारण) का पालन करें, जानें कि किस विषय में बात की जा रही है (ज्ञान), और ईमानदारी से लेखक के मूल को पुन: प्रस्तुत करें आशय (सामाजिक बुद्धि)। मानव-स्तरीय मशीन प्रदर्शन तक पहुँचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता है।

एक समस्या को अनौपचारिक रूप से "एआई-पूर्ण" या "एआई-हार्ड" कहा जाता है यदि यह माना जाता है कि इसे हल करने के लिए मजबूत एआई को लागू करने की आवश्यकता होगी, क्योंकि समाधान उद्देश्य-विशिष्ट एल्गोरिथम की क्षमताओं से परे है।[33]

एआई-पूर्ण समस्याओं की परिकल्पना सामान्य कंप्यूटर दृष्टि, प्राकृतिक भाषा समझ, और वास्तविक दुनिया की किसी भी समस्या को हल करते समय अप्रत्याशित परिस्थितियों से निपटने के लिए की जाती है।[34]

एआई-पूर्ण समस्याओं को केवल वर्तमान[may be outdated as of April 2023] कंप्यूटर प्रौद्योगिकी के साथ हल नहीं किया जा सकता है, और इसके लिए मानव संगणना की आवश्यकता होती है। यह सीमा मनुष्यों की उपस्थिति के परीक्षण के लिए उपयोगी हो सकती है, जैसा कि कैप्चा का उद्देश्य है और कंप्यूटर सुरक्षा के लिए क्रूर-बल के हमलों को पीछे हटाना है।[35][36]

इतिहास

शास्त्रीय एआई

आधुनिक एआई शोध 1950 के दशक के मध्य में शुरू हुआ।[37] एआई शोधकर्ताओं की पहली पीढ़ी आश्वस्त थी कि कृत्रिम सामान्य बुद्धि संभव थी और यह कुछ ही दशकों में अस्तित्व में आ जाएगी।[38] एआई के अग्रदूत हर्बर्ट ए. साइमन ने 1965 में लिखा था: "मशीनें बीस साल के भीतर कोई भी काम करने में सक्षम हो जाएंगी जो एक आदमी कर सकता है।[39]

उनकी भविष्यवाणियां स्टैनले क्यूब्रिक और आर्थर सी. क्लार्क के चरित्र एचएएल 9000 के लिए प्रेरणा थीं, जिन्होंने एआई शोधकर्ताओं का मानना ​​​​था कि वे वर्ष 2001 तक बना सकते हैं। एआई अग्रणी मार्विन मिंस्की एचएएल 9000 को यथार्थवादी बनाने की परियोजना पर एक सलाहकार थे[40] संभव के रूप में समय की आम सहमति भविष्यवाणियों के अनुसार। उन्होंने 1967 में कहा, "एक पीढ़ी के भीतर... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या काफी हद तक हल हो जाएगी।"[41]

डौग लेनट की सीईसी परियोजना (जो 1984 में शुरू हुई), और एलन नेवेल की सोअर (संज्ञानात्मक वास्तुकला) परियोजना जैसे कई प्रतीकात्मक एआई, एजीआई में निर्देशित किए गए थे।

हालाँकि, 1970 के दशक की प्रारम्भ में, यह स्पष्ट हो गया कि शोधकर्ताओं ने परियोजना की कठिनाई को कम करके आंका था। फंडिंग एजेंसियों को एजीआई पर संदेह हो गया और शोधकर्ताओं ने उपयोगी "एप्लाइड एआई" का उत्पादन करने के लिए बढ़ते दबाव में डाल दिया।[lower-alpha 3] 1980 के दशक की प्रारम्भ में, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने एजीआई में रुचि को पुनर्जीवित किया, जिसमें दस साल की समयरेखा निर्धारित की गई जिसमें एजीआई लक्ष्य शामिल थे जैसे "आकस्मिक बातचीत जारी रखें"।[45] इसके जवाब में और विशेषज्ञ प्रणालियों की सफलता के लिए, उद्योग और सरकार दोनों ने क्षेत्र में पैसा वापस लगाया।[43][46] हालांकि, 1980 के दशक के अंत में एआई में विश्वास शानदार ढंग से गिर गया, और पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट के लक्ष्य कभी पूरे नहीं हुए।[47]20 वर्षों में दूसरी बार, एजीआई की आसन्न उपलब्धि की पूर्वानुमान करने वाले एआई शोधकर्ताओं से गलती हुई थी। 1990 के दशक तक, एआई शोधकर्ताओं के पास व्यर्थ वादे करने की प्रतिष्ठा थी। वे भविष्यवाणियां करने के लिए अनिच्छुक हो गए[lower-alpha 4] और "जंगली आंखों वाले सपने देखने वाले [एस]" लेबल किए जाने के डर से "मानव स्तर" कृत्रिम बुद्धि का उल्लेख करने से परहेज किया।[49]

संकीर्ण एआई अनुसंधान

1990 के दशक और 21वीं सदी की प्रारम्भ में, मुख्यधारा एआई ने विशिष्ट उप-समस्याओं पर ध्यान केंद्रित करके व्यावसायिक सफलता और अकादमिक सम्मान हासिल किया, जहां एआई सत्यापन योग्य परिणाम और व्यावसायिक अनुप्रयोग, जैसे कि कृत्रिम तंत्रिका नेटवर्क और सांख्यिकीय मशीन सीखने का उत्पादन कर सकता है।[50] ये "एप्लाइड एआई" सिस्टम अब पूरे प्रौद्योगिकी उद्योग में बड़े पैमाने पर उपयोग किए जाते हैं, और इस नस में अनुसंधान शिक्षा और उद्योग दोनों में भारी वित्त पोषित है। 2018 तक इस क्षेत्र के विकास को एक उभरती हुई प्रवृत्ति माना गया था, और 10 से अधिक वर्षों में एक परिपक्व चरण होने की उम्मीद थी।[51]

अधिकांश मुख्यधारा के एआई शोधकर्ता उम्मीद करते हैं कि विभिन्न उप-समस्याओं को हल करने वाले कार्यक्रमों को मिलाकर मजबूत एआई विकसित किया जा सकता है। हंस मोरवेस ने 1988 में लिखा था:[52]

मुझे विश्वास है कि कृत्रिम बुद्धिमत्ता के लिए यह बॉटम-अप रूट एक दिन पारंपरिक टॉप-डाउन रूट को पूरा करेगा, जो वास्तविक दुनिया की क्षमता और कॉमन्सेंस ज्ञान प्रदान करने के लिए तैयार है, जो रीजनिंग प्रोग्राम में निराशाजनक रूप से मायावी रहा है। पूरी तरह से बुद्धिमान मशीनों का परिणाम तब होगा जब दो प्रयासों को एकजुट करते हुए रूपक सुनहरी कील को चलाया जाएगा।[52]

हालाँकि, यह विवादित है। उदाहरण के लिए, प्रिंसटन विश्वविद्यालय के स्टीवन हरनाड ने सिंबल ग्राउंडिंग परिकल्पना पर अपना 1990 का पेपर बताते हुए निष्कर्ष निकाला अपेक्षा अक्सर व्यक्त की गई है कि मॉडलिंग अनुभूति के लिए "टॉप-डाउन" (प्रतीकात्मक) दृष्टिकोण किसी तरह "नीचे-ऊपर" (संवेदी) दृष्टिकोण को कहीं बीच में मिलेंगे। यदि इस पत्र में ग्राउंडिंग विचार मान्य हैं, तो यह अपेक्षा निराशाजनक रूप से मॉड्यूलर है और वास्तव में केवल एक ही व्यवहार्य मार्ग है जो अर्थ से लेकर प्रतीकों तक है: जमीन से ऊपर। एक कंप्यूटर के सॉफ्टवेयर स्तर की तरह एक फ्री-फ्लोटिंग प्रतीकात्मक स्तर इस मार्ग (या इसके विपरीत) से कभी नहीं पहुंचा जा सकता है - और न ही यह स्पष्ट है कि हमें इस तरह के स्तर तक अभिगमन का प्रयास क्यों करना चाहिए, क्योंकि ऐसा लगता है कि वहां अभिगमन से बस हमारे प्रतीकों को उनके आंतरिक अर्थों से उखाड़ने की राशि (जिससे केवल प्रोग्राम करने योग्य कंप्यूटर के कार्यात्मक समकक्ष को कम करना)।[53]

आधुनिक कृत्रिम सामान्य बुद्धि अनुसंधान

शब्द "आर्टिफिशियल जनरल इंटेलिजेंस" का इस्तेमाल 1997 की प्रारम्भ में मार्क गुब्रुड द्वारा किया गया था[54] पूरी तरह से स्वचालित सैन्य उत्पादन और संचालन के निहितार्थ की चर्चा में। 2002 के आसपास शेन लेग और बेन गोएर्टज़ेल द्वारा इस शब्द को फिर से पेश किया गया और इसे लोकप्रिय बनाया गया।[55] 2006 में एजीआई अनुसंधान गतिविधि को पेई वांग और बेन गोएर्टज़ेल द्वारा वर्णित किया गया था [56] "उत्पादन प्रकाशन और प्रारंभिक परिणाम" के रूप में। एजीआई में पहला समर स्कूल ज़ियामेन, चीन में 2009[59] में ज़ियामेन विश्वविद्यालय की कृत्रिम मस्तिष्क प्रयोगशाला और ओपनकॉग द्वारा आयोजित किया गया था। पहला विश्वविद्यालय पाठ्यक्रम 2010[57] और 2011[58] में प्लोवदीव विश्वविद्यालय, बुल्गारिया में टोडर अरनॉडोव द्वारा दिया गया था। MIT ने 2018 में एजीआई में एक पाठ्यक्रम प्रस्तुत किया, जिसे लेक्स फ्रिडमैन द्वारा आयोजित किया गया था और इसमें कई अतिथि व्याख्याता शामिल थे।

2023 तक, अधिकांश एआई शोधकर्ता एजीआई पर थोड़ा ध्यान देते हैं, कुछ का दावा है कि निकट अवधि में पूरी तरह से दोहराए जाने के लिए खुफिया बहुत जटिल है। हालांकि, कम संख्या में कंप्यूटर वैज्ञानिक एजीआई अनुसंधान में सक्रिय हैं, और कई आर्टिफिशियल जनरल इंटेलिजेंस पर सम्मेलन सम्मेलनों की एक श्रृंखला में योगदान करते हैं।

समयमान

अपनी 2006 की पुस्तक के परिचय में गोएर्टज़ेल का कहना है[59] कि वास्तव में लचीले एजीआई के निर्माण से पहले आवश्यक समय का अनुमान 10 साल से लेकर एक सदी तक भिन्न होता है। 2007 तक एजीआई अनुसंधान समुदाय में आम सहमति प्रतीत होती थी कि द सिंगुलैरिटी में रे कुर्ज़वील द्वारा चर्चा की गई समयरेखा निकट है[60] (अर्थात 2015 और 2045 के बीच) प्रशंसनीय थी।[61] मुख्यधारा के एआई शोधकर्ताओं ने इस पर व्यापक राय दी है कि क्या प्रगति इतनी तेजी से होगी। ऐसे 95 मतों के 2012 के मेटा-विश्लेषण में यह पूर्वानुमान करने के प्रति पूर्वाग्रह पाया गया कि एजीआई की प्रारम्भ आधुनिक और ऐतिहासिक भविष्यवाणियों के लिए समान रूप से 16-26 वर्षों के भीतर होगी। विशेषज्ञ या गैर-विशेषज्ञ के रूप में विचारों को वर्गीकृत करने के लिए उस पेपर की आलोचना की गई है।[62]

2012 में, एलेक्स क्रिज़ेव्स्की, इल्या सुतस्केवर, और जेफ्री हिंटन ने एलेक्सनेट नामक एक तंत्रिका नेटवर्क विकसित किया, जिसने इमेज नेट प्रतियोगिता को 15.3% की शीर्ष-5 परीक्षण त्रुटि दर के साथ जीता, जो 26.3% की दूसरी-सर्वश्रेष्ठ प्रविष्टि दर से काफी बेहतर है। पारंपरिक दृष्टिकोण ने विभिन्न पूर्व-निर्धारित वर्गीकारकों से अंकों के भारित योग का उपयोग किया)। [66] एलेक्सनेट को वर्तमान डीप लर्निंग वेव का प्रारंभिक ग्राउंड-ब्रेकर माना जाता था।[63]

2017 में, शोधकर्ताओं फेंग लियू, योंग शि और यिंग लियू ने सार्वजनिक रूप से उपलब्ध और स्वतंत्र रूप से सुलभ कममहत्व एआई जैसे Google एआई, ऐप्पल की सिरी और अन्य पर खुफिया परीक्षण किए। अधिकतम पर, ये एआई लगभग 47 के IQ मान तक पहुँच गए, जो पहली कक्षा में लगभग छह साल के बच्चे से मेल खाता है। एक वयस्क औसतन लगभग 100 आता है। इसी तरह के परीक्षण 2014 में किए गए थे, जिसमें आईक्यू स्कोर 27 के अधिकतम मूल्य तक पहुंच गया था।[64][65]

2020 में, ओपीईएनएआई ने जीपीटी-3 विकसित किया, एक भाषा मॉडल जो विशिष्ट प्रशिक्षण के बिना कई विविध कार्यों को करने में सक्षम है। वेंचरबीट लेख में गैरी ग्रॉसमैन के अनुसार, जबकि इस बात पर सहमति है कि जीपीटी-3 एजीआई का एक उदाहरण नहीं है, कुछ लोगों द्वारा इसे संकीर्ण एआई प्रणाली के रूप में वर्गीकृत करने के लिए बहुत उन्नत माना जाता है।[66]

उसी वर्ष, जेसन रोहरर ने चैटबॉट विकसित करने के लिए अपने जीपीटी-3 खाते का उपयोग किया, और "प्रोजेक्ट दिसंबर" नामक चैटबॉट-विकासशील मंच प्रदान किया। ओपीईएनएआई ने अपने सुरक्षा दिशानिर्देशों का पालन करने के लिए चैटबॉट में बदलाव के लिए कहा; रोहरर ने जीपीटी-3 API से प्रोजेक्ट दिसंबर को डिस्कनेक्ट कर दिया।[67]

2022 मेंगाटो (डीपमाइंड) ने गैटो (डीपमाइंड) विकसित किया, जो एक सामान्य-उद्देश्य प्रणाली है जो 600 से अधिक विभिन्न कार्यों को करने में सक्षम है।[68]

2023 में, Microsoft शोध ने ओपीईएनएआई के जीपीटी-4 के प्रारम्भी संस्करण पर एक अध्ययन प्रकाशित किया, जिसमें कहा गया कि इसने पिछले एआई मॉडल की तुलना में अधिक सामान्य बुद्धिमत्ता प्रदर्शित की और गणित, कोडिंग और कानून जैसे कई डोमेन में फैले कार्यों में मानव-स्तर के प्रदर्शन का प्रदर्शन किया। इस शोध ने इस बात पर बहस छेड़ दी कि क्या जीपीटी-4 को कृत्रिम सामान्य बुद्धि का प्रारंभिक, अधूरा संस्करण माना जा सकता है, इस तरह की प्रणालियों के आगे अन्वेषण और मूल्यांकन की आवश्यकता पर महत्व दिया गया।[69]

ब्रेन सिमुलेशन

संपूर्ण मस्तिष्क अनुकरण

एजीआई को प्राप्त करने के लिए एक संभावित दृष्टिकोण संपूर्ण मस्तिष्क का अनुकरण है: एक मस्तिष्क मॉडल को एक जैविक मस्तिष्क को विस्तार से मस्तिष्क स्कैनिंग और ब्रेन मैपिंग करके और इसकी स्थिति को एक कंप्यूटर सिस्टम या अन्य कम्प्यूटेशनल डिवाइस में कॉपी करके बनाया जाता है। कंप्यूटर सिमुलेशन मॉडल चलाता है जो मूल के प्रति पर्याप्त रूप से वफादार होता है कि यह व्यावहारिक रूप से मूल मस्तिष्क के समान ही व्यवहार करता है।[70] चिकित्सा अनुसंधान उद्देश्यों के लिए मस्तिष्क सिमुलेशन के संदर्भ में कम्प्यूटेशनल न्यूरोसाइंस और न्यूरोइनफॉरमैटिक्स में संपूर्ण मस्तिष्क अनुकरण पर चर्चा की गई है। इसकी चर्चा कृत्रिम बुद्धिमत्ता शोध [61] में मजबूत एआई के दृष्टिकोण के रूप में की गई है। न्यूरोइमेजिंग प्रौद्योगिकियां जो आवश्यक विस्तृत समझ प्रदान कर सकती हैं, तेजी से सुधार कर रही हैं, और द सिंगुलैरिटी इज़ नियर[60] पुस्तक में भविष्यवादी रे कुर्ज़वील ने पूर्वानुमान की है कि पर्याप्त गुणवत्ता का एक नक्शा एक समान समय पर उपलब्ध हो जाएगा, जिसकी आवश्यकता कंप्यूटिंग शक्ति पर होगी।

प्रारंभिक अनुमान

निम्न-स्तरीय मस्तिष्क अनुकरण के लिए एक अत्यंत शक्तिशाली कंप्यूटर की आवश्यकता होगी। मानव मस्तिष्क में बड़ी संख्या में सिनैप्स होते हैं। 1011 (एक सौ अरब) न्यूरॉन्स में से प्रत्येक में अन्य न्यूरॉन्स के लिए औसतन 7,000 सिनैप्टिक कनेक्शन (सिनैप्स) होते हैं। तीन साल के बच्चे के दिमाग में लगभग 1015 सिनेप्स (1 क्वॉड्रिलियन) होते हैं। यह संख्या उम्र के साथ घटती है, वयस्कता से स्थिर होती है। एक वयस्क के लिए अनुमान अलग-अलग होते हैं, 1014 से 5×1014 सिनैप्स (100 से 500 ट्रिलियन) तक।[71] न्यूरॉन्स गतिविधि के लिए एक सरल स्विच मॉडल के आधार पर मस्तिष्क की प्रसंस्करण शक्ति का अनुमान लगभग 1014 (100 ट्रिलियन) सिनैप्टिक अपडेट प्रति सेकंड (एसयूपीएस) है।[72]

1997 में, कुर्ज़वील ने मानव मस्तिष्क के बराबर हार्डवेयर के लिए आवश्यक विभिन्न अनुमानों को देखा और 1016 संगणना प्रति सेकंड (सीपीएस) का आंकड़ा अपनाया। [ई] (तुलना के लिए, यदि "गणना" एक "फ्लोटिंग-पॉइंट" के बराबर थी ऑपरेशन" - वर्तमान सुपर कंप्यूटरों को रेट करने के लिए उपयोग किया जाने वाला एक उपाय - फिर 1016 "कंप्यूटेशंस" 2011 में प्राप्त 10 पेटाफ्लॉप्स के बराबर होगा, जबकि 1018 2022 में हासिल किया गया था।) उन्होंने इस आंकड़े का उपयोग आवश्यक हार्डवेयर की पूर्वानुमान करने के लिए किया था जो 2015 के बीच कभी-कभी उपलब्ध होगा। और 2025, यदि लेखन के समय कंप्यूटर शक्ति में घातीय वृद्धि जारी रही है।

अधिक विस्तार से न्यूरॉन्स की मॉडलिंग

कुर्ज़वील द्वारा ग्रहण किया गया कृत्रिम न्यूरॉन मॉडल और कई सम्मिलिता कृत्रिम तंत्रिका नेटवर्क कार्यान्वयन में उपयोग जैविक न्यूरॉन मॉडल की तुलना में सरल है। एक मस्तिष्क सिमुलेशन को संभवतः जैविक न्यूरॉन्स के विस्तृत सेलुलर व्यवहार पर कब्जा करना होगा, जो वर्तमान में केवल व्यापक रूपरेखा में समझा जाता है। जैविक, रासायनिक, और तंत्रिका व्यवहार के भौतिक विवरण (विशेष रूप से एक आणविक पैमाने पर) के पूर्ण मॉडलिंग द्वारा पेश किए गए ओवरहेड को कम्प्यूटेशनल शक्तियों की आवश्यकता होगी, कुर्ज़वील के अनुमान से बड़े परिमाण के कई आदेश। इसके अलावा, अनुमान ग्लियाल कोशिकाओं के लिए जिम्मेदार नहीं हैं, जिन्हें संज्ञानात्मक प्रक्रियाओं में भूमिका निभाने के लिए जाना जाता है।[73]

वर्तमान शोध

कुछ शोध परियोजनाएं पारंपरिक कंप्यूटिंग आर्किटेक्चर पर कार्यान्वित अधिक परिष्कृत तंत्रिका मॉडल का उपयोग करके मस्तिष्क सिमुलेशन की जांच कर रही हैं। कृत्रिम बुद्धिमत्ता सिस्टम प्रोजेक्ट ने 2005 में एक "मस्तिष्क" (1011 न्यूरॉन्स के साथ) के गैर-वास्तविक समय सिमुलेशन को लागू किया। एक मॉडल के 1 सेकंड का अनुकरण करने के लिए 27 प्रोसेसर के क्लस्टर पर 50 दिन लगे।[74] ब्लू ब्रेन प्रोजेक्ट ने 2006 में लगभग 10,000 न्यूरॉन्स और 108 सिनैप्स वाले एकल चूहे नियोकोर्टिकल कॉलम का वास्तविक समय सिमुलेशन बनाने के लिए सबसे तेज़ सुपरकंप्यूटर आर्किटेक्चर, आईबीएम के ब्लू जीन प्लेटफॉर्म में से एक का उपयोग किया।[75] एक दीर्घकालिक लक्ष्य मानव मस्तिष्क में शारीरिक प्रक्रियाओं का एक विस्तृत, कार्यात्मक अनुकरण बनाना है: "मानव मस्तिष्क का निर्माण करना असंभव नहीं है और हम इसे 10 वर्षों में कर सकते हैं," ब्लू ब्रेन के निदेशक हेनरी मार्कराम प्रोजेक्ट, 2009 में ऑक्सफोर्ड में TED सम्मेलन में कहा गया।[76] न्यूरो-सिलिकॉन इंटरफेस को वैकल्पिक कार्यान्वयन रणनीति के रूप में प्रस्तावित किया गया है जो बेहतर हो सकता है।[77]

हंस मोरावेक ने अपने 1997 के पेपर "व्हेन विल कंप्यूटर हार्डवेयर मैच द ह्यूमन ब्रेन?" में उपरोक्त तर्कों ("दिमाग अधिक जटिल हैं", "न्यूरॉन्स को अधिक विस्तार से मॉडलिंग करनी होगी") को संबोधित किया।[78] उन्होंने तंत्रिका ऊतक, विशेष रूप से रेटिना की कार्यक्षमता को अनुकरण करने के लिए सम्मिलिता सॉफ़्टवेयर की क्षमता को माप लिया। उसके परिणाम[specify] ग्लियाल कोशिकाओं की संख्या पर निर्भर नहीं करते हैं, न ही किस प्रकार के प्रसंस्करण न्यूरॉन्स कहां प्रदर्शन करते हैं।

ओपनवॉर्म प्रोजेक्ट में मॉडलिंग जैविक न्यूरॉन्स की वास्तविक जटिलता का पता लगाया गया है जिसका उद्देश्य एक कृमि का पूर्ण अनुकरण करना है जिसके तंत्रिका नेटवर्क में केवल 302 न्यूरॉन्स हैं (कुल लगभग 1000 कोशिकाओं के बीच)। परियोजना की प्रारम्भ से पहले जानवर के तंत्रिका नेटवर्क को अच्छी तरह से प्रलेखित किया गया था। हालाँकि, प्रारम्भ में कार्य सरल लग रहा था, लेकिन सामान्य तंत्रिका नेटवर्क पर आधारित मॉडल काम नहीं करते थे। वर्तमान में,[may be outdated as of April 2023] प्रयास जैविक न्यूरॉन्स (आंशिक रूप से आणविक स्तर पर) के सटीक अनुकरण पर ध्यान केंद्रित करते हैं, लेकिन परिणाम को अभी तक कुल सफलता नहीं कहा जा सकता है।

सिमुलेशन-आधारित दृष्टिकोणों की आलोचना

सिम्युलेटेड ब्रेन एप्रोच की एक मौलिक आलोचना सन्निहित अनुभूति सिद्धांत से उत्पन्न होती है जो इस बात पर महत्व देती है कि मानव अवतार मानव बुद्धि का एक अनिवार्य दृष्टिकोण है और जमीनी अर्थ के लिए आवश्यक है।[79] यदि यह सिद्धांत सही है, तो किसी भी पूरी तरह कार्यात्मक मस्तिष्क मॉडल को केवल न्यूरॉन्स (जैसे, एक रोबोटिक बॉडी) से अधिक शामिल करने की आवश्यकता होगी।[61] गोएर्टज़ेल एक विकल्प के रूप में आभासी अवतार (जैसे दूसरे जीवन में) का प्रस्ताव करता है, लेकिन यह अज्ञात है कि क्या यह पर्याप्त होगा।

109 cps (कुर्ज़वील की गैर-मानक इकाई "प्रति सेकंड संगणना", ऊपर देखें) से अधिक क्षमता वाले माइक्रोप्रोसेसरों का उपयोग करने वाले डेस्कटॉप कंप्यूटर 2005 से उपलब्ध हैं। कुर्ज़वील (और मोरेवेक) द्वारा उपयोग किए जाने वाले मस्तिष्क शक्ति अनुमानों के अनुसार, ऐसा कंप्यूटर होना चाहिए मधुमक्खी के मस्तिष्क के अनुकरण का समर्थन करने में सक्षम, लेकिन कुछ रुचि के बावजूद[80] ऐसा कोई अनुकरण सम्मिलित नहीं है।[citation needed] इसके कई कारण हैं:

  1. न्यूरॉन मॉडल ओवरसिम्प्लीफाइड लगता है (अगला भाग देखें)।
  2. उच्च संज्ञानात्मक प्रक्रियाओं की अपर्याप्त समझ है[lower-alpha 5] सटीक रूप से स्थापित करने के लिए कि मस्तिष्क की तंत्रिका गतिविधि (न्यूरोइमेजिंग # कार्यात्मक चुंबकीय अनुनाद इमेजिंग जैसी तकनीकों का उपयोग करके देखी गई) किससे संबंधित है।
  3. भले ही अनुभूति की हमारी समझ पर्याप्त रूप से आगे बढ़ती है, प्रारंभिक सिमुलेशन कार्यक्रम बहुत अक्षम होने की संभावना है और इसलिए, काफी अधिक हार्डवेयर की आवश्यकता होगी।
  4. एक जीव का मस्तिष्क, जबकि महत्वपूर्ण, एक संज्ञानात्मक मॉडल के लिए उपयुक्त सीमा नहीं हो सकता है। मधुमक्खी के मस्तिष्क का अनुकरण करने के लिए, शरीर और पर्यावरण का अनुकरण करना आवश्यक हो सकता है। विस्तारित मन थीसिस इस दार्शनिक अवधारणा को औपचारिक रूप देती है, और cephalopods में अनुसंधान ने विकेंद्रीकृत प्रणाली के स्पष्ट उदाहरणों का प्रदर्शन किया।[82]

इसके अलावा, मानव मस्तिष्क का पैमाना वर्तमान में अच्छी तरह से विवश नहीं है। एक अनुमान के अनुसार मानव मस्तिष्क में लगभग 100 अरब न्यूरॉन्स और 100 खरब सिनैप्स होते हैं।[83][84] एक अन्य अनुमान 86 बिलियन न्यूरॉन्स का है, जिनमें से 16.3 बिलियन सेरेब्रल कॉर्टेक्स में हैं और 69 बिलियन सेरिबैलम में हैं।[85] ग्लियाल सेल सिनैप्स वर्तमान में अनिर्धारित हैं, लेकिन बहुत अधिक होने के लिए जाने जाते हैं।

दार्शनिक दृष्टिकोण

दर्शनशास्त्र में परिभाषित मजबूत एआई

1980 में, दार्शनिक जॉन सियरल ने अपने चीनी कमरे के तर्क के हिस्से के रूप में मजबूत एआई शब्द गढ़ा।[86] वह कृत्रिम बुद्धिमत्ता के विषय में दो अलग-अलग परिकल्पनाओं में अंतर करना चाहते थे:[lower-alpha 6]

  • मजबूत एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली सोच सकती है - एक दिमाग और चेतना है।
  • कममहत्व एआई परिकल्पना: एक कृत्रिम बुद्धि प्रणाली (केवल) 'जैसा कार्य' करती है, वह सोचती है और उसके पास दिमाग और चेतना होती है।

पहले वाले को उन्होंने "मजबूत" कहा क्योंकि यह एक मजबूत बयान देता है: यह मानता है कि मशीन के साथ कुछ विशेष हुआ है जो उन क्षमताओं से परे है जिनका हम परीक्षण कर सकते हैं। एक "कममहत्व एआई" मशीन का व्यवहार ठीक "मजबूत एआई" मशीन के समान होगा, लेकिन बाद वाले में व्यक्तिपरक जागरूक अनुभव भी होगा। अकादमिक एआई अनुसंधान और पाठ्यपुस्तकों में भी यह प्रयोग आम है।[87]

मेनस्ट्रीम एआई की सबसे अधिक रुचि इस बात में है कि कोई प्रोग्राम कैसे व्यवहार करता है।[88] रसेल और पीटर नॉरविग के अनुसार, "जब तक कार्यक्रम काम करता है, वे परवाह नहीं करते कि आप इसे वास्तविक कहते हैं या अनुकरण।" पता है कि क्या यह वास्तव में मन है - वास्तव में, यह बताने का कोई तरीका नहीं होगा। एआई शोध के लिए, सियरल की "कममहत्व एआई परिकल्पना" कथन "कृत्रिम सामान्य बुद्धि संभव है" के बराबर है। इस प्रकार, रसेल और नॉरविग के अनुसार, "अधिकांश एआई शोधकर्ता कममहत्व एआई परिकल्पना को मान लेते हैं, और मजबूत एआई परिकल्पना की परवाह नहीं करते हैं।"[89] इस प्रकार, अकादमिक एआई अनुसंधान के लिए, "मजबूत एआई" और "एजीआई" दो बहुत अलग चीजें हैं।

सरेल और मुख्यधारा एआई के विपरीत, कुछ भविष्यवादी जैसे रे कुर्ज़वील "मजबूत एआई" शब्द का प्रयोग "मानव स्तर की कृत्रिम सामान्य बुद्धि" के लिए करते हैं।[60] यह Searle के मजबूत एआई के समान नहीं है, जब तक कि आप यह नहीं मान लेते कि मानव-स्तर के एजीआई के लिए चेतना आवश्यक है। सियरल जैसे शैक्षणिक दार्शनिकों का मानना ​​है कि ऐसा नहीं है, और अधिकांश कृत्रिम बुद्धिमत्ता शोधकर्ताओं के लिए यह सवाल दायरे से बाहर है।[89]

चेतना

बुद्धि के अलावा मानव मन के अन्य दृष्टिकोण मजबूत एआई की अवधारणा के लिए प्रासंगिक हैं, और ये विज्ञान कथा और कृत्रिम बुद्धि की नैतिकता में एक प्रमुख भूमिका निभाते हैं:

  • चेतनाः गुण और विचार होना।[lower-alpha 7]
  • आत्म-जागरूकता: एक अलग व्यक्ति के रूप में स्वयं के विषय में जागरूक होना, विशेष रूप से स्वयं के विचारों के प्रति जागरूक होना।
  • भावना: धारणाओं या भावनाओं को व्यक्तिपरक रूप से महसूस करने की क्षमता।
  • ज्ञान: ज्ञान की क्षमता।

इन लक्षणों का एक नैतिक आयाम है, क्योंकि मजबूत एआई के इस रूप वाली एक मशीन के अधिकार हो सकते हैं, जो पशु अधिकारों के अनुरूप हो सकते हैं। गैर-मानव जानवरों के अधिकार। एकीकृत करने पर प्रारंभिक कार्य किया गया है full ethical agents[clarification needed] 'मजबूत' एआई की कानूनी स्थिति और अधिकारों पर ध्यान केंद्रित करते हुए सम्मिलिता कानूनी और सामाजिक ढांचे के साथ।[91] बिल जॉय, दूसरों के बीच, तर्क देते हैं कि इन लक्षणों वाली एक मशीन मानव जीवन या गरिमा के लिए खतरा हो सकती है। रेफरी>Joy, Bill (April 2000). "भविष्य को हमारी आवश्यकता क्यों नहीं है". Wired.</ref>

यह दिखाया जाना बाकी है कि मजबूत एआई के लिए इनमें से कोई भी विशेषता आवश्यक है या नहीं। चेतना की भूमिका स्पष्ट नहीं है, और इसकी उपस्थिति के लिए कोई सहमत परीक्षण नहीं है। यदि एक मशीन एक ऐसे उपकरण के साथ बनाई गई है जो चेतना के तंत्रिका संबंधी संबंधों का अनुकरण करती है, तो क्या यह स्वचालित रूप से आत्म-जागरूकता होगी? यह संभव है कि इनमें से कुछ लक्षण स्वाभाविक रूप से पूरी तरह से बुद्धिमान मशीन से उभरे हों। यह भी संभव है कि लोग इन गुणों का श्रेय मशीनों को देंगे जब वे स्पष्ट रूप से बुद्धिमान तरीके से कार्य करना शुरू कर देंगी।

कृत्रिम चेतना अनुसंधान

हालांकि मजबूत एआई/एजीआई में चेतना की भूमिका विवादास्पद है, कई एजीआई शोधकर्ता ऐसे शोध को मानते हैं जो चेतना को लागू करने की संभावनाओं की जांच करता है।[81] प्रारंभिक प्रयास में इगोर अलेक्जेंडर[92] ने तर्क दिया कि एक जागरूक मशीन बनाने के सिद्धांत पहले से ही सम्मिलित थे लेकिन भाषा को समझने के लिए ऐसी मशीन को प्रशिक्षित करने में चालीस साल लगेंगे।[clarification needed]

मजबूत एआई अनुसंधान की धीमी प्रगति के लिए संभावित स्पष्टीकरण

1956 में एआई अनुसंधान के शुभारंभ के बाद से, मानव स्तर पर बुद्धिमान कार्रवाई के साथ कुशल मशीनों के निर्माण के इस क्षेत्र में प्रगति धीमी हो गई है।[needs update][93] एक संभावित कारण यह है कि कंप्यूटर-विज्ञान-उन्मुख और/या न्यूरोसाइंस-उन्मुख एजीआई प्लेटफॉर्म को समायोजित करने के लिए कंप्यूटर में पर्याप्त मेमोरी, प्रसंस्करण शक्ति या चिप लचीलेपन की कमी है।[93][94][95] साथ ही एआई अनुसंधान में शामिल जटिलता भी मजबूत एआई अनुसंधान की प्रगति को सीमित करती है।[93]

एआई अनुसंधान में सुस्ती के लिए वैचारिक सीमाएं एक और संभावित कारण हैं।[93] एआई शोधकर्ताओं को मजबूत एआई प्राप्त करने की खोज के लिए एक मजबूत आधार प्रदान करने के लिए अपने अनुशासन के वैचारिक ढांचे को संशोधित करने की आवश्यकता हो सकती है। इसका मतलब है कि एक सामाजिक-सांस्कृतिक संदर्भ में एक मजबूत एआई की स्थिति जहां मानव-जैसे एआई मानव-जैसे अनुभवों से प्राप्त होती है।[clarification needed][fact or opinion?] जैसा कि विलियम क्लॉक्सिन ने 2003 में लिखा था:the framework[clarification needed] से शुरू होता है Weizenbaum's[clarification needed] अवलोकन कि बुद्धि केवल विशिष्ट सामाजिक और सांस्कृतिक संदर्भों के सापेक्ष ही प्रकट होती है।[93]

एआई शोधकर्ता ऐसे कंप्यूटर बनाने में सक्षम हैं जो ऐसे काम कर सकते हैं जो लोगों के लिए जटिल हैं, जैसे कि गणित, लेकिन वे एक ऐसे कंप्यूटर को विकसित करने के लिए संघर्ष कर रहे हैं जो मनुष्यों के लिए सरल कार्यों को करने में सक्षम है, जैसे चलना (मोरवेक का विरोधाभास)।[needs update][93] डेविड गेलर्नटर द्वारा वर्णित समस्या यह है कि कुछ लोग सोच और तर्क को समान मानते हैं।[non sequitur][96] विचार और उन विचारों के निर्माता अलग-थलग हैं या सामाजिक रूप से स्थित होना चाहिए, इस विचार ने एआई शोधकर्ताओं को परेशान किया है।[non sequitur][96]

पिछले दशकों में एआई अनुसंधान में सामने आई समस्याओं ने क्षेत्र में अविश्वास पैदा करके एजीआई अनुसंधान और विकास की प्रगति को और बाधित किया है। एआई शोधकर्ताओं की सफलता की असफल भविष्यवाणियों और मानव व्यवहार की पूरी समझ की कमी ने मानव-स्तरीय एआई बनाने के विचार में आशावाद को कम कर दिया है।[61] एआई अनुसंधान की बढ़ती और घटती प्रगति ने सुधार और निराशा दोनों लाए हैं।[97] अधिकांश जांचकर्ता 21वीं सदी में एजीआई हासिल करने को लेकर आशान्वित हैं।[61]

मजबूत एआई की ओर धीमी प्रगति के लिए अन्य संभावित कारण प्रस्तावित किए गए हैं। वैज्ञानिक समस्याओं की गहनता और मनोविज्ञान और न्यूरोफिज़ियोलॉजी के माध्यम से मानव मस्तिष्क को पूरी तरह से समझने की आवश्यकता ने मानव मस्तिष्क परियोजना जैसी पहलों के माध्यम से कंप्यूटर हार्डवेयर में मानव मस्तिष्क के कार्य को अनुकरण करने के कार्य में कई शोधकर्ताओं को सीमित कर दिया है।[98][99][100] कई शोधकर्ता एआई की भविष्य की भविष्यवाणियों से जुड़े किसी भी संदेह को कम आंकते हैं, लेकिन मानव मस्तिष्क मॉडलिंग जैसे मुद्दों को गंभीरता से लिए बिना, एजीआई शोधकर्ता तब समस्याग्रस्त प्रश्नों के समाधान की अनदेखी करते हैं।[needs copy edit][61]

क्लॉक्सिन का कहना है कि एआई शोधकर्ता कंप्यूटर प्रोग्राम और उपकरणों के कार्यान्वयन के लिए गलत तकनीकों का उपयोग कर रहे होंगे।[specify][93][non sequitur] जब एआई शोधकर्ताओं ने पहली बार एजीआई के लिए लक्ष्य बनाना शुरू किया, तो मानव तर्क का अनुकरण और जांच करना एक मुख्य रुचि थी।[101] उस समय, शोधकर्ताओं ने तर्क के माध्यम से मानव ज्ञान के कम्प्यूटेशनल मॉडल स्थापित करने और एक विशिष्ट संज्ञानात्मक कार्य के साथ कंप्यूटर को कैसे डिज़ाइन किया जाए, यह पता लगाने की आशा की थी।[101]

जवाब में, अमूर्तता का अभ्यास, जिसे लोग अनुसंधान में एक विशेष संदर्भ के साथ काम करते समय फिर से परिभाषित करते हैं, एआई शोधकर्ताओं को केवल कुछ अवधारणाओं पर ध्यान केंद्रित करने का विकल्प प्रदान करता है।[incomprehensible][101] एआई अनुसंधान में अमूर्तन का सर्वाधिक उत्पादक उपयोग योजना और समस्या समाधान से आता है।[further explanation needed][101] हालांकि उद्देश्य एक संगणना की गति को बढ़ाना है, अमूर्त संचालकों की भूमिका ने समस्याएँ खड़ी कर दी हैं।[further explanation needed][102]

मानव अनुमान कुछ डोमेन में कंप्यूटर के प्रदर्शन से बेहतर रहता है।[98] लेकिन तेजी से शक्तिशाली कंप्यूटरों में प्रोग्राम किए गए विशिष्ट कार्य ह्यूरिस्टिक्स को लागू करने में सक्षम हो सकते हैं जो अंततः एआई को मानव बुद्धि से मेल खाने की अनुमति देते हैं। जबकि मजबूत एआई को प्राप्त करने के लिए ह्यूरिस्टिक्स एक मौलिक बाधा नहीं है, it is widely agreed[weasel words] चुनौती होना।

एआई शोधकर्ताओं ने इस बात पर बहस की है कि भावात्मक कंप्यूटिंग है या नहीं।[103] एआई के विशिष्ट मॉडलों में कोई भावना नहीं होती है, और कुछ शोधकर्ताओं का कहना है कि मशीनों में भावनाओं को प्रोग्रामिंग करना ऐसी मशीनों की अनुमति देता है to have a mind of their own[clarification needed].[93] भावनाएँ मनुष्य को अनुभवों को याद रखने में मदद करती हैं।[96] डेविड गेलर्नटर लिखते हैं, कोई भी कंप्यूटर तब तक रचनात्मक नहीं होगा जब तक कि वह मानवीय भावनाओं की सभी बारीकियों का अनुकरण नहीं कर सकता।[96] भावना के मजबूत एआई शोध का विषय बने रहने की संभावना है।[104][105]

विवाद और जोकिम

व्यवहार्यता

2022 तक एजीआई सट्टा बना हुआ है।[106][107] ऐसी कोई प्रणाली अभी तक प्रदर्शित नहीं हुई है। कृत्रिम सामान्य बुद्धि आएगी या नहीं, इस पर राय अलग-अलग है। एआई अग्रणी हर्बर्ट ए. साइमन ने 1965 में अनुमान लगाया था कि "मशीनें, बीस वर्षों के भीतर, कोई भी ऐसा काम करने में सक्षम होंगी जो एक आदमी कर सकता है"। यह पूर्वानुमान सच होने में विफल रही। माइक्रोसॉफ्ट के सह-संस्थापक पॉल एलन का मानना ​​था कि 21वीं सदी में इस तरह की बुद्धिमत्ता की संभावना नहीं है क्योंकि इसके लिए "अप्रत्याशित और मौलिक रूप से अप्रत्याशित सफलताओं" और "अनुभूति की वैज्ञानिक रूप से गहरी समझ" की आवश्यकता होगी।[108] द गार्जियन में लिखते हुए, रोबोटिस्ट एलन विनफील्ड ने दावा किया कि आधुनिक कंप्यूटिंग और मानव-स्तर की कृत्रिम बुद्धिमत्ता के बीच की खाई उतनी ही चौड़ी है जितनी कि वर्तमान अंतरिक्ष उड़ान और व्यावहारिक तेज-से-प्रकाश अंतरिक्ष उड़ान के बीच की खाई।[109]

अधिकांश एआई शोधकर्ताओं का मानना ​​है कि मजबूत एआई को भविष्य में हासिल किया जा सकता है, लेकिन ह्यूबर्ट ड्रेफस और रोजर पेनरोज़ जैसे कुछ विचारक मजबूत एआई हासिल करने की संभावना से इनकार करते हैं।[93][110] जॉन मैक्कार्थी उन लोगों में से हैं जो मानते हैं कि मानव-स्तर एआई को पूरा किया जाएगा, लेकिन प्रगति का वर्तमान स्तर ऐसा है कि किसी तिथि का सटीक अनुमान नहीं लगाया जा सकता है। एजीआई वैक्स और वेन की व्यवहार्यता पर एआई विशेषज्ञों के विचार। 2012 और 2013 में किए गए चार चुनावों ने सुझाव दिया कि विशेषज्ञों के बीच औसत अनुमान 2040 से 2050 के बीच 2040 से 2050 तक होगा, जब वे 50% आश्वस्त होंगे, मतदान के आधार पर, औसत 2081 के साथ। विशेषज्ञों में से, 16.5% ने उत्तर दिया " कभी नहीं" जब यही सवाल पूछा गया लेकिन इसके बजाय 90% आत्मविश्वास के साथ।[111][112] आगे की वर्तमान एजीआई प्रगति के विचार मानव-स्तर एजीआई की पुष्टि के लिए परीक्षणों के ऊपर पाए जा सकते हैं।

मशीन इंटेलिजेंस शोध संस्थान के स्टुअर्ट आर्मस्ट्रांग और काज सोताला की एक रिपोर्ट में पाया गया कि "[ए] 60 साल की समय सीमा में मानव स्तर एआई के आगमन की पूर्वानुमान करने की दिशा में एक मजबूत पूर्वाग्रह है क्योंकि पूर्वानुमान के समय से 15 से 25 साल के बीच निर्मित"। उन्होंने 1950 और 2012 के बीच की गई 95 भविष्यवाणियों का विश्लेषण किया कि मानव स्तर एआई कब आएगा। [113]

मानव अस्तित्व के लिए संभावित खतरा

थीसिस कि एआई मनुष्यों के लिए एक अस्तित्वगत जोखिम पैदा करता है, और इस जोखिम पर वर्तमान की तुलना में बहुत अधिक ध्यान देने की आवश्यकता है, एलोन मस्क, बिल गेट्स और स्टीफन हॉकिंग सहित कई सार्वजनिक हस्तियों द्वारा इसका समर्थन किया गया है। स्टुअर्ट जे. रसेल, रोमन यमपोलस्की, और एलेक्सी टर्चिन जैसे एआई शोधकर्ता भी मानवता के लिए संभावित खतरे की मूल थीसिस का समर्थन करते हैं। गेट्स कहते हैं कि उन्हें "समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं" और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की:[114][91][115] गेट्स कहते हैं कि उन्हें समझ नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं,[116] और हॉकिंग ने अपने 2014 के संपादकीय में व्यापक उदासीनता की आलोचना की:

इसलिए, अनगिनत लाभों और जोखिमों के संभावित भविष्य का सामना करते हुए, विशेषज्ञ निश्चित रूप से सर्वोत्तम परिणाम सुनिश्चित करने के लिए हर संभव प्रयास कर रहे हैं, है ना? गलत। अगर एक बेहतर एलियन सभ्यता ने हमें यह कहते हुए संदेश भेजा, 'हम कुछ दशकों में पहुंचेंगे,' तो क्या हम सिर्फ यह जवाब देंगे, 'ठीक है, जब आप यहां पहुंचें तो हमें कॉल करें–हम रोशनी चालू रखेंगे?' शायद नहीं–लेकिन AI के साथ कमोबेश यही हो रहा है।[117]

एजीआई से जुड़े जोखिमों की 2021 की व्यवस्थित समीक्षा में, डेटा की कमी को ध्यान में रखते हुए, निम्नलिखित संभावित खतरे पाए गए: "एजीआई खुद को मानव मालिकों/प्रबंधकों के नियंत्रण से हटा रहा है, असुरक्षित लक्ष्यों को दिया जा रहा है या विकसित कर रहा है, असुरक्षित एजीआई, एजीआई का विकास खराब नैतिकता, नैतिकता और मूल्यों के साथ एजीआई और अस्तित्वगत जोखिमों का अपर्याप्त प्रबंधन"।[118]

कई विद्वान जो अस्तित्वगत जोखिम अधिवक्ता (संभवतः बड़े पैमाने पर) के विषय में चिंतित हैं, प्रश्न का उत्तर देने के लिए कठिन "नियंत्रण समस्या" को हल करने के लिए शोध करते हैं: किस प्रकार के सुरक्षा उपाय, एल्गोरिदम, या आर्किटेक्चर प्रोग्रामर इस संभावना को अधिकतम करने के लिए लागू कर सकते हैं कि उनकी पुनरावर्ती-सुधार एआई होगी अधीक्षण तक पहुँचने के बाद विनाशकारी के बजाय मैत्रीपूर्ण तरीके से व्यवहार करना जारी रखें?[91][119] नियंत्रण समस्या को हल करना एआई हथियारों की दौड़ से जटिल है,[120][121] जो लगभग निश्चित रूप से सैन्यीकरण और शस्त्रीकरण को देखेंगे एक से अधिक राष्ट्र-राज्य द्वारा एजीआई का, जिसके परिणामस्वरूप एजीआई-सक्षम युद्ध होता है, और एआई मिसलिग्न्मेंट के मामले में, एजीआई-निर्देशित युद्ध, संभावित रूप से सभी मानवता के खिलाफ।[122][123]

थीसिस कि एआई अस्तित्वगत जोखिम पैदा कर सकता है, में भी अवरोधक हैं। संशयवादी कभी-कभी यह आरोप लगाते हैं कि थीसिस क्रिप्टो-धार्मिक है, एक सर्वशक्तिमान ईश्वर में एक तर्कहीन विश्वास की जगह अधीक्षण की संभावना में एक तर्कहीन विश्वास के साथ जेरोन लैनियर ने 2014 में तर्क दिया कि यह विचार कि तत्कालीन मशीनें किसी भी तरह से बुद्धिमान थीं, "एक भ्रम" और अमीरों द्वारा एक "अद्भुत चाल" है।[124]

बहुत आलोचना का तर्क है कि अल्पावधि में एजीआई की संभावना नहीं है। कंप्यूटर वैज्ञानिक गॉर्डन बेल का तर्क है कि तकनीकी विलक्षणता तक अभिगमन से पहले ही मानव जाति खुद को नष्ट कर देगी। मूर के कानून के मूल प्रस्तावक गॉर्डन मूर ने घोषणा की: "मैं एक संशयवादी हूं। मुझे विश्वास नहीं है कि [तकनीकी विलक्षणता] होने की संभावना है, कम से कम लंबे समय तक। और मुझे नहीं पता कि मुझे ऐसा क्यों लगता है रास्ता।"[125] बीएआईडीयू के पूर्व उपाध्यक्ष और मुख्य वैज्ञानिक एंड्रयू एनजी कहते हैं कि एआई के अस्तित्वगत जोखिम के विषय में चिंता करना "मंगल ग्रह पर अत्यधिक जनसंख्या के विषय में चिंता करने जैसा है, जब हमने अभी तक ग्रह पर पैर भी नहीं रखा है।[126]

यह भी देखें

टिप्पणियाँ

  1. Cite error: Invalid <ref> tag; no text was provided for refs named Searle's Strong AI
  2. AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent."[16] (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  3. The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England.[42] In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research".[43][44]
  4. As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case."[48]
  5. In Goertzels' AGI book, Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware.[81]
  6. As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."[72]
  7. Note that consciousness is difficult to define. A popular definition, due to Thomas Nagel, is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not.[90]

संदर्भ

  1. Hodson, Hal (1 March 2019). "DeepMind and Google: the battle to control artificial intelligence". 1843. Archived from the original on 7 July 2020. Retrieved 7 July 2020. AGI stands for Artificial General Intelligence, a hypothetical computer program...
  2. Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 October 2019). "The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge". EMBO Reports (in English). 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926.
  3. 3.0 3.1 "ओपनएआई चार्टर". openai.com (in English). Retrieved 6 April 2023.
  4. "के बारे में". openai.com (in English). Retrieved 6 April 2023.
  5. 5.0 5.1 5.2 "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. Retrieved 6 April 2023.
  6. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  7. 7.0 7.1 "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review (in English). Retrieved 6 April 2023.
  8. "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News (in English). 23 March 2023. Retrieved 6 April 2023.
  9. Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (PDF), Global Catastrophic Risk Institute Working Paper 20, archived (PDF) from the original on 14 November 2021, retrieved 13 January 2022
  10. Kurzweil 2005, p. 260.
  11. 11.0 11.1 Kurzweil, Ray (5 August 2005a), "Long Live AI", Forbes, archived from the original on 14 August 2005: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  12. Treder, Mike (10 August 2005), "Advanced Human Intelligence", Responsible Nanotechnology, archived from the original on 16 October 2019
  13. "The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013". Archived from the original on 26 February 2014. Retrieved 22 February 2014.
  14. Newell & Simon 1976, This is the term they use for "human-level" intelligence in the physical symbol system hypothesis.
  15. "मजबूत और कमजोर एआई पर मुक्त विश्वविद्यालय". Archived from the original on 25 September 2009. Retrieved 8 October 2007.
  16. McCarthy, John (2007a). "Basic Questions". Stanford University. Archived from the original on 26 October 2007. Retrieved 6 December 2007.
  17. This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  18. Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  19. White, R. W. (1959). "Motivation reconsidered: The concept of competence". Psychological Review. 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397.
  20. Johnson 1987
  21. de Charms, R. (1968). Personal causation. New York: Academic Press.
  22. Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  23. Legg, Shane (2008). मशीन सुपर इंटेलिजेंस (PDF) (Thesis). University of Lugano. Archived (PDF) from the original on 15 June 2022. Retrieved 19 July 2022.
  24. Goertzel, Ben (2014). "Artificial General Intelligence: Concept, State of the Art, and Future Prospects". Journal of Artificial General Intelligence. Lecture Notes in Computer Science. 8598. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID 8387410.
  25. Everitt, Tom; Lea, Gary; Hutter, Marcus. "एजीआई सेफ्टी लिटरेचर रिव्यू" (PDF). International Joint Conferences on Artificial Intelligence Organization. Retrieved 26 April 2023.
  26. Leike, Jan; Hutter, Marcus (2015). बैड यूनिवर्सल प्रायर्स एंड नोशंस ऑफ ऑप्टिमलिटी. The 28th Conference on Learning Theory. arXiv:1510.04931. Archived from the original on 6 December 2022. Retrieved 6 December 2022.
  27. 27.0 27.1 {{cite journal |last1=Ward |first1=Dave |last2=Silverman |first2=David |last3=Villalobos |first3=Mario |date=2017 |title=परिचय: सक्रियता की किस्में|journal=Topoi |volume=36 |issue=1 |pages=365–375 |doi=10.1007/s11245-017-9484-6 |s2cid=247434831 |doi-access=free }
  28. {{cite journal | last1=Bennett | first1=Michael Timothy | last2=Maruyama | first2=Yoshihiro | date=2022 | title=भावनात्मक नैतिक आर्टिफिशियल इंटेलिजेंस की दार्शनिक विशिष्टता| url=https://link.springer.com/article/10.1007/s11245-017-9484-6 | journal=IEEE Transactions on Cognitive and Developmental Systems | volume=14 | issue=2 | pages=292–300 | doi=10.1109/TCDS.2021.3099945 | arxiv=2107.10715 | s2cid=236170941 | access-date=6 December 2022 | archive-date=6 December 2022 | archive-url=https://web.archive.org/web/20221206020457/https://link.springer.com/article/10.1007/s11245-017-9484-6 | url-status=live }
  29. Bennett, Michael Timothy (2021). प्रतीक उद्भव और किसी भी कार्य का समाधान. 14th Conference on Artificial General Intelligence. arXiv:2109.01281. doi:10.1007/978-3-030-93758-4_4. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  30. Bennett, Michael Timothy; Maruyama, Yoshihiro (2021). कृत्रिम वैज्ञानिक. 14th Conference on Artificial General Intelligence. arXiv:2110.01831. doi:10.1007/978-3-030-93758-4_6. Archived from the original on 19 July 2022. Retrieved 19 July 2022.
  31. Muehlhauser, Luke (11 August 2013). "What is AGI?". Machine Intelligence Research Institute. Archived from the original on 25 April 2014. Retrieved 1 May 2014.
  32. "What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence". Talky Blog (in English). 13 July 2019. Archived from the original on 17 July 2019. Retrieved 17 July 2019.
  33. Shapiro, Stuart C. (1992). "Artificial Intelligence" (PDF). In Stuart C. Shapiro (ed.). आर्टिफिशियल इंटेलिजेंस का विश्वकोश (Second ed.). New York: John Wiley. pp. 54–57. Archived (PDF) from the original on 1 February 2016. (Section 4 is on "AI-Complete Tasks".)
  34. Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "एआई-पूर्णता की परिभाषित विशेषता के रूप में ट्यूरिंग टेस्ट" (PDF). Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. Archived (PDF) from the original on 22 May 2013.
  35. Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Archived 4 March 2016 at the Wayback Machine. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  36. Bergmair, Richard (7 January 2006). "प्राकृतिक भाषा स्टेग्नोग्राफ़ी और एक "एआई-पूर्ण" सुरक्षा आदिम". CiteSeer. CiteSeerX 10.1.1.105.129.
  37. Crevier 1993, pp. 48–50
  38. "Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines". Archived from the original on 6 May 2022. Retrieved 12 March 2022.
  39. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  40. "Scientist on the Set: An Interview with Marvin Minsky". Archived from the original on 16 July 2012. Retrieved 5 April 2008.
  41. Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  42. Lighthill 1973; Howe 1994
  43. 43.0 43.1 NRC 1999, "Shift to Applied Research Increases Investment".
  44. Crevier 1993, pp. 115–117; Russell & Norvig 2003, pp. 21–22.
  45. Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  46. Crevier 1993, pp. 161–162, 197–203, 240; Russell & Norvig 2003, p. 25.
  47. Crevier 1993, pp. 209–212
  48. McCarthy, John (2000). "Reply to Lighthill". Stanford University. Archived from the original on 30 September 2008. Retrieved 29 September 2007.
  49. Markoff, John (14 October 2005). "आर्टिफिशियल इंटेलिजेंस के पीछे, उज्ज्वल वास्तविक लोगों का एक स्क्वाड्रन". The New York Times. Archived from the original on 2 February 2023. Retrieved 18 February 2017. इसके निम्न बिंदु पर, कुछ कंप्यूटर वैज्ञानिकों और सॉफ्टवेयर इंजीनियरों ने जंगली आंखों वाले सपने देखने वालों के रूप में देखे जाने के डर से कृत्रिम बुद्धिमत्ता शब्द से परहेज किया।
  50. Russell & Norvig 2003, pp. 25–26
  51. "इमर्जिंग टेक हाइप साइकिल में रुझान". Gartner Reports. Archived from the original on 22 May 2019. Retrieved 7 May 2019.
  52. 52.0 52.1 Moravec 1988, p. 20
  53. Harnad, S (1990). "सिंबल ग्राउंडिंग प्रॉब्लम". Physica D. 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. S2CID 3204300.
  54. Gubrud 1997
  55. "Who coined the term "AGI"? » goertzel.org" (in English). Archived from the original on 28 December 2018. Retrieved 28 December 2018., via Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'
  56. "First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009". Archived from the original on 28 September 2020. Retrieved 11 May 2020.
  57. "Избираеми дисциплини 2009/2010 - пролетен триместър" [Elective courses 2009/2010 - spring trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in български). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  58. "Избираеми дисциплини 2010/2011 - зимен триместър" [Elective courses 2010/2011 - winter trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in български). Archived from the original on 26 July 2020. Retrieved 11 May 2020.
  59. Goertzel & Pennachin 2006.
  60. 60.0 60.1 60.2 (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Archived 30 June 2011 at the Wayback Machine where he defines strong AI as "machine intelligence with the full range of human intelligence."
  61. 61.0 61.1 61.2 61.3 61.4 61.5 Goertzel 2007.
  62. Katja Grace (2016). "Error in Armstrong and Sotala 2012". AI Impacts (blog). Archived from the original on 4 December 2020. Retrieved 24 August 2020.
  63. Butz, Martin V. (1 March 2021). "मजबूत एआई की ओर". KI - Künstliche Intelligenz (in English). 35 (1): 91–101. doi:10.1007/s13218-021-00705-x. ISSN 1610-1987. S2CID 256065190.
  64. Liu, Feng; Shi, Yong; Liu, Ying (2017). "आर्टिफिशियल इंटेलिजेंस का इंटेलिजेंस कोशेंट और इंटेलिजेंस ग्रेड". Annals of Data Science. 4 (2): 179–191. arXiv:1709.10242. doi:10.1007/s40745-017-0109-0. S2CID 37900130.
  65. Brien, Jörn (5 October 2017). "Google AI सिरी से दोगुना स्मार्ट है" [Google AI is twice as smart as Siri - but a six-year-old beats both] (in Deutsch). Archived from the original on 3 January 2019. Retrieved 2 January 2019.
  66. Grossman, Gary (3 September 2020). "हम संकीर्ण और सामान्य AI के बीच AI गोधूलि क्षेत्र में प्रवेश कर रहे हैं". VentureBeat. Archived from the original on 4 September 2020. Retrieved 5 September 2020. Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI.
  67. Quach, Katyanna. "A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down". The Register. Archived from the original on 16 October 2021. Retrieved 16 October 2021.
  68. Wiggers, Kyle (13 May 2022), "DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots", TechCrunch, archived from the original on 16 June 2022, retrieved 12 June 2022
  69. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL].
  70. Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  71. Drachman 2005.
  72. 72.0 72.1 Russell & Norvig 2003.
  73. Swaminathan, Nikhil (January–February 2011). "Glia—the other brain cells". Discover. Archived from the original on 8 February 2014. Retrieved 24 January 2014.
  74. Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). "स्तनधारी थैलामोकॉर्टिकल सिस्टम का बड़े पैमाने पर मॉडल" (PDF). PNAS. 105 (9): 3593–3598. Bibcode:2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. Archived from the original (PDF) on 12 June 2009. Retrieved 23 June 2015.
  75. "परियोजना के मील के पत्थर". Blue Brain. Retrieved 11 August 2008.
  76. "कृत्रिम मस्तिष्क '10 साल दूर'". BBC News. 22 July 2009. Archived from the original on 26 July 2017. Retrieved 25 July 2009.
  77. University of Calgary news Archived 18 August 2009 at the Wayback Machine, NBC News news Archived 4 July 2017 at the Wayback Machine
  78. Moravec 1998.
  79. de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  80. "[links to bee brain studies]". Honey Bee Brain. Archived from the original on 25 July 2008. Retrieved 30 March 2010.
  81. 81.0 81.1 Yudkowsky 2006.
  82. Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). "ऑक्टोपस भुजा का गतिशील मॉडल। I. ऑक्टोपस पहुंचने वाले आंदोलन के बायोमेकॅनिक्स". J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID 15829594.
  83. Williams & Herrup 1988
  84. "nervous system, human." Encyclopædia Britannica. 9 January 2007
  85. Azevedo et al. 2009.
  86. Searle 1980
  87. For example:
  88. though see Explainable artificial intelligence for curiosity by the field about why a program behaves the way it does
  89. 89.0 89.1 Russell & Norvig 2003, p. 947.
  90. Nagel 1974.
  91. 91.0 91.1 91.2 {{Cite journal |last1=Sotala |first1=Kaj |last2=Yampolskiy |first2=Roman V. |author2-link=Roman Yampolskiy |date=2014-12-19 |title=आपत्तिजनक एजीआई जोखिम के जवाब: एक सर्वेक्षण|journal=Physica Scripta |volume=90 |issue=1 |page=018001 |doi=10.1088/0031-8949/90/1/018001 |issn=0031-8949 |doi-access=free}
  92. Aleksander 1996.
  93. 93.0 93.1 93.2 93.3 93.4 93.5 93.6 93.7 93.8 Clocksin 2003.
  94. James, Alex P. (2022). "आर्टिफिशियल जनरल इंटेलिजेंस चिप डेवलपमेंट क्यों, क्या और कैसे". IEEE Transactions on Cognitive and Developmental Systems. 14 (2): 333–347. arXiv:2012.06338. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Archived from the original on 28 August 2022. Retrieved 28 August 2022.
  95. Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; He, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "हाइब्रिड टियांजिक चिप आर्किटेक्चर के साथ आर्टिफिशियल जनरल इंटेलिजेंस की ओर". Nature (in English). 572 (7767): 106–111. Bibcode:2019Natur.572..106P. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Archived from the original on 29 August 2022. Retrieved 29 August 2022.
  96. 96.0 96.1 96.2 96.3 Gelernter 2010.
  97. Strickland, Eliza (2021). "The Turbulent Past and Uncertain Future of AI: Is there a way out of AI's boom-and-bust cycle?". IEEE Spectrum. 58 (10): 26–31. doi:10.1109/mspec.2021.9563956. ISSN 0018-9235. S2CID 238478853.
  98. 98.0 98.1 McCarthy 2007.
  99. Yamakawa, Hiroshi (2021). "The whole brain architecture approach: Accelerating the development of artificial general intelligence by referring to the brain". Neural Networks. 144: 478–495. doi:10.1016/j.neunet.2021.09.004. ISSN 0893-6080. PMID 34600220. S2CID 232170707.
  100. Jones, David T.; Kerber, Kevin A. (7 February 2022). "Artificial Intelligence and the Practice of Neurology in 2035". Neurology. 98 (6): 238–245. doi:10.1212/wnl.0000000000013200. ISSN 0028-3878. PMID 35131918. S2CID 246635279. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  101. 101.0 101.1 101.2 101.3 Holte & Choueiry 2003.
  102. Zucker 2003.
  103. Deane, George (2022). "Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence". Artificial Life. 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
  104. Kaplan, Andreas; Haenlein, Michael (2019). "Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  105. Priyadarshini, Ishaani; Cotton, Chase (2022). "AI Cannot Understand Memes: Experiments with OCR and Facial Emotions". Computers, Materials & Continua (in English). 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. S2CID 239639188. Archived from the original on 2 February 2023. Retrieved 28 August 2022.
  106. Boucher, Philip (March 2019). "Concluding remarks". आर्टिफिशियल इंटेलिजेंस कैसे काम करता है (PDF) (Report). European Parliamentary Research Service. Archived (PDF) from the original on 3 March 2020. Retrieved 3 March 2020. आज का एआई शक्तिशाली और उपयोगी है, लेकिन अनुमानित एजीआई या एएसआई से बहुत दूर है।
  107. itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archived 9 November 2020 at the Wayback Machine, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  108. Allen, Paul; Greaves, Mark (12 October 2011). "विलक्षणता निकट नहीं है". MIT Technology Review. Retrieved 17 September 2014.
  109. Winfield, Alan. "आर्टिफिशियल इंटेलिजेंस फ्रेंकस्टीन के राक्षस में नहीं बदलेगा". The Guardian. Archived from the original on 17 September 2014. Retrieved 17 September 2014.
  110. Fjelland, Ragnar (17 June 2020). "सामान्य कृत्रिम बुद्धि का एहसास क्यों नहीं होगा". Humanities and Social Sciences Communications (in English). 7 (1): 1–9. doi:10.1057/s41599-020-0494-4. ISSN 2662-9992. S2CID 219710554.
  111. Raffi Khatchadourian (23 November 2015). "The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?". The New Yorker. Archived from the original on 28 January 2016. Retrieved 7 February 2016.
  112. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  113. Armstrong, Stuart, and Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” In Beyond AI: Artificial Dreams, edited by Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, and Radek Schuster, 52–75. Pilsen: University of West Bohemia
  114. Müller, Vincent C. (3 July 2014). "सामान्य कृत्रिम बुद्धि के जोखिम". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. S2CID 31835019.
  115. Turchin, Alexey (1 March 2019). "भयावह रूप से खतरनाक एआई की भविष्य की संभाव्यता का आकलन करना". Futures (in English). 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. S2CID 158975847.
  116. Rawlinson, Kevin. "माइक्रोसॉफ्ट के बिल गेट्स का कहना है कि एआई एक खतरा है". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
  117. "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent (UK). Archived from the original on 25 September 2015. Retrieved 3 December 2014.
  118. McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (13 August 2021). "The risks associated with Artificial General Intelligence: A systematic review". Journal of Experimental & Theoretical Artificial Intelligence: 1–15. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X. S2CID 238643957.
  119. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112.
  120. Naudé, Wim; Dimitri, Nicola (1 June 2020). "The race for an artificial general intelligence: implications for public policy". AI & Society (in English). 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. S2CID 52045822.
  121. Torres, Phil (4 May 2019). "कृत्रिम सामान्य बुद्धि की संभावना और जोखिम". Bulletin of the Atomic Scientists. 75 (3): 105–108. Bibcode:2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. S2CID 150498464. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  122. Turchin, Alexey; Denkenberger, David (27 July 2018), "Military AI as a Convergent Goal of Self-Improving AI", Artificial Intelligence Safety and Security, First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC, pp. 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, S2CID 65323952, archived from the original on 2 February 2023, retrieved 29 August 2022{{citation}}: CS1 maint: location (link)
  123. Carayannis, Elias G.; Draper, John (11 January 2022). "एक सैन्यकृत कृत्रिम अधीक्षण से युद्ध के जोखिम को नियंत्रित करने के लिए एक सार्वभौमिक वैश्विक शांति संधि के माध्यम से शांति का अनुकूलन". AI & Society (in English): 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. PMC 8748529. PMID 35035113. Archived from the original on 2 February 2023. Retrieved 29 August 2022.
  124. Hamblin, James (9 May 2014). "But What Would the End of Humanity Mean for Me?". The Atlantic. Archived from the original on 4 June 2014. Retrieved 12 December 2015.
  125. "टेक ल्यूमिनरीज एड्रेस सिंगुलैरिटी". IEEE Spectrum: Technology, Engineering, and Science News (in English). No. SPECIAL REPORT: THE SINGULARITY. 1 June 2008. Archived from the original on 30 April 2019. Retrieved 8 April 2020.
  126. Shermer, Michael (1 March 2017). "सर्वनाश एआई". Scientific American (in English). 316 (3): 77. Bibcode:2017SciAm.316c..77S. doi:10.1038/scientificamerican0317-77. PMID 28207698. Archived from the original on 1 December 2017. Retrieved 27 November 2017.


स्रोत

बाहरी संबंध