एल्गोरिदम का विनियमन: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 3: Line 3:
}}
}}
{{Computing law}}
{{Computing law}}
'''एल्गोरिदम का [[विनियमन]]''' या '''एल्गोरिथम विनियमन''', विशेष रूप से कृत्रिम बुद्धि और मशीन सीखने में एल्गोरिदम के प्रचार और विनियमन के लिए कानूनों, नियमों और सार्वजनिक क्षेत्र की नीतियों का निर्माण है।<ref>{{cite news |title=एल्गोरिदम नियंत्रण से बाहर हो गए हैं। उन्हें विनियमित करने का समय आ गया है।|url=https://theweek.com/articles/832948/algorithms-have-gotten-control-time-regulate |accessdate=22 March 2020 |work=theweek.com |date=3 April 2019 |language=en}}</ref><ref>{{cite web |last1=Martini |first1=Mario |title=एल्गोरिथम-आधारित प्रक्रियाओं के लिए एक नियामक प्रणाली के मूल तत्व|url=https://www.vzbv.de/sites/default/files/downloads/2019/07/19/martini_regulatory_system_algorithm_based_processes.pdf |accessdate=22 March 2020}}</ref><ref>{{cite news |title=एल्गोरिदम का उदय और नियमन|url=https://berkeleyglobalsociety.com/en/perspectives/rise-and-regulation-of-algorithms/ |accessdate=22 March 2020 |work=Berkeley Global Society}}</ref> एआई एल्गोरिदम के सबसेट के लिए, कृत्रिम बुद्धिमत्ता के नियमन शब्द का उपयोग किया जाता है। कृत्रिम बुद्धिमत्ता (एआई) के लिए नियामक और नीतिगत परिदृश्य यूरोपीय संघ सहित वैश्विक स्तर पर न्यायालयों में एक उभरता हुआ मुद्दा है।<ref name="wirtz">{{Cite journal|last1=Wirtz|first1=Bernd W.|last2=Weyerer|first2=Jan C.|last3=Geyer|first3=Carolin|date=2018-07-24|title=Artificial Intelligence and the Public Sector—Applications and Challenges|journal=International Journal of Public Administration|volume=42|issue=7|pages=596–615|doi=10.1080/01900692.2018.1498103|s2cid=158829602|issn=0190-0692|url=https://zenodo.org/record/3569435}}</ref> एआई को प्रोत्साहित करने और संबद्ध जोखिमों को प्रबंधित करने, लेकिन चुनौतीपूर्ण दोनों के लिए एआई का विनियमन आवश्यक माना जाता है।<ref>{{cite book |last1=Fitsilis |first1=Fotios |title=उन्नत एल्गोरिदम पर विनियमन लागू करना|date=2019 |publisher=Springer International Publishing |isbn=978-3-030-27978-3 |url=https://www.springer.com/gp/book/9783030279783 |language=en}}</ref> एक अन्य उभरता हुआ विषय ब्लॉकचेन एल्गोरिदम का विनियमन है (स्मार्ट अनुबंधों का उपयोग विनियमित होना चाहिए) और एआई एल्गोरिदम के विनियमन के साथ इसका उल्लेख किया गया है।<ref>{{Cite book|last=Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body.|title=चयनित न्यायालयों में कृत्रिम बुद्धिमत्ता का विनियमन।|oclc=1110727808}}</ref> कई देशों ने उच्च आवृत्ति व्यापार के नियम बनाए हैं, जो एआई एल्गोरिदम के दायरे में तकनीकी प्रगति के कारण स्थानांतरित हो रहे हैं।<ref>{{cite news |last1=Ganesh |first1=Prakhar |title=High Frequency Trading (HFT) with AI : Simplified |url=https://towardsdatascience.com/high-frequency-trading-hft-with-ai-simplified-a24c00da72e0 |work=Medium |date=30 June 2019 |language=en}}</ref>
'''एल्गोरिदम का [[विनियमन]]''' या '''एल्गोरिथम विनियमन''', विशेष रूप से कृत्रिम बुद्धिमत्ता और यंत्र शिक्षण में एल्गोरिदम के प्रचार और विनियमन के लिए नियमों और सार्वजनिक क्षेत्र की नीतियों का निर्माण है।<ref>{{cite news |title=एल्गोरिदम नियंत्रण से बाहर हो गए हैं। उन्हें विनियमित करने का समय आ गया है।|url=https://theweek.com/articles/832948/algorithms-have-gotten-control-time-regulate |accessdate=22 March 2020 |work=theweek.com |date=3 April 2019 |language=en}}</ref><ref>{{cite web |last1=Martini |first1=Mario |title=एल्गोरिथम-आधारित प्रक्रियाओं के लिए एक नियामक प्रणाली के मूल तत्व|url=https://www.vzbv.de/sites/default/files/downloads/2019/07/19/martini_regulatory_system_algorithm_based_processes.pdf |accessdate=22 March 2020}}</ref><ref>{{cite news |title=एल्गोरिदम का उदय और नियमन|url=https://berkeleyglobalsociety.com/en/perspectives/rise-and-regulation-of-algorithms/ |accessdate=22 March 2020 |work=Berkeley Global Society}}</ref> एआई एल्गोरिदम के उपसमुदाय के लिए, कृत्रिम बुद्धिमत्ता के विनियमन शब्द का उपयोग किया जाता है। कृत्रिम बुद्धिमत्ता (एआई) के लिए नियामक और नीतिगत परिदृश्य यूरोपीय संघ सहित वैश्विक स्तर पर न्यायालयों में एक विकसित समस्या है।<ref name="wirtz">{{Cite journal|last1=Wirtz|first1=Bernd W.|last2=Weyerer|first2=Jan C.|last3=Geyer|first3=Carolin|date=2018-07-24|title=Artificial Intelligence and the Public Sector—Applications and Challenges|journal=International Journal of Public Administration|volume=42|issue=7|pages=596–615|doi=10.1080/01900692.2018.1498103|s2cid=158829602|issn=0190-0692|url=https://zenodo.org/record/3569435}}</ref> एआई को प्रोत्साहित करने और संबद्ध जोखिमों को प्रबंधित करने या चुनौतीपूर्ण दोनों के लिए एआई का विनियमन आवश्यक माना जाता है।<ref>{{cite book |last1=Fitsilis |first1=Fotios |title=उन्नत एल्गोरिदम पर विनियमन लागू करना|date=2019 |publisher=Springer International Publishing |isbn=978-3-030-27978-3 |url=https://www.springer.com/gp/book/9783030279783 |language=en}}</ref> एक अन्य विकसित विषय ब्लॉकचेन एल्गोरिदम का विनियमन है। विकसित अनुबंधों का उपयोग विनियमित और एआई एल्गोरिदम के विनियमन के साथ इसका उल्लेख किया गया है।<ref>{{Cite book|last=Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body.|title=चयनित न्यायालयों में कृत्रिम बुद्धिमत्ता का विनियमन।|oclc=1110727808}}</ref> कई देशों ने उच्च आवृत्ति व्यापार के नियम बनाए हैं, जो एआई एल्गोरिदम की स्थिति में तकनीकी प्रगति के कारण स्थानांतरित हो रहे हैं।<ref>{{cite news |last1=Ganesh |first1=Prakhar |title=High Frequency Trading (HFT) with AI : Simplified |url=https://towardsdatascience.com/high-frequency-trading-hft-with-ai-simplified-a24c00da72e0 |work=Medium |date=30 June 2019 |language=en}}</ref>


एल्गोरिदम के नियमन की प्रेरणा एल्गोरिदम पर नियंत्रण खोने की आशंका है, जिसका प्रभाव मानव जीवन पर बढ़ता है। स्वचालित क्रेडिट स्कोर गणना के मामले में कई देशों ने पहले ही नियम लागू कर दिए हैं- स्पष्टीकरण का अधिकार उन एल्गोरिदम के लिए अनिवार्य है।<ref>[[Consumer Financial Protection Bureau]], [https://www.consumerfinance.gov/eregulations/1002-9/2011-31714#1002-9-b-2 §1002.9(b)(2)]</ref><ref name=":2">{{Cite journal|last1=Edwards|first1=Lilian|last2=Veale|first2=Michael|date=2018|title=Enslaving the Algorithm: From a 'Right to an Explanation' to a 'Right to Better Decisions'?|journal=IEEE Security & Privacy|volume=16|issue=3|pages=46–54|doi=10.1109/MSP.2018.2701152|ssrn=3052831|s2cid=4049746|url=https://strathprints.strath.ac.uk/63317/1/Edwards_Veale_SPM_2018_Enslaving_the_algorithm_from_a_right_to_an_explanation_to_a_right_to_better_decisions.pdf}}</ref> उदाहरण के लिए, IEEE ने नैतिक मुद्दों और संभावित भविष्य के उपयोगकर्ताओं के मूल्यों को स्पष्ट रूप से संबोधित करने के लिए एक नया मानक विकसित करना शुरू कर दिया है।<ref name="Treleaven">{{Cite journal |last1=Treleaven |first1=Philip |last2=Barnett |first2=Jeremy |last3=Koshiyama |first3=Adriano |date=February 2019 |title=एल्गोरिदम: कानून और विनियमन|url=https://ieeexplore.ieee.org/document/8672418 |journal=Computer |volume=52 |issue=2 |pages=32–40 |doi=10.1109/MC.2018.2888774 |s2cid=85500054 |issn=0018-9162}}</ref> आपराधिक न्याय [11] से लेकर स्वास्थ्य देखभाल [12] तक विविध डोमेन में एल्गोरिदम के उपयोग के संबंध में पूर्वाग्रह, पारदर्शिता और नैतिकता संबंधी चिंताएँ उभर कर सामने आई हैं - कई लोगों को डर है कि कृत्रिम बुद्धिमत्ता जाति, वर्ग, लिंग और कामुकता के साथ सम्मिलित सामाजिक असमानताओं को दोहरा सकती है। लाइनें।<ref><nowiki><ref></nowiki>{{Cite web|title=एआई लोगों को जेल भेज रहा है — और गलत कर रहा है|url=https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal-justice-ai/|access-date=2021-01-24|website=MIT Technology Review |date=January 21, 2019 |first=Karen |last=Hao |language=en}}<nowiki></ref></nowiki> स्वास्थ्य सेवा के लिए रेफरी>{{Cite journal|last=Ledford|first=Heidi|date=2019-10-24|title=स्वास्थ्य-देखभाल एल्गोरिदम में नस्लीय पूर्वाग्रह से प्रभावित लाखों काले लोग|url=[https://www.nature.com/articles/d41586-019-03228-6%7Cjournal=Nature%7Clanguage=en%7Cvolume=574%7Cissue=7780%7Cpages=608%E2%80%93609%7Cdoi=10.1038/d41586-019-03228-6%7Cpmid=31664201 https://www.nature.com/articles/d41586-019-03228-6%7Cjournal=Nature%7Clanguage=en%7Cvolume=574%7Cissue=7780%7Cpages=608–609%7Cdoi=10.1038/d41586-019-03228-6%7Cpmid=31664201] |bibcode=2019Natur.574..608L |s2cid=204943000 }<nowiki></ref></nowiki></ref>
एल्गोरिदम के विनियमन की प्रेरणा एल्गोरिदम पर नियंत्रण खोने की आशंका है, जिसका प्रभाव मानव जीवन पर बढ़ता है। स्वचालित क्रेडिट प्राप्तांक गणना की स्थिति में कई देशों ने पहले ही नियम प्रयुक्त कर दिए हैं जिनके स्पष्टीकरण का अधिकार उन एल्गोरिदम के लिए अनिवार्य है।<ref>[[Consumer Financial Protection Bureau]], [https://www.consumerfinance.gov/eregulations/1002-9/2011-31714#1002-9-b-2 §1002.9(b)(2)]</ref><ref name=":2">{{Cite journal|last1=Edwards|first1=Lilian|last2=Veale|first2=Michael|date=2018|title=Enslaving the Algorithm: From a 'Right to an Explanation' to a 'Right to Better Decisions'?|journal=IEEE Security & Privacy|volume=16|issue=3|pages=46–54|doi=10.1109/MSP.2018.2701152|ssrn=3052831|s2cid=4049746|url=https://strathprints.strath.ac.uk/63317/1/Edwards_Veale_SPM_2018_Enslaving_the_algorithm_from_a_right_to_an_explanation_to_a_right_to_better_decisions.pdf}}</ref> उदाहरण के लिए इलेक्ट्रिकल और इलेक्ट्रॉनिक इंजीनियरिंग संस्थान ने नैतिक नियमों और संभावित भविष्य के उपयोगकर्ताओं के मूल्यों को स्पष्ट रूप से संबोधित करने के लिए एक नया मानक विकसित करना प्रारम्भ कर दिया है।<ref name="Treleaven">{{Cite journal |last1=Treleaven |first1=Philip |last2=Barnett |first2=Jeremy |last3=Koshiyama |first3=Adriano |date=February 2019 |title=एल्गोरिदम: कानून और विनियमन|url=https://ieeexplore.ieee.org/document/8672418 |journal=Computer |volume=52 |issue=2 |pages=32–40 |doi=10.1109/MC.2018.2888774 |s2cid=85500054 |issn=0018-9162}}</ref> आपराधिक न्याय से लेकर स्वास्थ्य सर्वेक्षण तक विविध डोमेन में एल्गोरिदम के उपयोग के संबंध में पूर्वाग्रह, पारदर्शिता और नैतिकता संबंधी चिंताएँ विकसित होकर सामने आई हैं। कई लोगों को डर है कि कृत्रिम बुद्धिमत्ता जाति, वर्ग, लिंग और लैंगिकता के साथ सम्मिलित सामाजिक असमानताओं को दोहरा सकती है।<ref><nowiki><ref></nowiki>{{Cite web|title=एआई लोगों को जेल भेज रहा है — और गलत कर रहा है|url=https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal-justice-ai/|access-date=2021-01-24|website=MIT Technology Review |date=January 21, 2019 |first=Karen |last=Hao |language=en}}&lt;nowiki&gt;</ref><ref><nowiki>&lt;/nowiki&gt;</nowiki> स्वास्थ्य सेवा के लिए रेफरी>{{Cite journal|last=Ledford|first=Heidi|date=2019-10-24|title=स्वास्थ्य-देखभाल एल्गोरिदम में नस्लीय पूर्वाग्रह से प्रभावित लाखों काले लोग|url=[https://www.nature.com/articles/d41586-019-03228-6%7Cjournal=Nature%7Clanguage=en%7Cvolume=574%7Cissue=7780%7Cpages=608%E2%80%93609%7Cdoi=10.1038/d41586-019-03228-6%7Cpmid=31664201 https://www.nature.com/articles/d41586-019-03228-6%7Cjournal=Nature%7Clanguage=en%7Cvolume=574%7Cissue=7780%7Cpages=608–609%7Cdoi=10.1038/d41586-019-03228-6%7Cpmid=31664201] |bibcode=2019Natur.574..608L |s2cid=204943000 }<nowiki></ref></nowiki><nowiki></ref></nowiki></ref>


== कृत्रिम बुद्धि का विनियमन ==
== कृत्रिम बुद्धिमत्ता का विनियमन ==


{{Main|कृत्रिम बुद्धि का विनियमन
{{Main|कृत्रिम बुद्धिमत्ता का विनियमन
}}
}}


=== सार्वजनिक चर्चा ===
=== सार्वजनिक चर्चा ===
2016 में, [[जॉय बूलमविनी]] ने कला और अनुसंधान के माध्यम से कृत्रिम बुद्धिमत्ता के सामाजिक निहितार्थों के बारे में जागरूकता बढ़ाने के लिए पक्षपाती चेहरे का पता लगाने वाले सॉफ़्टवेयर के साथ एक व्यक्तिगत अनुभव के बाद [[एल्गोरिथम जस्टिस लीग]] की स्थापना की।<ref>{{cite news |last1=Lufkin |first1=Bryan |title=एल्गोरिथम न्याय|url=https://www.bbc.com/worklife/article/20190718-algorithmic-justice |access-date=31 December 2020 |work=BBC Worklife |date=22 July 2019 |language=en}}</ref>
2016 में [[जॉय बूलमविनी]] ने कला और अनुसंधान के माध्यम से कृत्रिम बुद्धिमत्ता के सामाजिक निहितार्थों के विषय में जागरूकता बढ़ाने के लिए पक्षपातपूर्ण पहचान का पता लगाने वाले सॉफ़्टवेयर के साथ एक व्यक्तिगत अनुभव के बाद [[एल्गोरिथम जस्टिस लीग]] की स्थापना की।<ref>{{cite news |last1=Lufkin |first1=Bryan |title=एल्गोरिथम न्याय|url=https://www.bbc.com/worklife/article/20190718-algorithmic-justice |access-date=31 December 2020 |work=BBC Worklife |date=22 July 2019 |language=en}}</ref> 2017 में [[एलोन मस्क]] ने [[कृत्रिम सामान्य बुद्धि से अस्तित्वगत जोखिम|कृत्रिम सामान्य बुद्धिमत्ता से अस्तित्वगत जोखिम]] के संदर्भ में एल्गोरिदम के नियमन की जांच किया।<ref name=":0">{{cite news|url=https://www.npr.org/sections/thetwo-way/2017/07/17/537686649/elon-musk-warns-governors-artificial-intelligence-poses-existential-risk|title=Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'|work=NPR |date=July 17, 2017 |first=Camila |last=Domonoske |accessdate=27 November 2017|language=en}}</ref><ref name="Guardian2017-07-17">{{cite news|last1=Gibbs|first1=Samuel|title=Elon Musk: regulate AI to combat 'existential threat' before it's too late|url=https://www.theguardian.com/technology/2017/jul/17/elon-musk-regulation-ai-combat-existential-threat-tesla-spacex-ceo|accessdate=27 November 2017|work=The Guardian|date=17 July 2017}}</ref><ref name="cnbc">{{cite news|last1=Kharpal|first1=Arjun|title=ए.आई. इंटेल के सीईओ ब्रायन क्रांज़िच कहते हैं, अभी यह अपनी 'शैशवावस्था' में है और इसे विनियमित करना जल्दबाजी होगी|url=https://www.cnbc.com/2017/11/07/ai-infancy-and-too-early-to-regulate-intel-ceo-brian-krzanich-says.html|accessdate=27 November 2017|work=CNBC|date=7 November 2017}}</ref> [[नेशनल पब्लिक रेडियो|एनपीआर]] के अनुसार, टेस्ला के सीईओ सरकारी जांच करने के लिए "स्पष्ट रूप से रोमांचित नहीं थे" जो उनके अपने उद्योग को प्रभावित कर सकता था, लेकिन उनका मानना ​​​​था कि बिना निरीक्षण के पूरी तरह से जाने का जोखिम बहुत अधिक है। सामान्यतः इस प्रकार के नियम स्थापित किए जाते हैं, जब एक वस्तु बहुत अस्पष्ट होती हैं या एक सार्वजनिक रूप से आक्रोश होती है और कई वर्षों के बाद उस उद्योग को विनियमित करने के लिए एक नियामक संस्था की स्थापना की गई है। इसमें यह सदैव के लिए प्रयुक्त हो जाता है। यह अतीत में अस्पष्ट रहा है लेकिन ऐसा कुछ नहीं है जो अस्तित्व के लिए एक मौलिक जोखिम का प्रतिनिधित्व करता है।<ref name=":0" />


2017 में [[एलोन मस्क]] ने [[कृत्रिम सामान्य बुद्धि से अस्तित्वगत जोखिम]] के संदर्भ में एल्गोरिदम के नियमन की वकालत की।<ref name=":0">{{cite news|url=https://www.npr.org/sections/thetwo-way/2017/07/17/537686649/elon-musk-warns-governors-artificial-intelligence-poses-existential-risk|title=Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'|work=NPR |date=July 17, 2017 |first=Camila |last=Domonoske |accessdate=27 November 2017|language=en}}</ref><ref name="Guardian2017-07-17">{{cite news|last1=Gibbs|first1=Samuel|title=Elon Musk: regulate AI to combat 'existential threat' before it's too late|url=https://www.theguardian.com/technology/2017/jul/17/elon-musk-regulation-ai-combat-existential-threat-tesla-spacex-ceo|accessdate=27 November 2017|work=The Guardian|date=17 July 2017}}</ref><ref name="cnbc">{{cite news|last1=Kharpal|first1=Arjun|title=ए.आई. इंटेल के सीईओ ब्रायन क्रांज़िच कहते हैं, अभी यह अपनी 'शैशवावस्था' में है और इसे विनियमित करना जल्दबाजी होगी|url=https://www.cnbc.com/2017/11/07/ai-infancy-and-too-early-to-regulate-intel-ceo-brian-krzanich-says.html|accessdate=27 November 2017|work=CNBC|date=7 November 2017}}</ref> [[नेशनल पब्लिक रेडियो|एनपीआर]] के अनुसार, टेस्ला के सीईओ सरकारी जांच की वकालत करने के लिए "स्पष्ट रूप से रोमांचित नहीं थे" जो उनके अपने उद्योग को प्रभावित कर सकता था, लेकिन उनका मानना ​​​​था कि बिना निरीक्षण के पूरी तरह से जाने का जोखिम बहुत अधिक है: "आम तौर पर जिस तरह से नियम स्थापित किए जाते हैं, जब ए बहुत सारी बुरी चीजें होती हैं, एक सार्वजनिक आक्रोश है, और कई वर्षों के बाद उस उद्योग को विनियमित करने के लिए एक नियामक एजेंसी की स्थापना की गई है। इसमें हमेशा के लिए लग जाता है। यह, अतीत में, बुरा रहा है लेकिन ऐसा कुछ नहीं है जो अस्तित्व के लिए एक मौलिक जोखिम का प्रतिनिधित्व करता है। सभ्यता की."<ref name=":0" />
राजनीतिक कार्यकर्ताओं ने एक ऐसी तकनीक को विनियमित करने के ज्ञान के विषय में संदेह व्यक्त किया जो अभी भी विकास में है।<ref name="Guardian2017-07-17" /> एआई और रोबोटिक को विनियमित करने के लिए यूरोपीय संघ के सांसदों द्वारा मस्क और फरवरी 2017 के प्रस्तावों पर प्रतिक्रिया देते हुए, इंटेल के सीईओ ब्रायन क्रज़ानिच ने तर्क दिया है कि कृत्रिम बुद्धिमत्ता अपनी प्रारंभिक अवस्था में है और यह तकनीक को विनियमित करने के लिए बहुत सक्षम है।<ref name="cnbc" /> प्रौद्योगिकी को विनियमित करने की कोशिश करने के अतिरिक्त कुछ विद्वान एल्गोरिदम के परीक्षण और पारदर्शिता के लिए आवश्यकताओं सहित सामान्य मानदंडों को विकसित करने का सुझाव देते हैं, संभवतः कुछ प्रकार के दायित्व के संयोजन में<ref>{{cite journal|last1=Kaplan|first1=Andreas|last2=Haenlein|first2=Michael|year=2019|title=Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence|journal=Business Horizons|volume=62|pages=15–25|doi=10.1016/j.bushor.2018.08.004|s2cid=158433736 }}</ref> एआई विकास को विनियमित करने के लिए एक वैश्विक शासन बोर्ड के विकास के लिए एक सुझाव दिया गया है।<ref>{{Cite journal|last1=Boyd|first1=Matthew|last2=Wilson|first2=Nick|date=2017-11-01|title=Rapid developments in Artificial Intelligence: how might the New Zealand government respond?|journal=Policy Quarterly|volume=13|issue=4|doi=10.26686/pq.v13i4.4619|issn=2324-1101|doi-access=free}}</ref> 2020 में यूरोपीय संघ ने एआई को बढ़ावा देने और विनियमित करने के लिए अपना एक योजना पत्र प्रकाशित किया है।<ref name=":12">{{Cite book|url=https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf|title=White Paper: On Artificial Intelligence – A European approach to excellence and trust|publisher=European Commission|year=2020|location=Brussels|pages=1}}</ref>


जवाब में, कुछ राजनेताओं ने एक ऐसी तकनीक को विनियमित करने के ज्ञान के बारे में संदेह व्यक्त किया जो अभी भी विकास में है।<ref name="Guardian2017-07-17" /> एआई और रोबोटिक्स को विनियमित करने के लिए यूरोपीय संघ के सांसदों द्वारा मस्क और फरवरी 2017 के प्रस्तावों पर प्रतिक्रिया देते हुए, इंटेल के सीईओ ब्रायन क्रज़ानिच ने तर्क दिया है कि कृत्रिम बुद्धिमत्ता अपनी प्रारंभिक अवस्था में है और यह तकनीक को विनियमित करने के लिए बहुत जल्दी है।<ref name="cnbc" /> प्रौद्योगिकी को ही विनियमित करने की कोशिश करने के बजाय, कुछ विद्वान एल्गोरिदम के परीक्षण और पारदर्शिता के लिए आवश्यकताओं सहित सामान्य मानदंडों को विकसित करने का सुझाव देते हैं, संभवतः कुछ प्रकार की वारंटी के संयोजन में।<ref>{{cite journal|last1=Kaplan|first1=Andreas|last2=Haenlein|first2=Michael|year=2019|title=Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence|journal=Business Horizons|volume=62|pages=15–25|doi=10.1016/j.bushor.2018.08.004|s2cid=158433736 }}</ref> एआई विकास को विनियमित करने के लिए एक वैश्विक शासन बोर्ड के विकास के लिए एक सुझाव दिया गया है।<ref>{{Cite journal|last1=Boyd|first1=Matthew|last2=Wilson|first2=Nick|date=2017-11-01|title=Rapid developments in Artificial Intelligence: how might the New Zealand government respond?|journal=Policy Quarterly|volume=13|issue=4|doi=10.26686/pq.v13i4.4619|issn=2324-1101|doi-access=free}}</ref> 2020 में, यूरोपीय संघ ने एआई को बढ़ावा देने और विनियमित करने के लिए अपना मसौदा रणनीति पत्र प्रकाशित किया।<ref name=":12">{{Cite book|url=https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf|title=White Paper: On Artificial Intelligence – A European approach to excellence and trust|publisher=European Commission|year=2020|location=Brussels|pages=1}}</ref>
एल्गोरिथम निहित नियमों रूप से संदिग्ध अविश्वास अभ्यास है जो एल्गोरिदम के माध्यम से किया जाता है, जिस पर न्यायालय मुकदमा चलाने में सक्षम नहीं हैं।<ref name="atc1">{{cite journal |last1=Ezrachi |first1=A. |last2=Stucke |first2=M. E. |title=सतत और चुनौती रहित एल्गोरिथम टैसिट मिलीभगत|journal=Northwestern Journal of Technology & Intellectual Property |date=13 March 2020 |volume=17 |issue=|language=en |issn=1549-8271}}</ref> यह जिखिम यूरोपीय संघ, अमेरिका और उससे आगे के वैज्ञानिकों और नियामकों को चिंतित करता है।<ref name="atc1" /> [[यूरोपीय आयुक्त]] [[मार्गरेट वेस्टेगर]] ने 16 मार्च 2017 को "एल्गोरिदम और निहित नियम" पर अपने भाषण में एल्गोरिथम निहित नियमों के एक प्रारंभिक उदाहरण का उल्लेख किया है जिसका वर्णन इस प्रकार है:<ref>{{cite web |last1=VESTAGER |first1=Margrethe |title=एल्गोरिदम और प्रतियोगिता|url=https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en |archive-url=https://wayback.archive-it.org/12090/20191129221651/https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en |url-status=dead |archive-date=2019-11-29 |publisher=[[European Commission]] |access-date=1 May 2021 |format=Bundeskartellamt 18th Conference on Competition |date=2017}}</ref>


एल्गोरिथम मौन मिलीभगत एक कानूनी रूप से संदिग्ध एंटीट्रस्ट अभ्यास है जो एल्गोरिदम के माध्यम से किया जाता है, जिस पर अदालतें मुकदमा चलाने में सक्षम नहीं हैं।<ref name="atc1">{{cite journal |last1=Ezrachi |first1=A. |last2=Stucke |first2=M. E. |title=सतत और चुनौती रहित एल्गोरिथम टैसिट मिलीभगत|journal=Northwestern Journal of Technology & Intellectual Property |date=13 March 2020 |volume=17 |issue=2  |language=en |issn=1549-8271}}</ref> यह खतरा यूरोपीय संघ, अमेरिका और उससे आगे के वैज्ञानिकों और नियामकों को चिंतित करता है।<ref name="atc1" /> [[यूरोपीय आयुक्त]] [[मार्गरेट वेस्टेगर]] ने 16 मार्च, 2017 को "एल्गोरिदम और मिलीभगत" पर अपने भाषण में एल्गोरिथम टैसिट मिलीभगत के एक प्रारंभिक उदाहरण का उल्लेख किया, जिसका वर्णन इस प्रकार है:<ref>{{cite web |last1=VESTAGER |first1=Margrethe |title=एल्गोरिदम और प्रतियोगिता|url=https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en |archive-url=https://wayback.archive-it.org/12090/20191129221651/https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en |url-status=dead |archive-date=2019-11-29 |publisher=[[European Commission]] |access-date=1 May 2021 |format=Bundeskartellamt 18th Conference on Competition |date=2017}}</ref>
कुछ साल पहले, दो संस्थाएं <nowiki>''द मेकिंग ऑफ ए फ्लाई''</nowiki> नामक एक पाठ्यपुस्तक बेच रही थीं। उन विक्रेताओं में से एक ने एक एल्गोरिदम का उपयोग किया जो अनिवार्य रूप से अपने प्रतियोगी की कीमत के अनुरूप था। उस प्रतियोगी के पास एक एल्गोरिदम था जो पहले की तुलना में 27% अधिक कीमत निर्धारित करता था। इसका परिणाम यह हुआ कि कीमतें ऊपर की ओर बढ़ती रहीं, जब तक कि अंत में किसी ने यह नहीं देखा कि क्या चल रहा था और कीमत को मैन्युअल रूप से समायोजित किया था। उस समय तक पुस्तक 23 मिलियन डॉलर मे बिक रही थी।


"कुछ साल पहले, दो कंपनियां द मेकिंग ऑफ ए फ्लाई नामक एक पाठ्यपुस्तक बेच रही थीं। उन विक्रेताओं में से एक ने एक एल्गोरिदम का इस्तेमाल किया जो अनिवार्य रूप से अपने प्रतिद्वंद्वी की कीमत से मेल खाता था। उस प्रतिद्वंद्वी के पास एक एल्गोरिदम था जो हमेशा पहले की तुलना में 27% अधिक कीमत निर्धारित करता था। इसका परिणाम यह हुआ कि कीमतें ऊपर की ओर बढ़ती रहीं, जब तक कि अंत में किसी ने यह नहीं देखा कि क्या चल रहा था, और कीमत को मैन्युअल रूप से समायोजित किया। उस समय तक, किताब 23 मिलियन डॉलर प्रति प्रति के लिए बेच रही थी - या नहीं, बेच रही थी।
2018 में नीदरलैंड्स ने एक एल्गोरिथम प्रणाली सीरिया (प्रणाली रिसिको संकेतक) को नियोजित किया ताकि नागरिकों का पता लगाया जा सके कि वे कल्याणकारी अपराध करने के लिए उच्च जोखिम में हैं, जिसने शांतिपूर्वक हजारों लोगों को जांचकर्ताओं के पास भेजा है।<ref>Rechtbank Den Haag 5 February 2020, C-09-550982-HA ZA 18-388 (English), {{ECLI|ECLI:NL:RBDHA:2020:1878}}</ref> इससे जनता का विरोध हुआ। हेग की जिला न्यायालय  ने मानव अधिकारों पर यूरोपीय अधिवेशन (ईसीएचआर) के अनुच्छेद 8 का प्रमाण देते हुए एसवाईआरआई को स्थगित कर दिया था।<ref name=":1">{{cite news |last1=Reuter |first1=Markus |title=Fuck the Algorithm - Jugendproteste in Großbritannien gegen maschinelle Notenvergabe erfolgreich |url=https://netzpolitik.org/2020/fuck-the-algorithm-jugendproteste-in-grossbritannien-gegen-maschinelle-notenvergabe-erfolgreich/ |accessdate=3 October 2020 |work=netzpolitik.org |date=17 August 2020 |language=de-DE}}</ref>


2018 में, नीदरलैंड्स ने एक एल्गोरिथम सिस्टम SyRI (सिस्टीम रिसिको इंडिकैटी) को नियोजित किया ताकि नागरिकों का पता लगाया जा सके कि वे कल्याणकारी धोखाधड़ी करने के लिए उच्च जोखिम में हैं, जो चुपचाप हजारों लोगों को जांचकर्ताओं के पास भेज देता है।<ref>Rechtbank Den Haag 5 February 2020, C-09-550982-HA ZA 18-388 (English), {{ECLI|ECLI:NL:RBDHA:2020:1878}}</ref> इससे जनता का विरोध हुआ। हेग की जिला अदालत ने मानव अधिकारों पर यूरोपीय सम्मेलन (ईसीएचआर) के अनुच्छेद 8 का हवाला देते हुए एसवाईआरआई को बंद कर दिया।<ref name=":1">{{cite news |last1=Reuter |first1=Markus |title=Fuck the Algorithm - Jugendproteste in Großbritannien gegen maschinelle Notenvergabe erfolgreich |url=https://netzpolitik.org/2020/fuck-the-algorithm-jugendproteste-in-grossbritannien-gegen-maschinelle-notenvergabe-erfolgreich/ |accessdate=3 October 2020 |work=netzpolitik.org |date=17 August 2020 |language=de-DE}}</ref>
2020 में यूके में छात्रों को परीक्षा ग्रेड प्रदान करने वाले एल्गोरिदम ने इस धारणा का विरोध किया था।<ref name="fuckthealgorithm">{{cite magazine |title=कक्षा से परे तिरछी ग्रेडिंग एल्गोरिथम फ्यूल बैकलैश|url=https://www.wired.com/story/skewed-grading-algorithms-fuel-backlash-beyond-classroom/ |accessdate=26 September 2020 |magazine=Wired |language=en-us}}</ref> लेकिन यह विरोध सफल रहा और ग्रेड वापस ले लिए गए थे।<ref name=":1" />
 
2020 में, यूके में छात्रों को परीक्षा ग्रेड प्रदान करने वाले एल्गोरिदम ने "एल्गोरिदम भाड़ में जाओ" के बैनर तले खुला विरोध किया।<ref name="fuckthealgorithm">{{cite magazine |title=कक्षा से परे तिरछी ग्रेडिंग एल्गोरिथम फ्यूल बैकलैश|url=https://www.wired.com/story/skewed-grading-algorithms-fuel-backlash-beyond-classroom/ |accessdate=26 September 2020 |magazine=Wired |language=en-us}}</ref> यह विरोध सफल रहा और ग्रेड वापस ले लिए गए।<ref name=":1" />
=== कार्यान्वयन ===
=== कार्यान्वयन ===


एआई कानून और नियमों को तीन मुख्य विषयों में विभाजित किया जा सकता है, अर्थात् स्वायत्त खुफिया प्रणालियों का शासन, सिस्टम के लिए जिम्मेदारी और उत्तरदायित्व, और गोपनीयता और सुरक्षा मुद्दे।<ref name="wirtz" /> एआई के प्रबंधन और विनियमन के लिए सार्वजनिक क्षेत्र की रणनीतियों का विकास स्थानीय, राष्ट्रीय, [26] और अंतर्राष्ट्रीय स्तर<ref name=":12" /> और सार्वजनिक सेवा प्रबंधन<ref>{{Cite journal|last1=Wirtz|first1=Bernd W.|last2=Müller|first2=Wilhelm M.|date=2018-12-03|title=सार्वजनिक प्रबंधन के लिए एक एकीकृत कृत्रिम बुद्धिमत्ता ढांचा|journal=Public Management Review|volume=21|issue=7|pages=1076–1100|doi=10.1080/14719037.2018.1549268|s2cid=158267709|issn=1471-9037}}</ref> से कानून प्रवर्तन तक, विभिन्न क्षेत्रों में तेजी से आवश्यक समझा गया है।<ref name=":12" /> वित्तीय क्षेत्र,<ref name=":9">{{Cite journal|last=Bredt|first=Stephan|date=2019-10-04|title=Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies|journal=Frontiers in Artificial Intelligence|volume=2|page=16 |doi=10.3389/frai.2019.00016|pmid=33733105 |pmc=7861258 |issn=2624-8212|doi-access=free}}</ref> रोबोटिक्स,<ref>{{Cite journal|last1=Iphofen|first1=Ron|last2=Kritikos|first2=Mihalis|date=2019-01-03|title=Regulating artificial intelligence and robotics: ethics by design in a digital society|journal=Contemporary Social Science|volume=16 |issue=2 |pages=170–184|doi=10.1080/21582041.2018.1563803|s2cid=59298502 |issn=2158-2041}}</ref> सेना,<ref>{{Cite book|last=United States. Defense Innovation Board.|title=AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense|oclc=1126650738}}</ref>और अंतरराष्ट्रीय कानून।<ref name=":10">{{cite news|url=https://www.snopes.com/2017/04/21/robots-with-guns/|title=Robots with Guns: The Rise of Autonomous Weapons Systems|date=21 April 2017|work=Snopes.com|accessdate=24 December 2017}}</ref><ref>{{Cite journal|url=https://dash.harvard.edu/handle/1/33813394|title=No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law|last=Bento|first=Lucas|date=2017|website=Harvard Scholarship Depository|accessdate=2019-09-14}}</ref> कई चिंताएँ हैं कि इन क्षेत्रों में एआई की पर्याप्त दृश्यता और निगरानी नहीं है।<ref>{{cite web |last1=MacCarthy |first1=Mark |title=एआई को अधिक नियमन की जरूरत है, कम की नहीं|url=https://www.brookings.edu/research/ai-needs-more-regulation-not-less/ |website=Brookings|date=9 March 2020 }}</ref> वित्तीय क्षेत्र में, उदाहरण के लिए, वित्तीय संस्थानों के गैर-सार्वजनिक डेटा का ऑडिट करते समय उपभोक्ता वित्तीय सुरक्षा ब्यूरो को स्रोत कोड और एल्गोरिदम की अधिक बारीकी से जांच करने के लिए कहा गया है।<ref>{{cite journal |last1=Van Loo |first1=Rory |title=Technology Regulation by Default: Platforms, Privacy, and the CFPB |journal=Georgetown Law Technology Review |date=July 2018 |volume=2 |issue=1 |pages=542–543 |url=https://scholarship.law.bu.edu/faculty_scholarship/355}}</ref>
एआई नियम और अधिनियम को तीन मुख्य विषयों में अर्थात् स्वायत्त बुद्धिमत्ता प्रणालियों का शासन, प्रणाली के लिए उत्तरदायित्व और गोपनीयता की सुरक्षा समस्या मे विभाजित किया जा सकता है।<ref name="wirtz" /> एआई के प्रबंधन और विनियमन के लिए सार्वजनिक क्षेत्र की योजनाओं का विकास स्थानीय राष्ट्रीय और अंतर्राष्ट्रीय स्तर<ref name=":12" /> और सार्वजनिक सेवा प्रबंधन<ref>{{Cite journal|last1=Wirtz|first1=Bernd W.|last2=Müller|first2=Wilhelm M.|date=2018-12-03|title=सार्वजनिक प्रबंधन के लिए एक एकीकृत कृत्रिम बुद्धिमत्ता ढांचा|journal=Public Management Review|volume=21|issue=7|pages=1076–1100|doi=10.1080/14719037.2018.1549268|s2cid=158267709|issn=1471-9037}}</ref> से विनियमन प्रवर्तन तक विभिन्न क्षेत्रों में आवश्यक समझा गया है।<ref name=":12" /> वित्तीय क्षेत्र,<ref name=":9">{{Cite journal|last=Bredt|first=Stephan|date=2019-10-04|title=Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies|journal=Frontiers in Artificial Intelligence|volume=2|page=16 |doi=10.3389/frai.2019.00016|pmid=33733105 |pmc=7861258 |issn=2624-8212|doi-access=free}}</ref> रोबोटिक्स,<ref>{{Cite journal|last1=Iphofen|first1=Ron|last2=Kritikos|first2=Mihalis|date=2019-01-03|title=Regulating artificial intelligence and robotics: ethics by design in a digital society|journal=Contemporary Social Science|volume=16 |issue=2 |pages=170–184|doi=10.1080/21582041.2018.1563803|s2cid=59298502 |issn=2158-2041}}</ref> सेना,<ref>{{Cite book|last=United States. Defense Innovation Board.|title=AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense|oclc=1126650738}}</ref>और अंतरराष्ट्रीय नियम<ref name=":10">{{cite news|url=https://www.snopes.com/2017/04/21/robots-with-guns/|title=Robots with Guns: The Rise of Autonomous Weapons Systems|date=21 April 2017|work=Snopes.com|accessdate=24 December 2017}}</ref><ref>{{Cite journal|url=https://dash.harvard.edu/handle/1/33813394|title=No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law|last=Bento|first=Lucas|date=2017|website=Harvard Scholarship Depository|accessdate=2019-09-14}}</ref> की कई चिंताएँ हैं कि इन क्षेत्रों में एआई की पर्याप्त दृश्यता और सर्वेक्षण नहीं है।<ref>{{cite web |last1=MacCarthy |first1=Mark |title=एआई को अधिक नियमन की जरूरत है, कम की नहीं|url=https://www.brookings.edu/research/ai-needs-more-regulation-not-less/ |website=Brookings|date=9 March 2020 }}</ref> वित्तीय क्षेत्र में उदाहरण के लिए, वित्तीय संस्थानों के गैर-सार्वजनिक डेटा का संरक्षण करते समय उपभोक्ता वित्तीय सुरक्षा ब्यूरो को स्रोत कोड और एल्गोरिदम की अधिक सूक्ष्मता से जांच करने के लिए कहा गया है।<ref>{{cite journal |last1=Van Loo |first1=Rory |title=Technology Regulation by Default: Platforms, Privacy, and the CFPB |journal=Georgetown Law Technology Review |date=July 2018 |volume=2 |issue=1 |pages=542–543 |url=https://scholarship.law.bu.edu/faculty_scholarship/355}}</ref>


संयुक्त राज्य अमेरिका में, 7 जनवरी, 2019 को, 'कृत्रिम बुद्धिमत्ता में अमेरिकी नेतृत्व बनाए रखना' पर एक कार्यकारी आदेश के बाद, व्हाइट हाउस के विज्ञान और प्रौद्योगिकी नीति कार्यालय ने कृत्रिम बुद्धिमत्ता अनुप्रयोगों के नियमन के लिए एक मसौदा मार्गदर्शन जारी किया, जिसमें इसके लिए दस सिद्धांत शामिल हैं। संयुक्त राज्य अमेरिका की एजेंसियां ​​एआई को विनियमित करने या न करने का निर्णय लेती हैं।<ref>{{Cite web|url=https://www.insidetechmedia.com/2020/01/14/ai-update-white-house-issues-10-principles-for-artificial-intelligence-regulation/|title=AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation|date=2020-01-14|website=Inside Tech Media|language=en-US|access-date=2020-03-25}}</ref><ref>{{Cite book|url=https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf|title=कार्यकारी विभागों और एजेंसियों के प्रमुखों के लिए ज्ञापन|publisher=White House Office of Science and Technology Policy|year=2020|location=Washington, D.C.}}</ref> जवाब में, राष्ट्रीय मानक और प्रौद्योगिकी संस्थान ने एक स्थिति पत्र जारी किया है,<ref>{{Cite book|url=https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_fedengagement_plan_9aug2019.pdf|title=U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools|publisher=National Institute of Science and Technology|year=2019}}</ref> कृत्रिम बुद्धिमत्ता पर राष्ट्रीय सुरक्षा आयोग ने एक अंतरिम रिपोर्ट प्रकाशित की है<ref>{{Cite book|url=https://drive.google.com/file/d/153OrxnuGEjsUvlxWsFYauslwNeCEkvUb/view|title=कांग्रेस के लिए NSCAI अंतरिम रिपोर्ट|publisher=The National Security Commission on Artificial Intelligence|year=2019}}</ref> और रक्षा नवाचार बोर्ड ने एआई के नैतिक उपयोग पर सिफारिशें जारी की हैं।<ref>{{Cite book|url=https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF|title=AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense|publisher=Defense Innovation Board|year=2020|location=Washington, DC}}</ref>
संयुक्त राज्य अमेरिका में 7 जनवरी 2019 को 'कृत्रिम बुद्धिमत्ता में अमेरिकी नेतृत्व बनाए रखने पर एक कार्यकारी आदेश के बाद व्हाइट हाउस के विज्ञान और प्रौद्योगिकी नीति कार्यालय ने कृत्रिम बुद्धिमत्ता अनुप्रयोगों के नियमन के लिए एक अधिनियम मार्गदर्शन प्रस्तुत किया है। जिसमें इसके लिए दस सिद्धांत सम्मिलित हैं। संयुक्त राज्य अमेरिका की संस्था ​​एआई को विनियमित करने या न करने का निर्णय लेती हैं।<ref>{{Cite web|url=https://www.insidetechmedia.com/2020/01/14/ai-update-white-house-issues-10-principles-for-artificial-intelligence-regulation/|title=AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation|date=2020-01-14|website=Inside Tech Media|language=en-US|access-date=2020-03-25}}</ref><ref>{{Cite book|url=https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf|title=कार्यकारी विभागों और एजेंसियों के प्रमुखों के लिए ज्ञापन|publisher=White House Office of Science and Technology Policy|year=2020|location=Washington, D.C.}}</ref> जवाब में राष्ट्रीय मानक और प्रौद्योगिकी संस्थान ने एक स्थिति पत्र प्रस्तुत किया है।<ref>{{Cite book|url=https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_fedengagement_plan_9aug2019.pdf|title=U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools|publisher=National Institute of Science and Technology|year=2019}}</ref> कृत्रिम बुद्धिमत्ता पर राष्ट्रीय सुरक्षा आयोग ने एक अंतरिम रिपोर्ट प्रकाशित की है<ref>{{Cite book|url=https://drive.google.com/file/d/153OrxnuGEjsUvlxWsFYauslwNeCEkvUb/view|title=कांग्रेस के लिए NSCAI अंतरिम रिपोर्ट|publisher=The National Security Commission on Artificial Intelligence|year=2019}}</ref> और रक्षा नवीनीकरण बोर्ड ने एआई के नैतिक उपयोग पर अनुशंसा प्रस्तुत की है।<ref>{{Cite book|url=https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF|title=AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense|publisher=Defense Innovation Board|year=2020|location=Washington, DC}}</ref>


अप्रैल 2016 में, दो दशकों से अधिक समय में पहली बार, यूरोपीय संसद ने व्यक्तिगत जानकारी के संग्रह, भंडारण और उपयोग के लिए व्यापक नियमों का एक सेट अपनाया, सामान्य डेटा संरक्षण विनियमन (जीडीपीआर)1 (यूरोपीय संघ, संसद और परिषद 2016) एल्गोरिथम निर्णयों के लिए स्पष्टीकरण प्राप्त करने के लिए नागरिकों के अधिकार पर जीडीपीआर की नीति एल्गोरिथम डिज़ाइन में मानवीय व्याख्या के अत्यधिक महत्व पर प्रकाश डालती है।<ref>{{Cite journal |last1=Goodman |first1=Bryce |last2=Flaxman |first2=Seth |date=2017-10-02 |title=एल्गोरिदमिक निर्णय लेने पर यूरोपीय संघ विनियम और "स्पष्टीकरण का अधिकार"|url=https://ojs.aaai.org/index.php/aimagazine/article/view/2741 |journal=AI Magazine |language=en |volume=38 |issue=3 |pages=50–57 |doi=10.1609/aimag.v38i3.2741 |arxiv=1606.08813 |s2cid=7373959 |issn=2371-9621}}</ref>
अप्रैल 2016 में दो दशकों से अधिक समय में पहली बार यूरोपीय संसद ने व्यक्तिगत जानकारी के संग्रह भंडारण और उपयोग के लिए व्यापक नियमों के एक समूह को स्वीकृत किया है। सामान्य डेटा संरक्षण विनियमन जीडीपीआर-1 (यूरोपीय संघ, संसद और परिषद 2016) एल्गोरिथम निर्णयों के लिए या स्पष्टीकरण प्राप्त करने के लिए नागरिकों के अधिकार पर जीडीपीआर की नीति एल्गोरिथम डिज़ाइन में मानवीय व्याख्या के अत्यधिक महत्व पर प्रकाश डालती है।<ref>{{Cite journal |last1=Goodman |first1=Bryce |last2=Flaxman |first2=Seth |date=2017-10-02 |title=एल्गोरिदमिक निर्णय लेने पर यूरोपीय संघ विनियम और "स्पष्टीकरण का अधिकार"|url=https://ojs.aaai.org/index.php/aimagazine/article/view/2741 |journal=AI Magazine |language=en |volume=38 |issue=3 |pages=50–57 |doi=10.1609/aimag.v38i3.2741 |arxiv=1606.08813 |s2cid=7373959 |issn=2371-9621}}</ref>


2016 में, चीन ने पूरी तरह से स्वायत्त हथियारों की संभावना को संबोधित करने के लिए सम्मिलित अंतरराष्ट्रीय कानून की पर्याप्तता पर सवाल उठाते हुए एक स्थिति पत्र प्रकाशित किया, इस मुद्दे को उठाने के लिए संयुक्त राष्ट्र सुरक्षा परिषद का पहला स्थायी सदस्य बन गया,<ref name=":10" /> और वैश्विक विनियमन के प्रस्तावों की ओर अग्रसर हुआ।<ref>{{Cite journal|last=Baum|first=Seth|date=2018-09-30|title=अधीक्षण गलत सूचना का मुकाबला करना|journal=Information|volume=9|issue=10|pages=244|doi=10.3390/info9100244|issn=2078-2489|doi-access=free}}</ref> संयुक्त राज्य अमेरिका में [[आर्टिफिशियल इंटेलिजेंस हथियारों की दौड़|कृत्रिम बुद्धिमत्ता]] पर राष्ट्रीय सुरक्षा आयोग द्वारा सुरक्षा संबंधी एआई को विनियमित करने के लिए मार्गदर्शन प्रदान किया जाता है।<ref>{{Cite web|url=https://www.congress.gov/bill/115th-congress/house-bill/5356|title=H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018|last=Stefanik|first=Elise M.|date=2018-05-22|website=www.congress.gov|access-date=2020-03-13}}</ref>
2016 में चीन ने पूरी तरह से स्वायत्त बुद्धिमत्ता की संभावना को संबोधित करने के लिए सम्मिलित अंतर्राष्ट्रीय नियम की पर्याप्तता पर सवाल उठाते हुए एक स्थिति पत्र प्रकाशित किया है। इस समस्या को हल करने के लिए यह संयुक्त राष्ट्र सुरक्षा परिषद का पहला स्थायी सदस्य बन गया है<ref name=":10" /> और वैश्विक विनियमन के प्रस्तावों की ओर अग्रसर हुआ है।<ref>{{Cite journal|last=Baum|first=Seth|date=2018-09-30|title=अधीक्षण गलत सूचना का मुकाबला करना|journal=Information|volume=9|issue=10|pages=244|doi=10.3390/info9100244|issn=2078-2489|doi-access=free}}</ref> संयुक्त राज्य अमेरिका में [[आर्टिफिशियल इंटेलिजेंस हथियारों की दौड़|कृत्रिम बुद्धिमत्ता]] पर राष्ट्रीय सुरक्षा आयोग द्वारा सुरक्षा संबंधी एआई को विनियमित करने के लिए मार्गदर्शन प्रदान किया जाता है।<ref>{{Cite web|url=https://www.congress.gov/bill/115th-congress/house-bill/5356|title=H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018|last=Stefanik|first=Elise M.|date=2018-05-22|website=www.congress.gov|access-date=2020-03-13}}</ref>


2017 में, यूके व्हीकल टेक्नोलॉजी एंड एविएशन बिल एक बिना बीमा वाले स्वचालित वाहन के मालिक पर स्वयं ड्राइविंग करते समय देयता लगाता है और उन मामलों के लिए प्रावधान करता है जहां मालिक ने वाहन में "अनधिकृत परिवर्तन" किया है या अपने सॉफ़्टवेयर को अपडेट करने में विफल रहा है। आगे के नैतिक मुद्दे तब उत्पन्न होते हैं, उदाहरण के लिए, एक चालक रहित कार एक पैदल यात्री से बचने के लिए मुड़ जाती है और एक घातक दुर्घटना का कारण बनती है।<ref>{{Cite web |title=राजमार्ग कोड - परिचय - मार्गदर्शन - GOV.UK|url=https://www.gov.uk/guidance/the-highway-code/introduction#self-driving-vehicles |access-date=2022-11-30 |website=www.gov.uk |language=en}}</ref>
'''2017 में, यूके व्हीकल टेक्नोलॉजी एंड एविएशन बिल एक''' बिना बीमा वाले स्वचालित वाहन के मालिक पर स्वयं ड्राइविंग करते समय देयता लगाता है और उन मामलों के लिए प्रावधान करता है जहां मालिक ने वाहन में "अनधिकृत परिवर्तन" किया है या अपने सॉफ़्टवेयर को अपडेट करने में विफल रहा है। आगे के नैतिक मुद्दे तब उत्पन्न होते हैं, जब, उदाहरण के लिए, एक चालक रहित कार एक पैदल यात्री से बचने के लिए तैरती है और एक घातक दुर्घटना का कारण बनती है।<ref>{{Cite web |title=राजमार्ग कोड - परिचय - मार्गदर्शन - GOV.UK|url=https://www.gov.uk/guidance/the-highway-code/introduction#self-driving-vehicles |access-date=2022-11-30 |website=www.gov.uk |language=en}}</ref>


2021 में, [[यूरोपीय आयोग]] ने [[आर्टिफिशियल इंटेलिजेंस एक्ट|कृत्रिम बुद्धिमत्ता एक्ट]] का प्रस्ताव रखा।<ref>{{Cite news |date=2021-10-18 |title=दुनिया को एआई पर अधिकारों के विधेयक की आवश्यकता क्यों है|work=Financial Times |url=https://www.ft.com/content/17ca620c-4d76-4a2f-829a-27d8552ce719 |access-date=2023-03-19}}</ref>
2021 में, [[यूरोपीय आयोग]] ने [[आर्टिफिशियल इंटेलिजेंस एक्ट|कृत्रिम बुद्धिमत्ता एक्ट]] का प्रस्ताव रखा।<ref>{{Cite news |date=2021-10-18 |title=दुनिया को एआई पर अधिकारों के विधेयक की आवश्यकता क्यों है|work=Financial Times |url=https://www.ft.com/content/17ca620c-4d76-4a2f-829a-27d8552ce719 |access-date=2023-03-19}}</ref>
== एल्गोरिथम प्रमाणन ==
== एल्गोरिथम प्रमाणन ==
एल्गोरिदम को विनियमित करने की एक विधि के रूप में एल्गोरिदम प्रमाणीकरण की एक अवधारणा उभर रही है। एल्गोरिथम प्रमाणन में ऑडिटिंग शामिल है कि क्या जीवन चक्र 1 के दौरान उपयोग किया गया एल्गोरिथम प्रोटोकॉल की आवश्यकताओं के अनुरूप है (उदाहरण के लिए, शुद्धता, पूर्णता, स्थिरता और सटीकता के लिए); 2) मानकों, प्रथाओं और सम्मेलनों को संतुष्ट करता है; और 3) सही समस्या को हल करता है (उदाहरण के लिए, सही ढंग से मॉडल भौतिक कानून), और परिचालन वातावरण में इच्छित उपयोग और उपयोगकर्ता की जरूरतों को पूरा करता है।<ref name="Treleaven" 32–40="" />
एल्गोरिदम को विनियमित करने की एक विधि के रूप में एल्गोरिदम प्रमाणीकरण की एक अवधारणा विकसित हो रही है। एल्गोरिथम प्रमाणन में ऑडिटिंग सम्मिलित है कि क्या जीवन चक्र 1 के समय उपयोग किया गया एल्गोरिथम प्रोटोकॉल की आवश्यकताओं के अनुरूप है। उदाहरण के लिए शुद्धता, पूर्णता, स्थिरता के लिए मानकों, प्रथाओं और सम्मेलनों को संतुष्ट करता है। और सही समस्या को हल करता है उदाहरण के लिए सही रूप से मॉडल भौतिक नियम और परिचालन वातावरण में इच्छित उपयोग और उपयोगकर्ता की आवश्यकताओ को पूरा करता है।<ref name="Treleaven" 32–40="" />


== ब्लॉकचैन एल्गोरिदम का विनियमन ==
== ब्लॉकचैन एल्गोरिदम का विनियमन ==
Line 47: Line 45:
}}
}}


ब्लॉकचेन सिस्टम लेन-देन के पारदर्शी और निश्चित रिकॉर्ड प्रदान करते हैं और इसके द्वारा यूरोपीय [[GDPR|जीडीपीआर]] के लक्ष्य का खंडन करते हैं, जो व्यक्तियों को उनके निजी डेटा पर पूर्ण नियंत्रण देना है।<ref>{{Cite web|url=https://www.siliconrepublic.com/enterprise/blockchain-gdpr-report-bai|title=ब्लॉकचैन एसोसिएशन ऑफ आयरलैंड द्वारा हाल ही में जारी एक रिपोर्ट में पाया गया है कि जब जीडीपीआर की बात आती है तो जवाब से ज्यादा कई सवाल हैं|website=siliconrepublic.com|date=23 November 2017|access-date=5 March 2018|archive-url=https://web.archive.org/web/20180305202537/https://www.siliconrepublic.com/enterprise/blockchain-gdpr-report-bai|archive-date=5 March 2018|url-status=live|df=dmy-all}}</ref><ref>{{cite web |title=ब्लॉकचैन और सामान्य डेटा संरक्षण विनियम - थिंक टैंक|url=https://www.europarl.europa.eu/thinktank/de/document.html?reference=EPRS_STU%282019%29634445 |website=www.europarl.europa.eu |accessdate=28 March 2020 |language=de}}</ref>
ब्लॉकचेन प्रणाली लेन-देन के पारदर्शी और निश्चित रिकॉर्ड प्रदान करती हैं और इसके द्वारा यूरोपीय [[GDPR|जीडीपीआर]] के लक्ष्य का खंडन करती हैं जो व्यक्तियों को उनके निजी डेटा पर पूर्ण नियंत्रण देना है।<ref>{{Cite web|url=https://www.siliconrepublic.com/enterprise/blockchain-gdpr-report-bai|title=ब्लॉकचैन एसोसिएशन ऑफ आयरलैंड द्वारा हाल ही में जारी एक रिपोर्ट में पाया गया है कि जब जीडीपीआर की बात आती है तो जवाब से ज्यादा कई सवाल हैं|website=siliconrepublic.com|date=23 November 2017|access-date=5 March 2018|archive-url=https://web.archive.org/web/20180305202537/https://www.siliconrepublic.com/enterprise/blockchain-gdpr-report-bai|archive-date=5 March 2018|url-status=live|df=dmy-all}}</ref><ref>{{cite web |title=ब्लॉकचैन और सामान्य डेटा संरक्षण विनियम - थिंक टैंक|url=https://www.europarl.europa.eu/thinktank/de/document.html?reference=EPRS_STU%282019%29634445 |website=www.europarl.europa.eu |accessdate=28 March 2020 |language=de}}</ref>


डिजिटल अर्थव्यवस्था के विकास पर डिक्री को लागू करके, [[बेलोरूस]] [[स्मार्ट अनुबंध|स्मार्ट अनुबंधों]] को वैध बनाने वाला पहला देश बन गया है। बेलारूसी वकील डेनिस एलेनिकोव को डिक्री द्वारा पेश की गई एक स्मार्ट अनुबंध कानूनी अवधारणा का लेखक माना जाता है।<ref>{{cite news|url=https://www.reuters.com/article/us-belarus-cryptocurrency-idUSKBN1EG0XO  |title=बेलारूस विदेशी निवेशकों को लुभाने के लिए क्रिप्टो-मुद्रा कानून अपनाता है|last=Makhovsky |first=Andrei |date=December 22, 2017 |work=[[Reuters]]}}</ref><ref>{{cite web|url=https://www2.deloitte.com/content/dam/Deloitte/ru/Documents/tax/lt-in-focus/english/2017/27-12-en.pdf |title=बेलारूस क्रिप्टो अर्थव्यवस्था हितधारकों के लिए अद्वितीय कानूनी ढांचा बनाता है|date=December 27, 2017 |publisher=[[Deloitte]]}}</ref><ref>{{cite web |url=https://emerging-europe.com/business/ict-given-huge-boost-in-belarus/ |title=बेलारूस में आईसीटी को भारी बढ़ावा मिला|last=Patricolo |first=Claudia |date=December 26, 2017 |publisher=Emerging Europe}}</ref> मजबूत तर्क हैं कि सम्मिलित अमेरिकी राज्य कानून पहले से ही स्मार्ट अनुबंधों की प्रवर्तनीयता के लिए एक ठोस आधार हैं - [[ एरिज़ोना |एरिज़ोना]] , [[नेवादा]], [[ओहियो]] और [[टेनेसी]] ने विशेष रूप से ब्लॉकचैन-आधारित अनुबंधों की प्रवर्तनीयता की अनुमति देने के लिए अपने कानूनों में संशोधन किया है।<ref>{{cite web |last1=Levi |first1=Stuart |last2=Lipton |first2=Alex |last3=Vasile |first3=Christina |title=Blockchain Laws and Regulations {{!}} 13 Legal issues surrounding the use of smart contracts {{!}} GLI |url=https://www.globallegalinsights.com/practice-areas/blockchain-laws-and-regulations/13-legal-issues-surrounding-the-use-of-smart-contracts |website=GLI - Global Legal InsightsInternational legal business solutions |accessdate=21 April 2020 |language=en |date=2020}}</ref>
डिजिटल अर्थव्यवस्था के विकास पर डिक्री को प्रयुक्त करके [[बेलोरूस]] [[स्मार्ट अनुबंध|स्मार्ट अनुबंधों]] को वैध बनाने वाला पहला देश बन गया है। बेलारूसी वकील डेनिस एलेनिकोव को डिक्री द्वारा प्रस्तुत की गई एक स्मार्ट अनुबंध नियम अवधारणा का लेखक माना जाता है।<ref>{{cite news|url=https://www.reuters.com/article/us-belarus-cryptocurrency-idUSKBN1EG0XO  |title=बेलारूस विदेशी निवेशकों को लुभाने के लिए क्रिप्टो-मुद्रा कानून अपनाता है|last=Makhovsky |first=Andrei |date=December 22, 2017 |work=[[Reuters]]}}</ref><ref>{{cite web|url=https://www2.deloitte.com/content/dam/Deloitte/ru/Documents/tax/lt-in-focus/english/2017/27-12-en.pdf |title=बेलारूस क्रिप्टो अर्थव्यवस्था हितधारकों के लिए अद्वितीय कानूनी ढांचा बनाता है|date=December 27, 2017 |publisher=[[Deloitte]]}}</ref><ref>{{cite web |url=https://emerging-europe.com/business/ict-given-huge-boost-in-belarus/ |title=बेलारूस में आईसीटी को भारी बढ़ावा मिला|last=Patricolo |first=Claudia |date=December 26, 2017 |publisher=Emerging Europe}}</ref> जिंका तर्क यह है कि सम्मिलित अमेरिकी राज्य विनियमन पहले से ही स्मार्ट अनुबंधों की प्रवर्तनीयता के लिए एक ठोस आधार हैं। [[ एरिज़ोना |एरिज़ोना]], [[नेवादा]], [[ओहियो]] और [[टेनेसी]] ने विशेष रूप से ब्लॉकचैन-आधारित अनुबंधों की प्रवर्तनीयता की स्वीकृति देने के लिए अपने विनियमों में संशोधन किया है।<ref>{{cite web |last1=Levi |first1=Stuart |last2=Lipton |first2=Alex |last3=Vasile |first3=Christina |title=Blockchain Laws and Regulations {{!}} 13 Legal issues surrounding the use of smart contracts {{!}} GLI |url=https://www.globallegalinsights.com/practice-areas/blockchain-laws-and-regulations/13-legal-issues-surrounding-the-use-of-smart-contracts |website=GLI - Global Legal InsightsInternational legal business solutions |accessdate=21 April 2020 |language=en |date=2020}}</ref>
== रोबोट और स्वायत्त एल्गोरिदम का विनियमन ==
== रोबोट और स्वायत्त एल्गोरिदम का विनियमन ==
रोबोट और स्वायत्त एल्गोरिदम को विनियमित करने के प्रस्ताव हैं। इसमे शामिल है:
रोबोट और स्वायत्त एल्गोरिदम को विनियमित करने के कई प्रस्ताव हैं। इसमे कुछ निम्नलिखित सम्मिलित है:


* दक्षिण कोरियाई सरकार का 2007 में रोबोट एथिक्स चार्टर का प्रस्ताव;
* दक्षिण कोरियाई सरकार का 2007 में रोबोट एथिक्स चार्टर का प्रस्ताव।
* पांच नैतिक "डिजाइनरों, बिल्डरों, और रोबोट के उपयोगकर्ताओं के लिए सिद्धांत" के यूके इंजीनियरिंग और भौतिक विज्ञान अनुसंधान परिषद से 2011 का एक प्रस्ताव;
* पांच नैतिक "डिजाइनरों, निर्माताओं और रोबोट के उपयोगकर्ताओं के लिए सिद्धांत" के यूके इंजीनियरिंग और भौतिक विज्ञान अनुसंधान परिषद से 2011 का प्रस्ताव।
* एल्गोरिथम पारदर्शिता और जवाबदेही के लिए एसोसिएशन फॉर कंप्यूटिंग मशीनरी के सात सिद्धांत, 2017 में प्रकाशित। <रेफरी नाम = ट्रेलेवन 32–40 />
* एल्गोरिथम पारदर्शिता और उत्तरदायित्व के लिए कंप्यूटिंग मशीनरी संगठन के सात सिद्धांत 2017 में प्रकाशित हुए।<ref><रेफरी नाम = ट्रेलेवन 32–40 /></ref>


== लोकप्रिय संस्कृति में ==
== लोकप्रिय संस्कृति में ==


1942 में, लेखक [[इसहाक असिमोव]] ने रोबोटिक्स के काल्पनिक तीन नियमों को प्रस्तुत करके एल्गोरिदम के नियमन को संबोधित किया:
1942 में लेखक [[इसहाक असिमोव]] ने रोबोटिक्स के काल्पनिक तीन नियमों को प्रस्तुत करके एल्गोरिदम के विनियमन को संबोधित किया है:
# एक रोबोट किसी इंसान को घायल नहीं कर सकता है या निष्क्रियता के माध्यम से एक इंसान को नुकसान पहुंचाने की अनुमति देता है।
# रोबोट किसी इंसान को घायल नहीं कर सकता है या निष्क्रियता के माध्यम से एक इंसान को हानि पहुंचाने की स्वीकृति देता है।
# एक रोबोट को आदेशों का पालन करना चाहिए <!-- Do not add "to" here: it's not in the source. -->{{sic|given it|expected=given to it|hide=y}}<!-- Do not add "to" here: it's not in the source. --> मनुष्यों द्वारा, सिवाय इसके कि जहां इस तरह के आदेश पहले कानून के साथ संघर्ष करेंगे।
# रोबोट को मनुष्यों द्वारा दिए गए अनुक्रमों का अनुसरण करना चाहिए लेकिन उन स्थितियों के जहां ऐसे अनुक्रम पहले नियम के साथ संघर्ष करते हैं।
# एक रोबोट को अपने अस्तित्व की रक्षा तब तक करनी चाहिए जब तक कि इस तरह की सुरक्षा पहले या दूसरे कानून के साथ संघर्ष न करे।<ref name="IROBOT">{{cite book |last1=Asimov |first1=Isaac |title=मैं रोबोट|date=1950 |publisher=Doubleday |location=New York City |isbn=978-0-385-42304-5 |page=40 |edition=The Isaac Asimov Collection |language=en |chapter=Runaround |quote=This is an ''exact'' transcription of the laws. They also appear in the front of the book, and in both places there is ''no'' "to" in the 2nd law.}}</ref>
#रोबोट को अपने अस्तित्व की रक्षा तब तक करनी चाहिए जब तक कि इस प्रकार की सुरक्षा पहले या दूसरे अनुक्रम के साथ संघर्ष न करे।<ref name="IROBOT">{{cite book |last1=Asimov |first1=Isaac |title=मैं रोबोट|date=1950 |publisher=Doubleday |location=New York City |isbn=978-0-385-42304-5 |page=40 |edition=The Isaac Asimov Collection |language=en |chapter=Runaround |quote=This is an ''exact'' transcription of the laws. They also appear in the front of the book, and in both places there is ''no'' "to" in the 2nd law.}}</ref>
विनियमन का मुख्य विकल्प एक प्रतिबंध है, और एल्गोरिदम पर प्रतिबंध लगाने की वर्तमान में अत्यधिक संभावना नहीं है। हालांकि, [[फ्रैंक हर्बर्ट]] के ड्यून (फ्रैंचाइज़) में, दून ब्रह्मांड के संगठन#थिंकिंग मशीन कृत्रिम बुद्धि के लिए एक सामूहिक शब्द है, जिसे [[बटलर जिहाद]] के रूप में जाने जाने वाले विद्रोह के बाद पूरी तरह से नष्ट कर दिया गया और प्रतिबंधित कर दिया गया:<ref name="Messiah">{{cite book |last=Herbert |first=Frank |title=दून मसीहा|title-link=दून मसीहा|year=1969 }}</ref>
विनियमन का मुख्य विकल्प एक प्रतिबंध है और एल्गोरिदम पर प्रतिबंध लगाने की वर्तमान में अत्यधिक संभावना नहीं है। हालांकि, [[फ्रैंक हर्बर्ट]] के ड्यून ब्रह्मांड में, यंत्र शिक्षण कृत्रिम बुद्धिमत्ता के लिए एक सामूहिक शब्द है, जिसे बटलरियन जिहाद के रूप में जाने वाले विद्रोह के बाद पूरी तरह से नष्ट कर दिया गया और प्रतिबंधित कर दिया गया है।<ref name="Messiah">{{cite book |last=Herbert |first=Frank |title=दून मसीहा|title-link=दून मसीहा|year=1969 }}</ref>
<blockquote>जिहाद, बटलरियन: (महान विद्रोह भी देखें) - कंप्यूटर, सोचने वाली मशीनों और जागरूक रोबोटों के खिलाफ धर्मयुद्ध 201 ई.पू. और 108 बी.जी. में संपन्न हुआ। इसकी मुख्य आज्ञा ऑरेंज कैथोलिक बाइबिल|ओ.सी. बाइबिल के रूप में आप मानव मन की समानता में एक मशीन नहीं बनाएंगे।<ref name="Jihad">{{cite book |last=Herbert |first=Frank |title=ड्यून|url=https://archive.org/details/dune0000herb |url-access=registration |chapter=Terminology of the Imperium: JIHAD, BUTLERIAN |date=1965|publisher=Philadelphia, Chilton Books }}</ref></ब्लॉककोट>
 
बटलरियन जिहाद, (महान विद्रोह भी देखें) - कंप्यूटर, यंत्र शिक्षण और जागरूक रोबोटों के विरुद्ध धर्मयुद्ध 201 बीजी और 108 बीजी में संपन्न हुआ। इसका मुख्य अनुक्रम ओ.सी में बना हुआ है। बाइबिल के रूप में आप मानव मन की समानता में एक मशीन नहीं बना सकते है।<ref name="Jihad">{{cite book |last=Herbert |first=Frank |title=ड्यून|url=https://archive.org/details/dune0000herb |url-access=registration |chapter=Terminology of the Imperium: JIHAD, BUTLERIAN |date=1965|publisher=Philadelphia, Chilton Books }}</ref>


== यह भी देखें ==
== यह भी देखें ==

Revision as of 12:36, 20 June 2023

एल्गोरिदम का विनियमन या एल्गोरिथम विनियमन, विशेष रूप से कृत्रिम बुद्धिमत्ता और यंत्र शिक्षण में एल्गोरिदम के प्रचार और विनियमन के लिए नियमों और सार्वजनिक क्षेत्र की नीतियों का निर्माण है।[1][2][3] एआई एल्गोरिदम के उपसमुदाय के लिए, कृत्रिम बुद्धिमत्ता के विनियमन शब्द का उपयोग किया जाता है। कृत्रिम बुद्धिमत्ता (एआई) के लिए नियामक और नीतिगत परिदृश्य यूरोपीय संघ सहित वैश्विक स्तर पर न्यायालयों में एक विकसित समस्या है।[4] एआई को प्रोत्साहित करने और संबद्ध जोखिमों को प्रबंधित करने या चुनौतीपूर्ण दोनों के लिए एआई का विनियमन आवश्यक माना जाता है।[5] एक अन्य विकसित विषय ब्लॉकचेन एल्गोरिदम का विनियमन है। विकसित अनुबंधों का उपयोग विनियमित और एआई एल्गोरिदम के विनियमन के साथ इसका उल्लेख किया गया है।[6] कई देशों ने उच्च आवृत्ति व्यापार के नियम बनाए हैं, जो एआई एल्गोरिदम की स्थिति में तकनीकी प्रगति के कारण स्थानांतरित हो रहे हैं।[7]

एल्गोरिदम के विनियमन की प्रेरणा एल्गोरिदम पर नियंत्रण खोने की आशंका है, जिसका प्रभाव मानव जीवन पर बढ़ता है। स्वचालित क्रेडिट प्राप्तांक गणना की स्थिति में कई देशों ने पहले ही नियम प्रयुक्त कर दिए हैं जिनके स्पष्टीकरण का अधिकार उन एल्गोरिदम के लिए अनिवार्य है।[8][9] उदाहरण के लिए इलेक्ट्रिकल और इलेक्ट्रॉनिक इंजीनियरिंग संस्थान ने नैतिक नियमों और संभावित भविष्य के उपयोगकर्ताओं के मूल्यों को स्पष्ट रूप से संबोधित करने के लिए एक नया मानक विकसित करना प्रारम्भ कर दिया है।[10] आपराधिक न्याय से लेकर स्वास्थ्य सर्वेक्षण तक विविध डोमेन में एल्गोरिदम के उपयोग के संबंध में पूर्वाग्रह, पारदर्शिता और नैतिकता संबंधी चिंताएँ विकसित होकर सामने आई हैं। कई लोगों को डर है कि कृत्रिम बुद्धिमत्ता जाति, वर्ग, लिंग और लैंगिकता के साथ सम्मिलित सामाजिक असमानताओं को दोहरा सकती है।[11][12]</nowiki></ref></ref>

कृत्रिम बुद्धिमत्ता का विनियमन

सार्वजनिक चर्चा

2016 में जॉय बूलमविनी ने कला और अनुसंधान के माध्यम से कृत्रिम बुद्धिमत्ता के सामाजिक निहितार्थों के विषय में जागरूकता बढ़ाने के लिए पक्षपातपूर्ण पहचान का पता लगाने वाले सॉफ़्टवेयर के साथ एक व्यक्तिगत अनुभव के बाद एल्गोरिथम जस्टिस लीग की स्थापना की।[13] 2017 में एलोन मस्क ने कृत्रिम सामान्य बुद्धिमत्ता से अस्तित्वगत जोखिम के संदर्भ में एल्गोरिदम के नियमन की जांच किया।[14][15][16] एनपीआर के अनुसार, टेस्ला के सीईओ सरकारी जांच करने के लिए "स्पष्ट रूप से रोमांचित नहीं थे" जो उनके अपने उद्योग को प्रभावित कर सकता था, लेकिन उनका मानना ​​​​था कि बिना निरीक्षण के पूरी तरह से जाने का जोखिम बहुत अधिक है। सामान्यतः इस प्रकार के नियम स्थापित किए जाते हैं, जब एक वस्तु बहुत अस्पष्ट होती हैं या एक सार्वजनिक रूप से आक्रोश होती है और कई वर्षों के बाद उस उद्योग को विनियमित करने के लिए एक नियामक संस्था की स्थापना की गई है। इसमें यह सदैव के लिए प्रयुक्त हो जाता है। यह अतीत में अस्पष्ट रहा है लेकिन ऐसा कुछ नहीं है जो अस्तित्व के लिए एक मौलिक जोखिम का प्रतिनिधित्व करता है।[14]

राजनीतिक कार्यकर्ताओं ने एक ऐसी तकनीक को विनियमित करने के ज्ञान के विषय में संदेह व्यक्त किया जो अभी भी विकास में है।[15] एआई और रोबोटिक को विनियमित करने के लिए यूरोपीय संघ के सांसदों द्वारा मस्क और फरवरी 2017 के प्रस्तावों पर प्रतिक्रिया देते हुए, इंटेल के सीईओ ब्रायन क्रज़ानिच ने तर्क दिया है कि कृत्रिम बुद्धिमत्ता अपनी प्रारंभिक अवस्था में है और यह तकनीक को विनियमित करने के लिए बहुत सक्षम है।[16] प्रौद्योगिकी को विनियमित करने की कोशिश करने के अतिरिक्त कुछ विद्वान एल्गोरिदम के परीक्षण और पारदर्शिता के लिए आवश्यकताओं सहित सामान्य मानदंडों को विकसित करने का सुझाव देते हैं, संभवतः कुछ प्रकार के दायित्व के संयोजन में[17] एआई विकास को विनियमित करने के लिए एक वैश्विक शासन बोर्ड के विकास के लिए एक सुझाव दिया गया है।[18] 2020 में यूरोपीय संघ ने एआई को बढ़ावा देने और विनियमित करने के लिए अपना एक योजना पत्र प्रकाशित किया है।[19]

एल्गोरिथम निहित नियमों रूप से संदिग्ध अविश्वास अभ्यास है जो एल्गोरिदम के माध्यम से किया जाता है, जिस पर न्यायालय मुकदमा चलाने में सक्षम नहीं हैं।[20] यह जिखिम यूरोपीय संघ, अमेरिका और उससे आगे के वैज्ञानिकों और नियामकों को चिंतित करता है।[20] यूरोपीय आयुक्त मार्गरेट वेस्टेगर ने 16 मार्च 2017 को "एल्गोरिदम और निहित नियम" पर अपने भाषण में एल्गोरिथम निहित नियमों के एक प्रारंभिक उदाहरण का उल्लेख किया है जिसका वर्णन इस प्रकार है:[21]

कुछ साल पहले, दो संस्थाएं ''द मेकिंग ऑफ ए फ्लाई'' नामक एक पाठ्यपुस्तक बेच रही थीं। उन विक्रेताओं में से एक ने एक एल्गोरिदम का उपयोग किया जो अनिवार्य रूप से अपने प्रतियोगी की कीमत के अनुरूप था। उस प्रतियोगी के पास एक एल्गोरिदम था जो पहले की तुलना में 27% अधिक कीमत निर्धारित करता था। इसका परिणाम यह हुआ कि कीमतें ऊपर की ओर बढ़ती रहीं, जब तक कि अंत में किसी ने यह नहीं देखा कि क्या चल रहा था और कीमत को मैन्युअल रूप से समायोजित किया था। उस समय तक पुस्तक 23 मिलियन डॉलर मे बिक रही थी।

2018 में नीदरलैंड्स ने एक एल्गोरिथम प्रणाली सीरिया (प्रणाली रिसिको संकेतक) को नियोजित किया ताकि नागरिकों का पता लगाया जा सके कि वे कल्याणकारी अपराध करने के लिए उच्च जोखिम में हैं, जिसने शांतिपूर्वक हजारों लोगों को जांचकर्ताओं के पास भेजा है।[22] इससे जनता का विरोध हुआ। हेग की जिला न्यायालय ने मानव अधिकारों पर यूरोपीय अधिवेशन (ईसीएचआर) के अनुच्छेद 8 का प्रमाण देते हुए एसवाईआरआई को स्थगित कर दिया था।[23]

2020 में यूके में छात्रों को परीक्षा ग्रेड प्रदान करने वाले एल्गोरिदम ने इस धारणा का विरोध किया था।[24] लेकिन यह विरोध सफल रहा और ग्रेड वापस ले लिए गए थे।[23]

कार्यान्वयन

एआई नियम और अधिनियम को तीन मुख्य विषयों में अर्थात् स्वायत्त बुद्धिमत्ता प्रणालियों का शासन, प्रणाली के लिए उत्तरदायित्व और गोपनीयता की सुरक्षा समस्या मे विभाजित किया जा सकता है।[4] एआई के प्रबंधन और विनियमन के लिए सार्वजनिक क्षेत्र की योजनाओं का विकास स्थानीय राष्ट्रीय और अंतर्राष्ट्रीय स्तर[19] और सार्वजनिक सेवा प्रबंधन[25] से विनियमन प्रवर्तन तक विभिन्न क्षेत्रों में आवश्यक समझा गया है।[19] वित्तीय क्षेत्र,[26] रोबोटिक्स,[27] सेना,[28]और अंतरराष्ट्रीय नियम[29][30] की कई चिंताएँ हैं कि इन क्षेत्रों में एआई की पर्याप्त दृश्यता और सर्वेक्षण नहीं है।[31] वित्तीय क्षेत्र में उदाहरण के लिए, वित्तीय संस्थानों के गैर-सार्वजनिक डेटा का संरक्षण करते समय उपभोक्ता वित्तीय सुरक्षा ब्यूरो को स्रोत कोड और एल्गोरिदम की अधिक सूक्ष्मता से जांच करने के लिए कहा गया है।[32]

संयुक्त राज्य अमेरिका में 7 जनवरी 2019 को 'कृत्रिम बुद्धिमत्ता में अमेरिकी नेतृत्व बनाए रखने पर एक कार्यकारी आदेश के बाद व्हाइट हाउस के विज्ञान और प्रौद्योगिकी नीति कार्यालय ने कृत्रिम बुद्धिमत्ता अनुप्रयोगों के नियमन के लिए एक अधिनियम मार्गदर्शन प्रस्तुत किया है। जिसमें इसके लिए दस सिद्धांत सम्मिलित हैं। संयुक्त राज्य अमेरिका की संस्था ​​एआई को विनियमित करने या न करने का निर्णय लेती हैं।[33][34] जवाब में राष्ट्रीय मानक और प्रौद्योगिकी संस्थान ने एक स्थिति पत्र प्रस्तुत किया है।[35] कृत्रिम बुद्धिमत्ता पर राष्ट्रीय सुरक्षा आयोग ने एक अंतरिम रिपोर्ट प्रकाशित की है[36] और रक्षा नवीनीकरण बोर्ड ने एआई के नैतिक उपयोग पर अनुशंसा प्रस्तुत की है।[37]

अप्रैल 2016 में दो दशकों से अधिक समय में पहली बार यूरोपीय संसद ने व्यक्तिगत जानकारी के संग्रह भंडारण और उपयोग के लिए व्यापक नियमों के एक समूह को स्वीकृत किया है। सामान्य डेटा संरक्षण विनियमन जीडीपीआर-1 (यूरोपीय संघ, संसद और परिषद 2016) एल्गोरिथम निर्णयों के लिए या स्पष्टीकरण प्राप्त करने के लिए नागरिकों के अधिकार पर जीडीपीआर की नीति एल्गोरिथम डिज़ाइन में मानवीय व्याख्या के अत्यधिक महत्व पर प्रकाश डालती है।[38]

2016 में चीन ने पूरी तरह से स्वायत्त बुद्धिमत्ता की संभावना को संबोधित करने के लिए सम्मिलित अंतर्राष्ट्रीय नियम की पर्याप्तता पर सवाल उठाते हुए एक स्थिति पत्र प्रकाशित किया है। इस समस्या को हल करने के लिए यह संयुक्त राष्ट्र सुरक्षा परिषद का पहला स्थायी सदस्य बन गया है[29] और वैश्विक विनियमन के प्रस्तावों की ओर अग्रसर हुआ है।[39] संयुक्त राज्य अमेरिका में कृत्रिम बुद्धिमत्ता पर राष्ट्रीय सुरक्षा आयोग द्वारा सुरक्षा संबंधी एआई को विनियमित करने के लिए मार्गदर्शन प्रदान किया जाता है।[40]

2017 में, यूके व्हीकल टेक्नोलॉजी एंड एविएशन बिल एक बिना बीमा वाले स्वचालित वाहन के मालिक पर स्वयं ड्राइविंग करते समय देयता लगाता है और उन मामलों के लिए प्रावधान करता है जहां मालिक ने वाहन में "अनधिकृत परिवर्तन" किया है या अपने सॉफ़्टवेयर को अपडेट करने में विफल रहा है। आगे के नैतिक मुद्दे तब उत्पन्न होते हैं, जब, उदाहरण के लिए, एक चालक रहित कार एक पैदल यात्री से बचने के लिए तैरती है और एक घातक दुर्घटना का कारण बनती है।[41]

2021 में, यूरोपीय आयोग ने कृत्रिम बुद्धिमत्ता एक्ट का प्रस्ताव रखा।[42]

एल्गोरिथम प्रमाणन

एल्गोरिदम को विनियमित करने की एक विधि के रूप में एल्गोरिदम प्रमाणीकरण की एक अवधारणा विकसित हो रही है। एल्गोरिथम प्रमाणन में ऑडिटिंग सम्मिलित है कि क्या जीवन चक्र 1 के समय उपयोग किया गया एल्गोरिथम प्रोटोकॉल की आवश्यकताओं के अनुरूप है। उदाहरण के लिए शुद्धता, पूर्णता, स्थिरता के लिए मानकों, प्रथाओं और सम्मेलनों को संतुष्ट करता है। और सही समस्या को हल करता है उदाहरण के लिए सही रूप से मॉडल भौतिक नियम और परिचालन वातावरण में इच्छित उपयोग और उपयोगकर्ता की आवश्यकताओ को पूरा करता है।[10]

ब्लॉकचैन एल्गोरिदम का विनियमन

ब्लॉकचेन प्रणाली लेन-देन के पारदर्शी और निश्चित रिकॉर्ड प्रदान करती हैं और इसके द्वारा यूरोपीय जीडीपीआर के लक्ष्य का खंडन करती हैं जो व्यक्तियों को उनके निजी डेटा पर पूर्ण नियंत्रण देना है।[43][44]

डिजिटल अर्थव्यवस्था के विकास पर डिक्री को प्रयुक्त करके बेलोरूस स्मार्ट अनुबंधों को वैध बनाने वाला पहला देश बन गया है। बेलारूसी वकील डेनिस एलेनिकोव को डिक्री द्वारा प्रस्तुत की गई एक स्मार्ट अनुबंध नियम अवधारणा का लेखक माना जाता है।[45][46][47] जिंका तर्क यह है कि सम्मिलित अमेरिकी राज्य विनियमन पहले से ही स्मार्ट अनुबंधों की प्रवर्तनीयता के लिए एक ठोस आधार हैं। एरिज़ोना, नेवादा, ओहियो और टेनेसी ने विशेष रूप से ब्लॉकचैन-आधारित अनुबंधों की प्रवर्तनीयता की स्वीकृति देने के लिए अपने विनियमों में संशोधन किया है।[48]

रोबोट और स्वायत्त एल्गोरिदम का विनियमन

रोबोट और स्वायत्त एल्गोरिदम को विनियमित करने के कई प्रस्ताव हैं। इसमे कुछ निम्नलिखित सम्मिलित है:

  • दक्षिण कोरियाई सरकार का 2007 में रोबोट एथिक्स चार्टर का प्रस्ताव।
  • पांच नैतिक "डिजाइनरों, निर्माताओं और रोबोट के उपयोगकर्ताओं के लिए सिद्धांत" के यूके इंजीनियरिंग और भौतिक विज्ञान अनुसंधान परिषद से 2011 का प्रस्ताव।
  • एल्गोरिथम पारदर्शिता और उत्तरदायित्व के लिए कंप्यूटिंग मशीनरी संगठन के सात सिद्धांत 2017 में प्रकाशित हुए।[49]

लोकप्रिय संस्कृति में

1942 में लेखक इसहाक असिमोव ने रोबोटिक्स के काल्पनिक तीन नियमों को प्रस्तुत करके एल्गोरिदम के विनियमन को संबोधित किया है:

  1. रोबोट किसी इंसान को घायल नहीं कर सकता है या निष्क्रियता के माध्यम से एक इंसान को हानि पहुंचाने की स्वीकृति देता है।
  2. रोबोट को मनुष्यों द्वारा दिए गए अनुक्रमों का अनुसरण करना चाहिए लेकिन उन स्थितियों के जहां ऐसे अनुक्रम पहले नियम के साथ संघर्ष करते हैं।
  3. रोबोट को अपने अस्तित्व की रक्षा तब तक करनी चाहिए जब तक कि इस प्रकार की सुरक्षा पहले या दूसरे अनुक्रम के साथ संघर्ष न करे।[50]

विनियमन का मुख्य विकल्प एक प्रतिबंध है और एल्गोरिदम पर प्रतिबंध लगाने की वर्तमान में अत्यधिक संभावना नहीं है। हालांकि, फ्रैंक हर्बर्ट के ड्यून ब्रह्मांड में, यंत्र शिक्षण कृत्रिम बुद्धिमत्ता के लिए एक सामूहिक शब्द है, जिसे बटलरियन जिहाद के रूप में जाने वाले विद्रोह के बाद पूरी तरह से नष्ट कर दिया गया और प्रतिबंधित कर दिया गया है।[51]

बटलरियन जिहाद, (महान विद्रोह भी देखें) - कंप्यूटर, यंत्र शिक्षण और जागरूक रोबोटों के विरुद्ध धर्मयुद्ध 201 बीजी और 108 बीजी में संपन्न हुआ। इसका मुख्य अनुक्रम ओ.सी में बना हुआ है। बाइबिल के रूप में आप मानव मन की समानता में एक मशीन नहीं बना सकते है।[52]

यह भी देखें

संदर्भ

  1. "एल्गोरिदम नियंत्रण से बाहर हो गए हैं। उन्हें विनियमित करने का समय आ गया है।". theweek.com (in English). 3 April 2019. Retrieved 22 March 2020.
  2. Martini, Mario. "एल्गोरिथम-आधारित प्रक्रियाओं के लिए एक नियामक प्रणाली के मूल तत्व" (PDF). Retrieved 22 March 2020.
  3. "एल्गोरिदम का उदय और नियमन". Berkeley Global Society. Retrieved 22 March 2020.
  4. 4.0 4.1 Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018-07-24). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602.
  5. Fitsilis, Fotios (2019). उन्नत एल्गोरिदम पर विनियमन लागू करना (in English). Springer International Publishing. ISBN 978-3-030-27978-3.
  6. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. चयनित न्यायालयों में कृत्रिम बुद्धिमत्ता का विनियमन।. OCLC 1110727808.
  7. Ganesh, Prakhar (30 June 2019). "High Frequency Trading (HFT) with AI : Simplified". Medium (in English).
  8. Consumer Financial Protection Bureau, §1002.9(b)(2)
  9. Edwards, Lilian; Veale, Michael (2018). "Enslaving the Algorithm: From a 'Right to an Explanation' to a 'Right to Better Decisions'?" (PDF). IEEE Security & Privacy. 16 (3): 46–54. doi:10.1109/MSP.2018.2701152. S2CID 4049746. SSRN 3052831.
  10. 10.0 10.1 Treleaven, Philip; Barnett, Jeremy; Koshiyama, Adriano (February 2019). "एल्गोरिदम: कानून और विनियमन". Computer. 52 (2): 32–40. doi:10.1109/MC.2018.2888774. ISSN 0018-9162. S2CID 85500054.
  11. <ref>Hao, Karen (January 21, 2019). "एआई लोगों को जेल भेज रहा है — और गलत कर रहा है". MIT Technology Review (in English). Retrieved 2021-01-24.<nowiki>
  12. </nowiki> स्वास्थ्य सेवा के लिए रेफरी>{{Cite journal|last=Ledford|first=Heidi|date=2019-10-24|title=स्वास्थ्य-देखभाल एल्गोरिदम में नस्लीय पूर्वाग्रह से प्रभावित लाखों काले लोग|url=https://www.nature.com/articles/d41586-019-03228-6%7Cjournal=Nature%7Clanguage=en%7Cvolume=574%7Cissue=7780%7Cpages=608–609%7Cdoi=10.1038/d41586-019-03228-6%7Cpmid=31664201 |bibcode=2019Natur.574..608L |s2cid=204943000 }<nowiki>
  13. Lufkin, Bryan (22 July 2019). "एल्गोरिथम न्याय". BBC Worklife (in English). Retrieved 31 December 2020.
  14. 14.0 14.1 Domonoske, Camila (July 17, 2017). "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR (in English). Retrieved 27 November 2017.
  15. 15.0 15.1 Gibbs, Samuel (17 July 2017). "Elon Musk: regulate AI to combat 'existential threat' before it's too late". The Guardian. Retrieved 27 November 2017.
  16. 16.0 16.1 Kharpal, Arjun (7 November 2017). "ए.आई. इंटेल के सीईओ ब्रायन क्रांज़िच कहते हैं, अभी यह अपनी 'शैशवावस्था' में है और इसे विनियमित करना जल्दबाजी होगी". CNBC. Retrieved 27 November 2017.
  17. Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  18. Boyd, Matthew; Wilson, Nick (2017-11-01). "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?". Policy Quarterly. 13 (4). doi:10.26686/pq.v13i4.4619. ISSN 2324-1101.
  19. 19.0 19.1 19.2 White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. p. 1.
  20. 20.0 20.1 Ezrachi, A.; Stucke, M. E. (13 March 2020). "सतत और चुनौती रहित एल्गोरिथम टैसिट मिलीभगत". Northwestern Journal of Technology & Intellectual Property (in English). 17 (2). ISSN 1549-8271.
  21. VESTAGER, Margrethe (2017). "एल्गोरिदम और प्रतियोगिता". European Commission. Archived from the original (Bundeskartellamt 18th Conference on Competition) on 2019-11-29. Retrieved 1 May 2021.
  22. Rechtbank Den Haag 5 February 2020, C-09-550982-HA ZA 18-388 (English), ECLI:NL:RBDHA:2020:1878
  23. 23.0 23.1 Reuter, Markus (17 August 2020). "Fuck the Algorithm - Jugendproteste in Großbritannien gegen maschinelle Notenvergabe erfolgreich". netzpolitik.org (in Deutsch). Retrieved 3 October 2020.
  24. "कक्षा से परे तिरछी ग्रेडिंग एल्गोरिथम फ्यूल बैकलैश". Wired (in English). Retrieved 26 September 2020.
  25. Wirtz, Bernd W.; Müller, Wilhelm M. (2018-12-03). "सार्वजनिक प्रबंधन के लिए एक एकीकृत कृत्रिम बुद्धिमत्ता ढांचा". Public Management Review. 21 (7): 1076–1100. doi:10.1080/14719037.2018.1549268. ISSN 1471-9037. S2CID 158267709.
  26. Bredt, Stephan (2019-10-04). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. 2: 16. doi:10.3389/frai.2019.00016. ISSN 2624-8212. PMC 7861258. PMID 33733105.
  27. Iphofen, Ron; Kritikos, Mihalis (2019-01-03). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
  28. United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.
  29. 29.0 29.1 "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 April 2017. Retrieved 24 December 2017.
  30. Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. Retrieved 2019-09-14.
  31. MacCarthy, Mark (9 March 2020). "एआई को अधिक नियमन की जरूरत है, कम की नहीं". Brookings.
  32. Van Loo, Rory (July 2018). "Technology Regulation by Default: Platforms, Privacy, and the CFPB". Georgetown Law Technology Review. 2 (1): 542–543.
  33. "AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation". Inside Tech Media (in English). 2020-01-14. Retrieved 2020-03-25.
  34. कार्यकारी विभागों और एजेंसियों के प्रमुखों के लिए ज्ञापन (PDF). Washington, D.C.: White House Office of Science and Technology Policy. 2020.
  35. U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools (PDF). National Institute of Science and Technology. 2019.
  36. कांग्रेस के लिए NSCAI अंतरिम रिपोर्ट. The National Security Commission on Artificial Intelligence. 2019.
  37. AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense (PDF). Washington, DC: Defense Innovation Board. 2020.
  38. Goodman, Bryce; Flaxman, Seth (2017-10-02). "एल्गोरिदमिक निर्णय लेने पर यूरोपीय संघ विनियम और "स्पष्टीकरण का अधिकार"". AI Magazine (in English). 38 (3): 50–57. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741. ISSN 2371-9621. S2CID 7373959.
  39. Baum, Seth (2018-09-30). "अधीक्षण गलत सूचना का मुकाबला करना". Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.
  40. Stefanik, Elise M. (2018-05-22). "H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018". www.congress.gov. Retrieved 2020-03-13.
  41. "राजमार्ग कोड - परिचय - मार्गदर्शन - GOV.UK". www.gov.uk (in English). Retrieved 2022-11-30.
  42. "दुनिया को एआई पर अधिकारों के विधेयक की आवश्यकता क्यों है". Financial Times. 2021-10-18. Retrieved 2023-03-19.
  43. "ब्लॉकचैन एसोसिएशन ऑफ आयरलैंड द्वारा हाल ही में जारी एक रिपोर्ट में पाया गया है कि जब जीडीपीआर की बात आती है तो जवाब से ज्यादा कई सवाल हैं". siliconrepublic.com. 23 November 2017. Archived from the original on 5 March 2018. Retrieved 5 March 2018.
  44. "ब्लॉकचैन और सामान्य डेटा संरक्षण विनियम - थिंक टैंक". www.europarl.europa.eu (in Deutsch). Retrieved 28 March 2020.
  45. Makhovsky, Andrei (December 22, 2017). "बेलारूस विदेशी निवेशकों को लुभाने के लिए क्रिप्टो-मुद्रा कानून अपनाता है". Reuters.
  46. "बेलारूस क्रिप्टो अर्थव्यवस्था हितधारकों के लिए अद्वितीय कानूनी ढांचा बनाता है" (PDF). Deloitte. December 27, 2017.
  47. Patricolo, Claudia (December 26, 2017). "बेलारूस में आईसीटी को भारी बढ़ावा मिला". Emerging Europe.
  48. Levi, Stuart; Lipton, Alex; Vasile, Christina (2020). "Blockchain Laws and Regulations | 13 Legal issues surrounding the use of smart contracts | GLI". GLI - Global Legal InsightsInternational legal business solutions (in English). Retrieved 21 April 2020.
  49. <रेफरी नाम = ट्रेलेवन 32–40 />
  50. Asimov, Isaac (1950). "Runaround". मैं रोबोट (in English) (The Isaac Asimov Collection ed.). New York City: Doubleday. p. 40. ISBN 978-0-385-42304-5. This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law.
  51. Herbert, Frank (1969). दून मसीहा.
  52. Herbert, Frank (1965). "Terminology of the Imperium: JIHAD, BUTLERIAN". ड्यून. Philadelphia, Chilton Books.