कंप्यूटर गो

कंप्यूटर गो कृत्रिम बुद्धिमत्ता (एआई) का क्षेत्र है जो कंप्यूटर प्रोग्राम बनाने के लिए समर्पित है जो पारंपरिक  विशेष प्रकार के बोर्ड या पट्टे के खेल जैसे शतरंज, साँप सीढ़ी आदि   जाओ (बोर्ड गेम)  खेलता है। यह क्षेत्र स्पष्ट रूप से दो युगों में विभाजित है। 2015 से पहले उस दौर के कार्यक्रम कमजोर थे. 1980 और 1990 के दशक के सर्वोत्तम प्रयासों से केवल ऐसे AI उत्पन्न हुए जिन्हें शुरुआती लोगों द्वारा हराया जा सकता था, और 2000 के दशक की शुरुआत के AI सर्वोत्तम रूप से मध्यवर्ती स्तर के थे। एआई के पक्ष में 10+ पत्थरों की बाधाएं होने पर भी पेशेवर इन कार्यक्रमों को हरा सकते हैं। अल्फा-बीटा प्रूनिंग | अल्फा-बीटा मिनिमैक्स जैसे कई एल्गोरिदम, जो चेकर्स और शतरंज के लिए एआई के रूप में अच्छा प्रदर्शन करते थे, गो के 19x19 बोर्ड पर विफल हो गए, क्योंकि विचार करने के लिए बहुत अधिक ब्रांचिंग संभावनाएं थीं। उस समय की तकनीकों और हार्डवेयर के साथ मानव पेशेवर गुणवत्ता कार्यक्रम का निर्माण पहुंच से बाहर था। कुछ एआई शोधकर्ताओं ने अनुमान लगाया कि कृत्रिम सामान्य बुद्धि|मानव-जैसी एआई के निर्माण के बिना समस्या का समाधान नहीं किया जा सकता है।

गो एल्गोरिदम में मोंटे कार्लो वृक्ष खोज  के अनुप्रयोग ने 2000 के दशक के अंत में  उल्लेखनीय सुधार प्रदान किया, जिसके साथ कार्यक्रम अंततः जाओ रैंक और रेटिंग प्राप्त करने में सक्षम हुए | निम्न-डैन स्तर:  उन्नत शौकिया का। हाई-डैन के शौकीन और पेशेवर अभी भी इन कार्यक्रमों की कमजोरियों का फायदा उठा सकते हैं और लगातार जीत सकते हैं, लेकिन कंप्यूटर का प्रदर्शन मध्यवर्ती (ल-अंक क्यू) स्तर से आगे बढ़ गया है। बिना किसी बाधा के सर्वश्रेष्ठ मानव खिलाड़ियों को हराने का अपूरित लक्ष्य, जिसे लंबे समय से अप्राप्य माना जाता था, ने नए सिरे से दिलचस्पी पैदा की। मुख्य अंतर्दृष्टि  यंत्र अधिगम  और गहन शिक्षण का अनुप्रयोग साबित हुई। डीपमाइंड,  Google अधिग्रहण जो AI अनुसंधान के लिए समर्पित है, ने 2015 में AlphaGo का निर्माण किया और 2016 में दुनिया के सामने इसकी घोषणा की। 2016 में  नो-हैंडीकैप मैच में AlphaGo बनाम ली सेडोल,  9 डैन पेशेवर, फिर AlphaGo बनाम के जी, जो टाइम लगातार दो वर्षों तक विश्व की नंबर 1 रैंकिंग पर रहा। इंग्लिश_ड्राफ्ट्स#कंप्यूटर_प्लेयर्स और डीप ब्लू बनाम गैरी कास्परोव की तरह, कंप्यूटर प्रोग्राम ने अंततः 2016-2017 में मानवता के महानतम गो चैंपियन को जीत लिया। डीपमाइंड ने अल्फ़ागो को सार्वजनिक उपयोग के लिए जारी नहीं किया, लेकिन डीपमाइंड द्वारा अल्फ़ागो और उसके वेरिएंट का वर्णन करते हुए जारी किए गए जर्नल लेखों के आधार पर विभिन्न कार्यक्रम बनाए गए हैं।

सिंहावलोकन और इतिहास
पेशेवर गो खिलाड़ी खेल को अंतर्ज्ञान, रचनात्मक और रणनीतिक सोच की आवश्यकता के रूप में देखते हैं। इसे लंबे समय से कृत्रिम बुद्धिमत्ता (एआई) के क्षेत्र में  कठिन चुनौती माना जाता रहा है और शतरंज की तुलना में इसे हल करना काफी कठिन है। इस क्षेत्र के कई लोगों का मानना ​​है कि गो को शतरंज की तुलना में मानवीय विचारों की नकल करने वाले अधिक तत्वों की आवश्यकता है। गणितज्ञ आई. जे. गुड ने 1965 में लिखा:

"Go on a computer? – In order to programme a computer to play a reasonable game of Go, rather than merely a legal game – it is necessary to formalise the principles of good strategy, or to design a learning programme. The principles are more qualitative and mysterious than in chess, and depend more on judgment. So I think it will be even more difficult to programme a computer to play a reasonable game of Go than of chess."

2015 से पहले, सर्वश्रेष्ठ गो कार्यक्रम केवल गो रैंक और रेटिंग#क्यू और डैन रैंक स्तर तक पहुंचने में कामयाब रहे। छोटे 9×9 बोर्ड पर, कंप्यूटर ने बेहतर प्रदर्शन किया, और कुछ प्रोग्राम पेशेवर खिलाड़ियों के खिलाफ अपने 9×9 गेम का  अंश जीतने में कामयाब रहे। अल्फ़ागो से पहले, कुछ शोधकर्ताओं ने दावा किया था कि कंप्यूटर गो में शीर्ष मनुष्यों को कभी नहीं हरा पाएंगे।

प्रारंभिक दशक
पहला गो प्रोग्राम अल्बर्ट लिंडसे ज़ोब्रिस्ट द्वारा 1968 में पैटर्न पहचान पर उनकी थीसिस के हिस्से के रूप में लिखा गया था। इसने क्षेत्र का अनुमान लगाने के लिए प्रभाव फ़ंक्शन (सांख्यिकी) और को नियम का पता लगाने के लिए ज़ोब्रिस्ट हैशिंग की शुरुआत की।

अप्रैल 1981 में, जोनाथन के मिलन ने बाइट (पत्रिका) में लेख प्रकाशित किया, जिसमें 15x15 बोर्ड के साथ  गो प्रोग्राम वैली पर चर्चा की गई, जो KIM-1 माइक्रो कंप्यूटर के 1K रैम के भीतर फिट होता है। ब्रूस एफ. वेबस्टर ने नवंबर 1984 में पत्रिका में लेख प्रकाशित किया था जिसमें मैकफोर्थ स्रोत सहित एप्पल मैकिंटोश के लिए लिखे गए गो प्रोग्राम पर चर्चा की गई थी। गो के कार्यक्रम कमज़ोर थे; 1983 के  लेख में अनुमान लगाया गया था कि वे अधिकतम 20 क्यू के बराबर थे, जो  अनुभवहीन नौसिखिए खिलाड़ी की रेटिंग है, और अक्सर खुद को छोटे बोर्डों तक ही सीमित रखते थे। हार्डवेयर में पर्याप्त सुधार के बाद, 2003 में 19x19 आकार के बोर्ड पर IGS गो सर्वर | इंटरनेट गो सर्वर (IGS) पर खेलने वाले AI की ताकत लगभग 20-15 kyu थी। 1998 में, बहुत मजबूत खिलाड़ी 25-30 पत्थरों की बाधा देकर कंप्यूटर प्रोग्राम को हराने में सक्षम थे, बड़ी बाधा जो कुछ मानव खिलाड़ियों ने कभी भी झेली होगी। 1994 विश्व कंप्यूटर गो चैंपियनशिप में  मामला था जहां विजेता कार्यक्रम, गो इंटेलेक्ट, 15-स्टोन हैंडीकैप प्राप्त करते हुए युवा खिलाड़ियों के खिलाफ सभी तीन गेम हार गया था। सामान्य तौर पर, जो खिलाड़ी किसी कार्यक्रम की कमजोरियों को समझते हैं और उनका फायदा उठाते हैं, वे बड़ी बाधाओं के बावजूद भी जीत सकते हैं।

2007-2014: मोंटे कार्लो वृक्ष खोज

2006 में (2007 में प्रकाशित लेख के साथ), रेमी कूलॉम ने  नया एल्गोरिदम तैयार किया जिसे उन्होंने मोंटे कार्लो ट्री सर्च कहा। इसमें, हमेशा की तरह संभावित भविष्य का  गेम ट्री बनाया जाता है जो हर चाल के साथ शाखा देता है। हालाँकि, कंप्यूटर बार-बार यादृच्छिक प्लेआउट (अन्य समस्याओं के लिए मोंटे कार्लो विधि रणनीतियों के समान) द्वारा पेड़ के  टर्मिनल पत्ते को स्कोर करते हैं। फायदा यह है कि ऐसे यादृच्छिक प्लेआउट बहुत जल्दी किए जा सकते हैं। सहज आपत्ति - कि यादृच्छिक प्लेआउट किसी स्थिति के वास्तविक मूल्य के अनुरूप नहीं हैं - प्रक्रिया के लिए उतनी घातक नहीं निकली जितनी अपेक्षित थी; एल्गोरिदम के वृक्ष खोज पक्ष को भविष्य के उचित खेल वृक्षों को खोजने के लिए पर्याप्त रूप से ठीक किया गया है। इस पद्धति पर आधारित MoGo और Fuego जैसे कार्यक्रमों में पहले के क्लासिक AI की तुलना में बेहतर प्रदर्शन देखा गया। सबसे अच्छे प्रोग्राम विशेष रूप से छोटे 9x9 बोर्ड पर अच्छा प्रदर्शन कर सकते हैं, जिसमें तलाशने की संभावनाएं कम होती हैं। 2009 में, पहला ऐसा प्रोग्राम सामने आया जो 19x19 बोर्ड पर केजीएस गो सर्वर पर निम्न गो रैंक और रेटिंग|डैन-स्तर रैंक तक पहुंच सकता था और उसे बनाए रख सकता था।

2010 में, फ़िनलैंड में 2010 यूरोपीय गो कांग्रेस में, MogoTW ने कैटालिन तारनु (5p) के विरुद्ध 19x19 गो खेला। MogoTW को सात-पत्थर की बाधा प्राप्त हुई और उसने जीत हासिल की। 2011 में, ज़ेन (सॉफ़्टवेयर) प्रति चाल 15 सेकंड के गेम खेलकर, सर्वर केजीएस पर 5 डैन तक पहुंच गया। जो खाता उस रैंक तक पहुंच गया वह 26-कोर मशीन पर चलने वाले ज़ेन के क्लस्टर संस्करण का उपयोग करता है। 2012 में, ज़ेन ने मसाकी ताकेमिया (9पी) को फाइव स्टोन्स हैंडीकैप में 11 अंकों से हराया, इसके बाद फोर स्टोन्स हैंडीकैप में 20 अंकों की जीत हासिल की। 2013 में, क्रेजी स्टोन (सॉफ्टवेयर) ने फोर स्टोन्स हैंडीकैप में 19×19 गेम में योशियो इशिदा (9पी) को हराया। 2014 कोडसेंट्रिक गो चैलेंज, सम 19x19 गेम में सर्वश्रेष्ठ पांच मैच, क्रेज़ी स्टोन और फ्रांज-जोज़ेफ़ डिकहुट (6 डी) के बीच खेला गया था। इससे पहले कोई भी मजबूत खिलाड़ी समान शर्तों पर गो कार्यक्रम के खिलाफ गंभीर प्रतियोगिता खेलने के लिए सहमत नहीं हुआ था। फ्रांज-जोज़ेफ़ डिकहुत ने जीत हासिल की, हालांकि क्रेज़ी स्टोन ने पहला मैच 1.5 अंकों से जीता।

2015 के बाद: गहन शिक्षण युग

Google DeepMind द्वारा विकसित AlphaGo, पिछले Go प्रोग्राम की तुलना में कंप्यूटर की ताकत में महत्वपूर्ण प्रगति थी। इसमें ऐसी तकनीकों का उपयोग किया गया जो गहन शिक्षण और मोंटे कार्लो वृक्ष खोज को जोड़ती हैं। अक्टूबर 2015 में, इसने यूरोपीय गो चैंपियन  प्रशंसक हुई  को टूर्नामेंट की परिस्थितियों में पांच में से पांच बार हराया। मार्च 2016 में, अल्फ़ागो ने पांच में से पहले तीन मैचों में ली सेडोल को हराया। यह पहली बार था कि 9-डैन मास्टर ने बिना किसी बाधा के कंप्यूटर के विरुद्ध पेशेवर गेम खेला था। चौथे मैच में ली ने अपनी जीत को अमूल्य बताते हुए जीत हासिल की. अल्फ़ागो ने दो दिन बाद फ़ाइनल मैच जीत लिया। इस जीत के साथ, अल्फ़ागो पूर्ण आकार के बोर्ड पर बिना किसी बाधा वाले गेम में 9 डैन मानव पेशेवर को हराने वाला पहला प्रोग्राम बन गया।

मई 2017 में, अल्फ़ागो ने के जिए  को हराया, जो उस समय दुनिया में शीर्ष स्थान पर थे।  गो समिट का भविष्य के दौरान अल्फ़ागो बनाम के जी|तीन-गेम मैच में। अक्टूबर 2017 में, डीपमाइंड ने अल्फ़ागो का नया संस्करण पेश किया, जिसे केवल सेल्फ प्ले के माध्यम से प्रशिक्षित किया गया था, जिसने 100 खेलों में से 89 में के जी संस्करण को पछाड़ते हुए सभी पिछले संस्करणों को पीछे छोड़ दिया था। अल्फ़ागो के बुनियादी सिद्धांत नेचर जर्नल में प्रकाशित होने के बाद, अन्य टीमें उच्च-स्तरीय कार्यक्रम तैयार करने में सक्षम हो गई हैं। गो एआई पर काम में बड़े पैमाने पर अल्फ़ागो के निर्माण के लिए उपयोग की जाने वाली तकनीकों का अनुकरण शामिल है, जो बाकी सभी चीज़ों की तुलना में बहुत अधिक मजबूत साबित हुई। 2017 तक, ज़ेन (सॉफ़्टवेयर) और Tencent  के प्रोजेक्ट फाइन आर्ट (सॉफ़्टवेयर) दोनों कुछ समय के लिए बहुत उच्च-स्तरीय पेशेवरों को हराने में सक्षम थे। ओपन सोर्स लीला शून्य इंजन भी बनाया गया था।

क्लासिक एआई के लिए रणनीति और प्रदर्शन की चुनौतियाँ
लंबे समय तक, यह व्यापक रूप से माना जाता था कि कंप्यूटर गो कंप्यूटर शतरंज से मौलिक रूप से भिन्न समस्या उत्पन्न करता है। कई लोगों ने मजबूत गो-प्लेइंग कार्यक्रम पर विचार किया जिसे सामान्य कृत्रिम बुद्धिमत्ता प्रौद्योगिकी में मूलभूत प्रगति के परिणामस्वरूप केवल सुदूर भविष्य में ही हासिल किया जा सकता है। जिन लोगों ने समस्या को व्यवहार्य समझा, उनका मानना ​​था कि मानव विशेषज्ञों के विरुद्ध प्रभावी होने के लिए डोमेन ज्ञान की आवश्यकता होगी। इसलिए, कंप्यूटर गो विकास प्रयास का  बड़ा हिस्सा उस समय के दौरान मानव-जैसे विशेषज्ञ ज्ञान का प्रतिनिधित्व करने और सामरिक प्रकृति के सवालों के जवाब देने के लिए इसे स्थानीय खोज के साथ संयोजित करने पर केंद्रित था। इसका परिणाम ऐसे प्रोग्राम थे जिन्होंने कई विशिष्ट स्थितियों को अच्छी तरह से संभाला लेकिन खेल के समग्र संचालन में उनकी कमजोरियाँ बहुत स्पष्ट थीं। इसके अलावा, इन शास्त्रीय कार्यक्रमों को उपलब्ध कंप्यूटिंग शक्ति में वृद्धि से लगभग कुछ भी हासिल नहीं हुआ। क्षेत्र में प्रगति आम तौर पर धीमी थी।

बड़े बोर्ड (19×19, 361 चौराहे) को अक्सर प्राथमिक कारणों में से के रूप में जाना जाता है कि  मजबूत कार्यक्रम बनाना कठिन क्यों है। बड़े बोर्ड का आकार अल्फा-बीटा प्रूनिंग|अल्फा-बीटा खोजकर्ता को महत्वपूर्ण खोज ्सटेंशन या प्रूनिंग (निर्णय वृक्ष) अनुमान के बिना गहराई से आगे देखने से रोकता है।
 * बोर्ड का आकार

2002 में, MIGOS (MIni GO सॉल्वर) नामक कंप्यूटर प्रोग्राम ने 5×5 बोर्ड के लिए गो गेम को पूरी तरह से हल कर दिया। ब्लैक जीतता है, पूरे बोर्ड पर कब्ज़ा कर लेता है। शतरंज से तुलना जारी रखते हुए, गो चालें खेल के नियमों द्वारा सीमित नहीं हैं। शतरंज में पहली चाल के लिए खिलाड़ी के पास बीस विकल्प होते हैं। गो खिलाड़ी समरूपता को ध्यान में रखते हुए 55 अलग-अलग कानूनी चालों के विकल्प के साथ शुरुआत करते हैं। समरूपता टूटने पर यह संख्या तेज़ी से बढ़ती है, और जल्द ही बोर्ड के लगभग सभी 361 बिंदुओं का मूल्यांकन किया जाना चाहिए।
 * स्थानांतरण विकल्पों की संख्या

खेल में सबसे बुनियादी कार्यों में से बोर्ड की स्थिति का आकलन करना है: किस पक्ष का पक्ष लिया जाता है, और कितना? शतरंज में, पेड़ में भविष्य की कई स्थितियाँ  पक्ष के लिए सीधी जीत होती हैं, और बोर्डों के पास सरल सामग्री गिनती में मूल्यांकन के लिए  उचित अनुमान होता है, साथ ही प्यादे की संरचना जैसे कुछ निश्चित कारक भी होते हैं। ऐसा भविष्य जहां  पक्ष ने बिना किसी लाभ के अपनी रानी को खो दिया है, वह स्पष्ट रूप से दूसरे पक्ष के पक्ष में है। इस प्रकार के स्थितिगत मूल्यांकन नियमों को गो पर कुशलतापूर्वक लागू नहीं किया जा सकता है। गो स्थिति का मूल्य यह निर्धारित करने के लिए  जटिल विश्लेषण पर निर्भर करता है कि समूह जीवित है या नहीं, कौन से पत्थरों को  दूसरे से जोड़ा जा सकता है, और  मजबूत स्थिति का किस हद तक प्रभाव है, या किस हद तक कमजोर स्थिति का अनुमान है। स्थिति पर हमला किया जा सकता है. रखे गए पत्थर का तत्काल प्रभाव नहीं हो सकता है, लेकिन कई कदमों के बाद पूर्व-निरीक्षण में अत्यधिक महत्वपूर्ण हो सकता है क्योंकि बोर्ड के अन्य क्षेत्र आकार लेते हैं।
 * मूल्यांकन समारोह

बोर्ड राज्यों के खराब मूल्यांकन के कारण एआई को उन पदों की ओर काम करना पड़ेगा जो गलत तरीके से मानते हैं कि वे इसके पक्ष में हैं, लेकिन वास्तव में ऐसा नहीं है।

गो खिलाड़ी के लिए मुख्य चिंताओं में से यह है कि पत्थरों के किन समूहों को जीवित रखा जा सकता है और किसे पकड़ा जा सकता है। समस्याओं के इस सामान्य वर्ग को जीवन और मृत्यु के रूप में जाना जाता है। ज्ञान-आधारित एआई सिस्टम ने कभी-कभी बोर्ड पर समूहों के जीवन और मृत्यु की स्थिति को समझने का प्रयास किया। सबसे सीधा तरीका उन चालों पर पेड़ की खोज करना है जो संभावित रूप से संबंधित पत्थरों को प्रभावित करते हैं, और फिर खेल की मुख्य पंक्ति के अंत में पत्थरों की स्थिति को रिकॉर्ड करना है। हालाँकि, समय और स्मृति बाधाओं के भीतर, पूरी सटीकता के साथ यह निर्धारित करना आम तौर पर संभव नहीं है कि कौन सी चाल पत्थरों के समूह के 'जीवन' को प्रभावित कर सकती है। इसका तात्पर्य यह है कि किन कदमों पर विचार करना है, इसका चयन करने के लिए कुछ अनुमान लागू किया जाना चाहिए। कुल प्रभाव यह है कि किसी भी कार्यक्रम के लिए, खेलने की गति और जीवन और मृत्यु पढ़ने की क्षमताओं के बीच  व्यापार-बंद होता है।
 * जीवन और मृत्यु

राज्य का प्रतिनिधित्व
मुद्दा जिससे सभी गो कार्यक्रमों को निपटना चाहिए वह यह है कि खेल की वर्तमान स्थिति का प्रतिनिधित्व कैसे किया जाए। बोर्ड का प्रतिनिधित्व करने का सबसे सीधा तरीका  या दो-आयामी सरणी के रूप में है, जहां सरणी में तत्व बोर्ड पर बिंदुओं का प्रतिनिधित्व करते हैं, और  सफेद पत्थर,  काले पत्थर या  खाली चौराहे के अनुरूप मान ले सकते हैं।. यह संग्रहीत करने के लिए अतिरिक्त डेटा की आवश्यकता है कि कितने पत्थरों पर कब्जा कर लिया गया है, किसकी बारी है, और को नियम के कारण कौन से चौराहे अवैध हैं। सामान्य तौर पर, मशीन लर्निंग प्रोग्राम इस सरलतम रूप में रुक जाते हैं और ऑर्गेनिक एआई को बोर्ड के अर्थ की अपनी समझ में आने देते हैं, संभवतः किसी खिलाड़ी के लिए बोर्ड को अच्छा या बुरा स्कोर करने के लिए मोंटे कार्लो प्लेआउट का उपयोग करते हैं। हालांकि, क्लासिक एआई कार्यक्रम जो सीधे मानव की रणनीति को मॉडल करने का प्रयास करते हैं, आगे बढ़ सकते हैं, जैसे कि डेटा पर परतें जैसे कि मृत माने जाने वाले पत्थर, बिना शर्त जीवित पत्थर, आपसी जीवन की सेकी अवस्था में पत्थर, इत्यादि। खेल की स्थिति का प्रतिनिधित्व.

सिस्टम डिज़ाइन
ऐतिहासिक रूप से, गो एआई की समस्या से निपटने के लिए प्रतीकात्मक कृत्रिम बुद्धिमत्ता तकनीकों का उपयोग किया गया है। 2000 के दशक में कृत्रिम तंत्रिका नेटवर्क को वैकल्पिक दृष्टिकोण के रूप में आज़माया जाने लगा, क्योंकि उन्हें अत्यधिक कंप्यूटिंग शक्ति की आवश्यकता थी जो कि पहले के दशकों में पहुँचना महंगा से असंभव था। ये दृष्टिकोण उच्च शाखा कारक वाले गो गेम की समस्याओं और कई अन्य कठिनाइयों को कम करने का प्रयास करते हैं।

किसी कार्यक्रम को मात्र विकल्प यह चुनना होता है कि अपना अगला पत्थर कहाँ रखा जाए। हालाँकि, यह निर्णय पत्थर के पूरे बोर्ड पर पड़ने वाले प्रभावों की विस्तृत श्रृंखला और विभिन्न पत्थरों के समूहों की  दूसरे के साथ होने वाली जटिल अंतःक्रियाओं के कारण कठिन हो जाता है। इस समस्या से निपटने के लिए विभिन्न वास्तुकलाएँ सामने आई हैं। लोकप्रिय तकनीकों और डिज़ाइन दर्शन में शामिल हैं:
 * वृक्ष खोज का कुछ रूप,
 * पैटर्न मिलान और ज्ञान-आधारित प्रणाली,
 * मोंटे कार्लो विधियों का अनुप्रयोग,
 * मशीन लर्निंग का उपयोग.

अल्पमहिष्ठ ट्री सर्च
गेम प्लेइंग सॉफ़्टवेयर बनाने के लिए प्रतीकात्मक एआई तकनीक मिनिमैक्स ट्री सर्च का उपयोग करना है। इसमें  निश्चित बिंदु तक बोर्ड पर सभी काल्पनिक चालें चलाना, फिर वर्तमान खिलाड़ी के लिए उस स्थिति के मूल्य का अनुमान लगाने के लिए  मूल्यांकन फ़ंक्शन का उपयोग करना शामिल है। सर्वोत्तम काल्पनिक बोर्ड की ओर ले जाने वाली चाल का चयन किया जाता है, और प्रक्रिया प्रत्येक मोड़ पर दोहराई जाती है। जबकि कंप्यूटर शतरंज में पेड़ की खोज बहुत प्रभावी रही है, उन्हें कंप्यूटर गो कार्यक्रमों में कम सफलता मिली है। यह आंशिक रूप से इसलिए है क्योंकि परंपरागत रूप से गो बोर्ड के लिए  प्रभावी मूल्यांकन फ़ंक्शन बनाना कठिन रहा है, और आंशिक रूप से क्योंकि प्रत्येक पक्ष द्वारा बड़ी संख्या में संभावित चालें उच्च शाखा कारक की ओर ले जा सकती हैं। इससे यह तकनीक कम्प्यूटेशनल रूप से बहुत महंगी हो जाती है। इस वजह से, कई प्रोग्राम जो बड़े पैमाने पर सर्च ट्री का उपयोग करते हैं, वे पूरे 19×19 बोर्ड के बजाय केवल छोटे 9×9 बोर्ड पर ही चल सकते हैं।

ऐसी कई तकनीकें हैं, जो गति और मेमोरी दोनों के संदर्भ में खोज पेड़ों के प्रदर्शन में काफी सुधार कर सकती हैं। अल्फा-बीटा प्रूनिंग, प्रमुख विविधता खोज  और एमटीडी(एफ) (एफ) जैसी प्रूनिंग तकनीकें ताकत के नुकसान के बिना प्रभावी शाखा कारक को कम कर सकती हैं। जीवन और मृत्यु जैसे सामरिक क्षेत्रों में, गो विशेष रूप से स्थानान्तरण तालिका जैसी कैशिंग तकनीकों के लिए उत्तरदायी है। ये बार-बार किए जाने वाले प्रयास की मात्रा को कम कर सकते हैं, खासकर जब इसे पुनरावृत्तीय गहनता दृष्टिकोण के साथ जोड़ा जाए। ट्रांसपोज़िशन टेबल में  पूर्ण आकार के गो बोर्ड को तुरंत संग्रहीत करने के लिए, गणितीय रूप से सारांशित करने के लिए  हैश फंकशन तकनीक आम तौर पर आवश्यक होती है। ज़ोब्रिस्ट हैशिंग गो कार्यक्रमों में बहुत लोकप्रिय है क्योंकि इसमें टकराव की दर कम है, और स्क्रैच से गणना करने के बजाय इसे केवल दो ्सओआर के साथ प्रत्येक चाल पर पुनरावृत्त रूप से अपडेट किया जा सकता है। इन प्रदर्शन-बढ़ाने वाली तकनीकों का उपयोग करते हुए भी, पूर्ण आकार के बोर्ड पर पूर्ण वृक्ष खोज अभी भी बेहद धीमी है। बड़ी मात्रा में डोमेन विशिष्ट प्रूनिंग तकनीकों का उपयोग करके खोजों को तेज किया जा सकता है, जैसे कि उन चालों पर विचार न करना जहां आपका प्रतिद्वंद्वी पहले से ही मजबूत है, और चयनात्मक ्सटेंशन जैसे हमेशा पत्थरों के समूहों के आगे की चालों पर विचार करना जो गो शब्द #अटारी हैं। हालाँकि, ये दोनों विकल्प  महत्वपूर्ण कदम पर विचार न करने का  महत्वपूर्ण जोखिम पेश करते हैं जिसने खेल के पाठ्यक्रम को बदल दिया होगा।

कंप्यूटर प्रतियोगिताओं के नतीजे बताते हैं कि तेजी से स्थानीयकृत सामरिक खोजों (ऊपर समझाया गया) के साथ संयुक्त उचित चालों को चुनने के लिए पैटर्न मिलान तकनीक प्रतिस्पर्धी कार्यक्रम तैयार करने के लिए पर्याप्त थीं। उदाहरण के लिए, जीएनयू गो 2008 तक प्रतिस्पर्धी था।

ज्ञान-आधारित प्रणालियाँ
मानव नौसिखिया अक्सर मास्टर खिलाड़ियों द्वारा खेले गए पुराने खेलों के खेल रिकॉर्ड से सीखते हैं। 1990 के दशक में एआई कार्य में अक्सर गो ज्ञान के एआई मानव-शैली के अनुमान सिखाने का प्रयास शामिल होता था। 1996 में, टिम क्लिंगर और डेविड मेचनर ने सर्वश्रेष्ठ एआई की शुरुआती स्तर की ताकत को स्वीकार किया और तर्क दिया कि यह हमारा विश्वास है कि गो ज्ञान का प्रतिनिधित्व करने और बनाए रखने के लिए बेहतर उपकरणों के साथ, मजबूत गो कार्यक्रमों को विकसित करना संभव होगा। उन्होंने दो तरीके प्रस्तावित किए: पत्थरों के सामान्य विन्यास और उनकी स्थिति को पहचानना और स्थानीय लड़ाइयों पर ध्यान केंद्रित करना। 2001 में, पेपर ने निष्कर्ष निकाला कि गो कार्यक्रमों में अभी भी ज्ञान की गुणवत्ता और मात्रा दोनों की कमी है, और इसे ठीक करने से गो एआई प्रदर्शन में सुधार होगा।

सिद्धांत रूप में, विशेषज्ञ ज्ञान के उपयोग से गो सॉफ़्टवेयर में सुधार होगा। मजबूत खेल के लिए सैकड़ों दिशानिर्देश और सामान्य नियम उच्च-स्तरीय शौकीनों और पेशेवरों दोनों द्वारा तैयार किए गए हैं। प्रोग्रामर का कार्य इन अनुमानों को लेना, उन्हें कंप्यूटर कोड में औपचारिक रूप देना और इन नियमों के लागू होने पर पहचानने के लिए पैटर्न मिलान और पैटर्न पहचान एल्गोरिदम का उपयोग करना है। इन अनुमानों को स्कोर करने में सक्षम होना भी महत्वपूर्ण है ताकि जब वे परस्पर विरोधी सलाह दें, तो सिस्टम के पास यह निर्धारित करने के तरीके हों कि कौन सा अनुमान अधिक महत्वपूर्ण है और स्थिति पर लागू होता है। अधिकांश अपेक्षाकृत सफल परिणाम गो में प्रोग्रामर के व्यक्तिगत कौशल और गो के बारे में उनके व्यक्तिगत अनुमानों से आते हैं, लेकिन औपचारिक गणितीय दावों से नहीं; वे कंप्यूटर को गो खेलने के तरीके की नकल बनाने की कोशिश कर रहे हैं। 2001 के आसपास के प्रतिस्पर्धी कार्यक्रमों में 50-100 मॉड्यूल शामिल हो सकते हैं जो खेल के विभिन्न पहलुओं और रणनीतियों से निपटते हैं, जैसे कि जोसेकी।

कार्यक्रमों के कुछ उदाहरण जो विशेषज्ञ ज्ञान पर बहुत अधिक निर्भर हैं, वे हैं हैंडटॉक (जिसे बाद में गोएमेट के नाम से जाना गया), द मेनी फेसेस ऑफ गो, गो इंटेलेक्ट और गो++, जिनमें से प्रत्येक को किसी समय दुनिया का सबसे अच्छा गो प्रोग्राम माना गया है। हालाँकि, इन तरीकों से अंततः कम रिटर्न मिला, और वास्तव में पूर्ण आकार के बोर्ड पर कभी भी मध्यवर्ती स्तर से आगे नहीं बढ़ पाया।  विशेष समस्या समग्र खेल रणनीति थी। भले ही  विशेषज्ञ प्रणाली  पैटर्न को पहचानती है और जानती है कि स्थानीय झड़प को कैसे खेलना है, यह भविष्य में उभरती  गहरी रणनीतिक समस्या से चूक सकती है। परिणाम  ऐसा कार्यक्रम है जिसकी ताकत उसके भागों के योग से कम है; जबकि चालें व्यक्तिगत सामरिक आधार पर अच्छी हो सकती हैं, कार्यक्रम को धोखा दिया जा सकता है और बदले में बहुत अधिक देने के लिए चालाकी की जा सकती है, और खुद को समग्र रूप से खोने की स्थिति में पाया जा सकता है। जैसा कि 2001 के सर्वेक्षण में कहा गया था, केवल  बुरा कदम  अच्छे खेल को बर्बाद कर सकता है। पूरे गेम में प्रोग्राम का प्रदर्शन मास्टर स्तर से काफी कम हो सकता है।

मोंटे-कार्लो विधियाँ

हाथ से कोडित ज्ञान और खोजों का उपयोग करने का प्रमुख विकल्प मोंटे कार्लो विधियों का उपयोग है। यह संभावित चालों की  सूची तैयार करके और प्रत्येक चाल के लिए परिणामी बोर्ड पर यादृच्छिक रूप से हजारों गेम खेलकर किया जाता है। वह चाल जो वर्तमान खिलाड़ी के लिए यादृच्छिक खेलों के सर्वोत्तम सेट की ओर ले जाती है, उसे सर्वश्रेष्ठ चाल के रूप में चुना जाता है। किसी संभावित रूप से त्रुटिपूर्ण ज्ञान-आधारित प्रणाली की आवश्यकता नहीं है। हालाँकि, क्योंकि मूल्यांकन के लिए उपयोग की जाने वाली चालें यादृच्छिक रूप से उत्पन्न होती हैं, इसलिए यह संभव है कि  चाल जो  विशिष्ट प्रतिद्वंद्वी प्रतिक्रिया को छोड़कर उत्कृष्ट होगी, उसे गलती से  अच्छी चाल के रूप में मूल्यांकन किया जाएगा। इसका परिणाम ऐसे कार्यक्रम हैं जो समग्र रणनीतिक दृष्टि से मजबूत हैं, लेकिन सामरिक रूप से अपूर्ण हैं। मूव जनरेशन में कुछ डोमेन ज्ञान और यादृच्छिक विकास के शीर्ष पर खोज की गहराई का  बड़ा स्तर जोड़कर इस समस्या को कम किया जा सकता है। कुछ प्रोग्राम जो मोंटे-कार्लो तकनीकों का उपयोग करते हैं वे हैं फ़्यूगो, गो v12 के कई चेहरे, लीला, मोगो, क्रेजी स्टोन (सॉफ्टवेयर), MyGoFriend, और ज़ेन.

2006 में, नई खोज तकनीक, पेड़ों पर लागू ऊपरी आत्मविश्वास सीमा (यूसीटी), इसे उत्कृष्ट परिणामों के साथ कई 9x9 मोंटे-कार्लो गो कार्यक्रमों में विकसित और लागू किया गया था। यूसीटी खेल की अधिक सफल लाइनों के साथ खोज को निर्देशित करने के लिए अब तक त्र किए गए प्ले आउट के परिणामों का उपयोग करता है, जबकि अभी भी वैकल्पिक लाइनों का पता लगाने की अनुमति देता है। बड़े 19x19 बोर्ड पर खेलने के लिए कई अन्य अनुकूलन के साथ यूसीटी तकनीक ने MoGo को सबसे मजबूत अनुसंधान कार्यक्रमों में से  बना दिया है। 19x19 गो में यूसीटी विधियों के सफल प्रारंभिक अनुप्रयोगों में मोगो, क्रेज़ी स्टोन और मैंगो शामिल हैं। MoGo ने 2007 कंप्यूटर ओलंपियाड जीता और बहुत कम जटिल 9x9 गो में गुओ जुआन, 5वें डैन प्रो के खिलाफ  (तीन में से) ब्लिट्ज गेम जीता। गो के कई चेहरे अपने पारंपरिक ज्ञान-आधारित इंजन में यूसीटी खोज को जोड़ने के बाद 2008 कंप्यूटर ओलंपियाड जीता।

मोंटे-कार्लो आधारित गो इंजनों की प्रतिष्ठा है कि वे मानव खिलाड़ियों की तुलना में टेनुकी खेलने के लिए अधिक इच्छुक हैं, स्थानीय लड़ाई जारी रखने के बजाय बोर्ड पर कहीं और चलते हैं। इन कार्यक्रमों के अस्तित्व की शुरुआत में इसे अक्सर कमजोरी के रूप में देखा जाता था। जैसा कि कहा गया है, यह प्रवृत्ति प्रमुख परिणामों के साथ अल्फ़ागो की खेल शैली में बनी हुई है, इसलिए यह कमजोरी से अधिक विचित्रता हो सकती है।

मशीन लर्निंग

ज्ञान-आधारित प्रणालियों का कौशल स्तर उनके प्रोग्रामर और संबंधित डोमेन विशेषज्ञों के ज्ञान से निकटता से जुड़ा हुआ है। इस सीमा ने वास्तव में मजबूत एआई को प्रोग्राम करना कठिन बना दिया है। मशीन लर्निंग तकनीकों का उपयोग करना अलग रास्ता है। इनमें, केवल  चीज जिसे प्रोग्रामर्स को प्रोग्राम करने की आवश्यकता होती है वह है किसी पद के मूल्य का विश्लेषण करने के नियम और सरल स्कोरिंग एल्गोरिदम। इसके बाद सॉफ्टवेयर स्वचालित रूप से सिद्धांत रूप में पैटर्न, अनुमान और रणनीतियों की अपनी समझ उत्पन्न करेगा।

यह आम तौर पर कृत्रिम तंत्रिका नेटवर्क या आनुवंशिक एल्गोरिदम को पेशेवर खेलों के  बड़े डेटाबेस की समीक्षा करने, या स्वयं या अन्य लोगों या कार्यक्रमों के खिलाफ कई गेम खेलने की अनुमति देकर किया जाता है। ये एल्गोरिदम तब इस डेटा का उपयोग अपने प्रदर्शन को बेहतर बनाने के साधन के रूप में करने में सक्षम होते हैं। मशीन लर्निंग तकनीकों का उपयोग कम महत्वाकांक्षी संदर्भ में कार्यक्रमों के विशिष्ट मापदंडों को ट्यून करने के लिए भी किया जा सकता है जो मुख्य रूप से अन्य तकनीकों पर निर्भर होते हैं। उदाहरण के लिए, क्रेजी स्टोन (सॉफ्टवेयर) एलो रेटिंग प्रणाली के सामान्यीकरण का उपयोग करके कई सौ नमूना खेलों से चाल पीढ़ी पैटर्न सीखता है। इस दृष्टिकोण का सबसे प्रसिद्ध उदाहरण अल्फ़ागो है, जो पिछले एआई की तुलना में कहीं अधिक प्रभावी साबित हुआ है। इसके पहले संस्करण में, इसकी परत थी जिसने आगे के विश्लेषण के योग्य प्राथमिकता देने के लिए संभावित चालों को निर्धारित करने के लिए लाखों मौजूदा स्थितियों का विश्लेषण किया था, और दूसरी परत जिसने पहली परत से सुझाए गए संभावित चालों का उपयोग करके अपनी जीत की संभावनाओं को अनुकूलित करने का प्रयास किया था। अल्फ़ागो ने परिणामी स्थिति प्राप्त करने के लिए मोंटे कार्लो ट्री खोज का उपयोग किया। अल्फ़ागो के बाद के संस्करण, अल्फ़ागोज़ीरो ने मौजूदा गो गेम से सीखना छोड़ दिया, और इसके बजाय केवल बार-बार खेलने से ही सीखा। तंत्रिका जाल का उपयोग करने वाले अन्य पुराने कार्यक्रमों में न्यूरोगो और विनहोंटे शामिल हैं।

कंप्यूटर गो और अन्य फ़ील्ड
कंप्यूटर गो अनुसंधान परिणाम अन्य समान क्षेत्रों जैसे संज्ञानात्मक विज्ञान, पैटर्न पहचान और मशीन लर्निंग पर लागू किए जा रहे हैं। कॉम्बिनेटोरियल गेम थ्योरी, अनुप्रयुक्त गणित की शाखा, कंप्यूटर गो के लिए प्रासंगिक विषय है। जॉन एच. कॉनवे ने गो में एंडगेम के विश्लेषण के लिए असली संख्याओं को लागू करने का सुझाव दिया। इस विचार को एल्विन आर. बर्लेकैंप और डेविड वोल्फ (गणितज्ञ) ने अपनी पुस्तक मैथमैटिकल गो में और विकसित किया है। गो एंडगेम्स को पीएसपीएसीई-कठिन साबित किया गया है, यदि पूर्ण सर्वोत्तम चाल की गणना मनमाने ढंग से अधिकतर भरे हुए बोर्ड पर की जानी चाहिए। ट्रिपल को, क्वाड्रपल को, मोलासेस को और मूनशाइन लाइफ जैसी कुछ जटिल परिस्थितियाँ इस समस्या को कठिन बना देती हैं। (व्यवहार में, मजबूत मोंटे कार्लो एल्गोरिदम अभी भी सामान्य गो एंडगेम स्थितियों को काफी अच्छी तरह से संभाल सकते हैं, और जीवन और मृत्यु एंडगेम समस्याओं की सबसे जटिल कक्षाएं उच्च-स्तरीय गेम में आने की संभावना नहीं है।) विभिन्न कठिन संयोजक समस्याओं (किसी भी एनपी कठिन  समस्या) को पर्याप्त बड़े बोर्ड पर गो-जैसी समस्याओं में परिवर्तित किया जा सकता है; हालाँकि, शतरंज और माइनस्वीपर (वीडियो गेम) सहित अन्य अमूर्त बोर्ड गेम के लिए भी यही सच है, जब मनमाने आकार के बोर्ड के लिए उपयुक्त रूप से सामान्यीकृत किया जाता है। एनपी-पूर्ण समस्याएँ अपने सामान्य मामले में उपयुक्त रूप से प्रोग्राम किए गए कंप्यूटरों की तुलना में बिना सहायता प्राप्त मनुष्यों के लिए आसान नहीं होती हैं: बिना सहायता प्राप्त मनुष्य हल करने में कंप्यूटर की तुलना में बहुत खराब हैं, उदाहरण के लिए, सबसेट योग समस्या के उदाहरण।

गो-प्लेइंग कंप्यूटर प्रोग्राम की सूची

 * अल्फ़ागो, Google DeepMind द्वारा मशीन लर्निंग प्रोग्राम, और 9-डैन ह्यूमन गो प्लेयर के विरुद्ध नो-हैंडीकैप मैचों में जीतने वाला पहला कंप्यूटर प्रोग्राम
 * बडुजीआई, जोयॉन्ग ली का कार्यक्रम
 * क्रेजी स्टोन (सॉफ्टवेयर), रेमी कूलॉम द्वारा (जापान में सैक्यो नो इगो के रूप में बेचा गया)
 * अंधकारमय जंगल, फेसबुक द्वारा
 * ललित कला (सॉफ्टवेयर), Tencent द्वारा
 * फ़्यूगो, खुला स्रोत सॉफ्टवेयर मोंटे कार्लो प्रोग्राम * गोबन, सेन:टे द्वारा  मैकिंटोश गो प्रोग्राम (मुफ्त गोबन ्सटेंशन की आवश्यकता है)
 * जीएनयू गो, खुला स्रोत शास्त्रीय गो कार्यक्रम
 * काटागो, डेविड वू द्वारा।
 * लीला (सॉफ्टवेयर), जनता के लिए बिक्री के लिए पहला मोंटे कार्लो कार्यक्रम * लीला ज़ीरो, अल्फ़ागो ज़ीरो पेपर में वर्णित प्रणाली का पुनः कार्यान्वयन * द मेनी फेसेस ऑफ गो, डेविड फ़ोटलैंड द्वारा (जापान में एआई इगो के रूप में बेचा गया) * MyGoFriend, फ्रैंक कार्गर का कार्यक्रम * सिल्वेन जेली द्वारा MoGo; कई लोगों द्वारा समानांतर संस्करण। * पाची, पेट्र बॉडिश द्वारा  खुला स्रोत मोंटे कार्लो कार्यक्रम
 * स्मार्ट गेम प्रारूप के आविष्कारक एंडर्स कीरल्फ़ द्वारा स्मार्ट गो
 * स्टोन ईटर, एरिक वैन डेर वेर्फ़ द्वारा
 * ज़ेन, योजी ओजिमा अकायामातो द्वारा (जापान में टेनचो नो इगोइन के रूप में बेचा गया);

कंप्यूटर गो कार्यक्रमों के बीच प्रतिस्पर्धा
गो कंप्यूटर प्रोग्रामों के बीच कई वार्षिक प्रतियोगिताएं होती हैं, जिनमें कंप्यूटर ओलंपियाड में गो कार्यक्रम भी शामिल हैं। केजीएस गो सर्वर पर कार्यक्रमों के बीच नियमित, कम औपचारिक प्रतियोगिताएं होती थीं (मासिक) और कंप्यूटर गो सर्वर (निरंतर)।

कई प्रोग्राम उपलब्ध हैं जो कंप्यूटर गो इंजनों को -दूसरे के विरुद्ध खेलने की अनुमति देते हैं; वे लगभग हमेशा गो टेक्स्ट प्रोटोकॉल (जीटीपी) के माध्यम से संचार करते हैं।

इतिहास
पहली कंप्यूटर गो प्रतियोगिता बलूत का फल द्वारा प्रायोजित थी, और USENIX द्वारा पहला नियमित। वे 1984 से 1988 तक चले। इन प्रतियोगिताओं में नेमेसिस, ब्रूस विलकॉक्स का पहला प्रतिस्पर्धी गो कार्यक्रम और डेविड फोटलैंड द्वारा जी2.5 पेश किया गया, जो बाद में कॉसमॉस और द मेनी फेसेस ऑफ गो में विकसित हुआ।

कंप्यूटर गो अनुसंधान के शुरुआती चालकों में से इंग पुरस्कार था, जो ताइवानी बैंकर  चांग-की में  द्वारा प्रायोजित  अपेक्षाकृत बड़ा धन पुरस्कार था, जो 1985 और 2000 के बीच विश्व कंप्यूटर गो कांग्रेस (या इंग कप) में सालाना पेश किया जाता था। इस टूर्नामेंट के विजेता को  छोटे मैच में युवा खिलाड़ियों को चुनौती देने की अनुमति दी गई थी। यदि कंप्यूटर मैच जीत जाता है, तो पुरस्कार दिया जाता था और  नए पुरस्कार की घोषणा की जाती थी: कम बाधा वाले खिलाड़ियों को हराने के लिए  बड़ा पुरस्कार। आईएनजी पुरस्कारों की श्रृंखला या तो 1) वर्ष 2000 में समाप्त होने वाली थी या 2) जब कोई कार्यक्रम 40,000,000  नया ताइवान डॉलर  के लिए बिना किसी बाधा के 1-डैन पेशेवर को हरा सकता था। आखिरी विजेता 1997 में हैंडटॉक था, जिसने तीन 11-13 साल के शौकिया 2-6 डैन के खिलाफ 11-स्टोन हैंडीकैप मैच जीतने के लिए 250,000 एनटी डॉलर का दावा किया था। 2000 में पुरस्कार समाप्त होने के समय, नौ-स्टोन हैंडीकैप मैच जीतने के लिए लावारिस पुरस्कार 400,000 एनटी डॉलर था। कई अन्य बड़े क्षेत्रीय गो टूर्नामेंट (कांग्रेस) में संलग्न कंप्यूटर गो इवेंट था। यूरोपीय गो कांग्रेस ने 1987 से  कंप्यूटर टूर्नामेंट को प्रायोजित किया है, और USENIX कार्यक्रम यूएस/उत्तरी अमेरिकी कंप्यूटर गो चैम्पियनशिप में विकसित हुआ, जो 1988-2000 तक यूएस गो कांग्रेस में प्रतिवर्ष आयोजित किया जाता था।

जापान ने 1995 में कंप्यूटर गो प्रतियोगिताओं को प्रायोजित करना शुरू किया। FOST कप 1995 से 1999 तक प्रतिवर्ष टोक्यो में आयोजित किया जाता था। उस टूर्नामेंट को गिफू चैलेंज द्वारा प्रतिस्थापित कर दिया गया था, जो 2003 से 2006 तक ओगाकी, गिफू में प्रतिवर्ष आयोजित किया जाता था। कंप्यूटर गो यूईसी कप 2007 से प्रतिवर्ष आयोजित किया जाता है।

कंप्यूटर-कंप्यूटर गेम में स्कोरिंग औपचारिकता
जब दो कंप्यूटर -दूसरे के विरुद्ध गेम खेलते हैं, तो आदर्श यह है कि वास्तविक मनुष्यों के किसी भी हस्तक्षेप से बचते हुए गेम को दो इंसानों के समान तरीके से खेला जाए। हालाँकि, गेम के अंत में स्कोरिंग के दौरान यह मुश्किल हो सकता है। मुख्य समस्या यह है कि गो प्लेइंग सॉफ़्टवेयर, जो आमतौर पर मानकीकृत गो टेक्स्ट प्रोटोकॉल (जीटीपी) का उपयोग करके संचार करता है, हमेशा पत्थरों की जीवित या मृत स्थिति के संबंध में सहमत नहीं होगा।

हालाँकि दो अलग-अलग कार्यक्रमों के लिए इस पर बात करने और संघर्ष को हल करने का कोई सामान्य तरीका नहीं है, फिर भी अधिकांशतः इस समस्या को रूल्स ऑफ गो#चाइनीज रूल्स, रूल्स ऑफ गो#बेसिक रूल्स|ट्रॉम्प-टेलर, या अमेरिकन गो का उपयोग करके टाला जाता है। एसोसिएशन (एजीए) के नियम जिसमें बोर्ड पर किसी भी पत्थर की स्थिति पर कोई और असहमति न होने तक खेल जारी रखना (दंड के बिना) आवश्यक है। व्यवहार में, जैसे कि केजीएस गो सर्वर पर, सर्वर दो क्लाइंट प्रोग्रामों को विशेष जीटीपी कमांड भेजकर विवाद में मध्यस्थता कर सकता है, जो यह दर्शाता है कि उन्हें तब तक पत्थर लगाना जारी रखना चाहिए जब तक कि किसी विशेष समूह (सभी मृत पत्थर) की स्थिति के बारे में कोई सवाल न हो पकड़ लिया गया है)। सीजीओएस गो सर्वर आमतौर पर प्रोग्राम को गेम के स्कोरिंग चरण तक पहुंचने से पहले ही रिजाइन कर देता है, लेकिन फिर भी ट्रॉम्प-टेलर नियमों के  संशोधित संस्करण का समर्थन करता है जिसके लिए पूर्ण प्ले आउट की आवश्यकता होती है।

इन नियम सेटों का मतलब है कि कार्यक्रम जो जापानी नियमों के तहत खेल के अंत में जीतने की स्थिति में था (जब दोनों खिलाड़ी पास हो गए) सैद्धांतिक रूप से रिज़ॉल्यूशन चरण में खराब खेल के कारण हार सकते थे, लेकिन यह बहुत ही असंभव है और इसे सामान्य माना जाता है सभी क्षेत्र नियम सेटों के अंतर्गत खेल का हिस्सा।

उपरोक्त प्रणाली का मुख्य दोष यह है कि गो#नियमसेट के कुछ नियम (जैसे कि पारंपरिक जापानी नियम) खिलाड़ियों को इन अतिरिक्त चालों के लिए दंडित करते हैं, जिससे दो कंप्यूटरों के लिए अतिरिक्त प्लेआउट का उपयोग बंद हो जाता है। फिर भी, अधिकांश आधुनिक गो प्रोग्राम मनुष्यों के विरुद्ध जापानी नियमों का समर्थन करते हैं।

ऐतिहासिक रूप से, इस समस्या को हल करने का अन्य तरीका अंतिम बोर्ड में  विशेषज्ञ मानव न्यायाधीश को नियुक्त करना था। हालाँकि, यह परिणामों में व्यक्तिपरकता का परिचय देता है और जोखिम यह है कि विशेषज्ञ कार्यक्रम में देखी गई किसी चीज़ को चूक जाएगा।

यह भी देखें

 * कंप्यूटर शतरंज
 * कंप्यूटर ओथेलो
 * कंप्यूटर शोगी
 * टेक्स्ट प्रोटोकॉल पर जाएं

अग्रिम पठन

 * Co-Evolving a Go-Playing Neural Network, written by Alex Lubberts & Risto Miikkulainen, 2001
 * Computer Game Playing: Theory and Practice, edited by M.A. Brauner (The Ellis Horwood Series in Artificial Intelligence), Halstead Press, 1983. A collection of computer Go articles. The American Go Journal, vol. 18, No 4. page 6. [ISSN 0148-0243]
 * A Machine-Learning Approach to Computer Go, Jeffrey Bagdis, 2007.
 * Minimalism in Ubiquitous Interface Design Wren, C. and Reynolds, C. (2004) Personal and Ubiquitous Computing, 8(5), pages 370–374. Video of computer Go vision system in operation shows interaction and users exploring Joseki and Fuseki.
 * Monte-Carlo Go, presented by Markus Enzenberger, Computer Go Seminar, University of Alberta, April 2004
 * Monte-Carlo Go, written by B. Bouzy and B. Helmstetter from Scientific Literature Digital Library
 * Static analysis of life and death in the game of Go, written by Ken Chen & Zhixing Chen, 20 February 1999
 * article describing the techniques underlying Mogo

बाहरी संबंध

 * Extensive list of computer Go events
 * All systems Go by David A. Mechner (1998), discusses the game where professional Go player Janice Kim won a game against program Handtalk after giving a 25-stone handicap.
 * Computer Go and Computer Go Programming pages at Sensei's Library
 * Computer Go bibliography
 * Another Computer Go Bibliography
 * Computer Go mailing list
 * Published articles about computer Go on Ideosphere gives current estimate of whether a Go program will be best player in the world
 * Information on the Go Text Protocol commonly used for interfacing Go playing engines with graphical clients and internet servers
 * The Computer Go Room on the K Go Server (KGS) for online discussion and running "bots"
 * Two Representative Computer Go Games, an article about two computer Go games played in 1999, one with two computers players, and the other a 29-stone handicap human-computer game
 * What A Way to Go describes work at Microsoft Research on building a computer Go player.
 * Cracking Go by Feng-hsiung Hsu, IEEE Spectrum magazine (October 2007) – Why it should be possible to build a Go machine stronger than any human player
 * computer-go-dataset, SGF datasets of 1,645,958 games