कंप्यूटर गो

कंप्यूटर गो आर्टिफिशियल इंटेलिजेंस (एआई) का क्षेत्र है जो कंप्यूटर प्रोग्राम बनाने के लिए समर्पित है तथा पारंपरिक विशेष प्रकार का बोर्ड गेम गो प्ले करता है। यह क्षेत्र स्पष्ट रूप से दो युगों में विभाजित है। 2015 से पूर्व उस समय के प्रोग्राम वीक थे। 1980 और 1990 के दशक के सर्वोत्तम प्रयासों से केवल ऐसे एआई उत्पन्न हुए जिन्हें प्रारंभिक व्यक्तियों द्वारा पराजित किया जा सकता था, और 2000 के दशक के प्रारम्भ के एआई सर्वोत्तम रूप से मध्यवर्ती स्तर के थे। एआई के पक्ष में 10+ स्टोन्स की बाधाएं होने पर भी प्रोफेशनल्स इन प्रोग्राम्स को डिफीट कर सकते हैं। अल्फा-बीटा मिनिमैक्स जैसे कई एल्गोरिदम, जो चेकर्स और चैस के लिए एआई के रूप में उत्तम प्रदर्शन करते थे, गो के 19x19 बोर्ड पर विफल हो गए, क्योंकि विचार करने के लिए अधिक ब्रांचिंग संभावनाएं थीं। उस समय की तकनीकों और हार्डवेयर के साथ ह्यूमन प्रोफेशनल क्वालिटी प्रोग्राम का निर्माण पहुंच से बाहर था। कुछ एआई शोधकर्ताओं ने अनुमान लगाया कि आर्टिफिशियल जनरल इंटेलिजेंस के निर्माण के बिना प्रॉब्लम को सॉल्व नहीं किया जा सकता है।

गो एल्गोरिदम में मोंटे कार्लो ट्री सर्च के एप्लीकेशन ने 2000 के दशक के उत्तरार्ध में उल्लेखनीय संशोधन प्रदान किया, जिसके साथ प्रोग्राम अंततः एडवांस्ड ऐमटर के गो रैंक और रेटिंग्स को प्राप्त करने में सक्षम हुए। हाई-डैन के ऐमटर्स और प्रोफेशनल्स अभी भी इन प्रोग्रामों की वीकनेस का लाभ प्राप्त कर सकते हैं और निरंतर विजय प्राप्त कर सकते हैं, किन्तु कंप्यूटर का प्रदर्शन मध्यवर्ती (एकल-अंक क्यू) स्तर से उन्नत हो गया है। अधिक समय से अप्राप्य माने जाने वाले सर्वश्रेष्ठ ह्यूमन प्लेयर्स को बिना किसी हैंडीकैप के डिफीट करने के अपूर्ण लक्ष्य ने नए सिरे से रूचि उत्पन्न की। मुख्य इनसाइट मशीन लर्निंग और डीप लर्निंग के एप्लीकेशन सिद्ध हुए। डीपमाइंड, गूगल अधिग्रहण है जो एआई अनुसंधान के लिए समर्पित है, जिसने 2015 में अल्फ़ागो का उत्पादन किया और 2016 में संसार के समक्ष इसकी घोषणा की। अल्फ़ागो ने 2016 में नो-हैंडीकैप मैच में 9 डैन प्रोफेशनल ली सेडोल को डिफीट किया, तत्पश्चात 2017 में के जी को डिफीट किया, जो उस समय निरंतर दो वर्षों तक विश्व नंबर 1 रैंकिंग पर अधिकारी थे। जिस प्रकार 1995 में चेकर्स और 1997 में चैस मशीनों से पराजित हो गए थे, उसी प्रकार कंप्यूटर प्रोग्राम ने अंततः 2016-2017 में मानवता के ग्रेट गो चैंपियन को प्राप्त कर लिया था। डीपमाइंड ने अल्फ़ागो को सार्वजनिक उपयोग के लिए प्रस्तावित नहीं किया, किन्तु डीपमाइंड द्वारा अल्फ़ागो और उसके वेरिएंट का वर्णन करते हुए प्रस्तावित किए गए जर्नल लेखों के आधार पर विभिन्न प्रोग्राम बनाए गए हैं।

अवलोकन और इतिहास
प्रोफेशनल गो प्लेयर गेम को अंतर्ज्ञान, रचनात्मक और रणनीतिक विचार की आवश्यकता के रूप में देखते हैं। इसे अधिक समय से आर्टिफिशियल इंटेलिजेंस (एआई) के क्षेत्र में समष्टि चैलेंज माना जाता रहा है और चैस के सादृश्य में इसे सॉल्व करना अत्यंत कठिन होता है। इस क्षेत्र के कई व्यक्तियों का मानना ​​है कि गो को चैस के सादृश्य में मानवीय विचारों की प्रतिकृति करने वाले अधिक एलिमेंट्स की आवश्यकता होती है। गणितज्ञ आई. जे. गुड ने 1965 में लिखा:

"कंप्यूटर पर गो?- कंप्यूटर को केवल लीगल गेम के अतिरिक्त गो का उचित गेम प्ले करने के लिए तथा प्रोग्राम करने के लिए, उत्तम रणनीति के सिद्धांतों को औपचारिक बनाना, या लर्निंग प्रोग्राम डिजाइन करना आवश्यक है। चैस के सादृश्य में सिद्धांत अधिक गुणात्मक और रहस्यमय हैं, और निर्णय पर अधिक निर्भर करते हैं। इसलिए मुझे लगता है कि चैस के सादृश्य में गो का उचित गेम प्ले करने के लिए कंप्यूटर को प्रोग्राम करना और भी कठिन होगा।"

2015 से पूर्व, सर्वश्रेष्ठ गो प्रोग्राम केवल गो रैंक और रेटिंग स्तर तक पहुंचने में सफल रहे। छोटे 9×9 बोर्ड पर, कंप्यूटर ने श्रेष्ठ प्रदर्शन किया, और कुछ प्रोग्राम प्रोफेशनल प्लेयर्स के विरुद्ध अपने 9×9 गेम का अंश प्राप्त करने में सफल रहे। अल्फ़ागो से पूर्व, कुछ शोधकर्ताओं ने आशय किया था कि कंप्यूटर गो में शीर्ष मनुष्यों को कभी डिफीट नहीं कर पाएंगे।

प्रारंभिक दशक
प्रथम गो प्रोग्राम अल्बर्ट लिंडसे ज़ोब्रिस्ट द्वारा 1968 में पैटर्न रिकग्निशन पर उनकी थीसिस के अंश के रूप में लिखा गया था। इसने क्षेत्र का अनुमान लगाने के लिए प्रभाव फ़ंक्शन (सांख्यिकी) और गो नियम को ज्ञात करने के लिए ज़ोब्रिस्ट हैशिंग को प्रारम्भ किया था।

अप्रैल 1981 में, जोनाथन के मिलन ने बाइट (पत्रिका) में लेख प्रकाशित किया, जिसमें 15x15 बोर्ड के साथ गो प्रोग्राम वैली पर विचार किया गया, जो KIM-1 माइक्रो कंप्यूटर के 1K रैम के भीतर फिट होता है। ब्रूस एफ. वेबस्टर ने नवंबर 1984 में पत्रिका में लेख प्रकाशित किया था जिसमें मैकफोर्थ सोर्स सहित एप्पल मैकिंटोश के लिए लिखे गए गो प्रोग्राम पर विचार किया गया था। गो के प्रोग्राम वीक थे; 1983 के लेख में अनुमान लगाया गया था कि वे अधिकतम 20 क्यू के समान थे, जो अनुभवहीन नोविस प्लेयर की रेटिंग है, और अधिकांशतः स्वयं को छोटे बोर्डों तक ही सीमित रखते थे। हार्डवेयर में पर्याप्त संशोधन के पश्चात, 2003 में 19x19 आकार के बोर्ड पर इंटरनेट गो सर्वर (आईजीएस) पर प्ले करने वाले एआई की स्ट्रेंथ लगभग 20-15 क्यू थी।

1998 में, स्ट्रांग प्लेयर्स 25-30 स्टोन्स का हैंडीकैप देकर कंप्यूटर प्रोग्राम को बीट करने में सक्षम थे, ऐसी बड़ी बाधा जो कुछ ह्यूमन प्लेयर्स ने कभी भी देखी होगी। 1994 विश्व कंप्यूटर गो चैंपियनशिप में यह स्थिति थी जहां विनिंग प्रोग्राम, गो इंटेलेक्ट, 15-स्टोन हैंडीकैप प्राप्त करते हुए युवा प्लयेरों के विरुद्ध सभी तीनों गेम में पराजित हो गया था। सामान्यतः, जो प्लयेर किसी प्रोग्राम की वीकनेस को समझते हैं और उनका लाभ प्राप्त करते हैं, वे बड़ी बाधाओं के पश्चात भी विजयी हो सकते हैं।

2007-2014: मोंटे कार्लो ट्री सर्च

2006 में (2007 में प्रकाशित लेख के साथ), रेमी कूलॉम ने नया एल्गोरिदम प्रस्तुत किया जिसे उन्होंने मोंटे कार्लो ट्री सर्च कहा। इसमें, सदैव की भाँति संभावित भविष्य का गेम ट्री बनाया जाता है जो प्रत्येक चाल के साथ ब्रांच देता है। यद्यपि, कंप्यूटर रिपीटेड रैंडम प्लेआउट (अन्य समस्याओं के लिए मोंटे कार्लो रणनीतियों के समान) द्वारा ट्री की टर्मिनल लीफ को स्कोर करते हैं। इससे लाभ यह है कि ऐसे रैंडम प्लेआउट अतिशीघ्र किए जा सकते हैं। सहज आपत्ति यह है कि रैंडम प्लेआउट किसी स्थिति के वास्तविक मूल्य के अनुरूप नहीं हैं तथा यह प्रक्रिया के लिए उतनी घातक नहीं निकली जितनी अपेक्षित थी; एल्गोरिदम के ट्री सर्च पक्ष को भविष्य के उचित गेम ट्री को फाइंड करने के लिए पर्याप्त रूप से व्यवस्थित किया गया है। इस पद्धति पर आधारित MoGo और Fuego जैसे प्रोग्रामों में पूर्व क्लासिक एआई के सादृश्य में श्रेष्ठ प्रदर्शन देखा गया है। सर्वश्रेष्ठ प्रोग्राम विशेष रूप से छोटे 9x9 बोर्ड पर उत्तम प्रदर्शन कर सकते हैं, जिसमें अन्वेषण करने की संभावनाएं कम होती हैं। 2009 में, प्रथम ऐसा प्रोग्राम आया जो 19x19 बोर्ड पर केजीएस गो सर्वर पर निम्न गो रैंक और रेटिंग्स तक पहुंच सकता था और उसे बनाए रख सकता था।

2010 में, फ़िनलैंड में 2010 यूरोपीय गो कांग्रेस में, मोगोटीडब्ल्यू ने कैटालिन तारनु (5p) के विरुद्ध 19x19 गो गेम प्ले किया था। मोगोटीडब्ल्यू को सेवेन-स्टोन का हैंडीकैप प्राप्त हुआ और जिससे उसकी विजय हुई।

2011 में, ज़ेन (सॉफ़्टवेयर) प्रति चाल 15 सेकंड के गेम को प्ले करके, सर्वर केजीएस पर 5 डैन तक पहुंच गया। जो अकाउंट उस रैंक तक पहुंच गया वह 26-कोर मशीन पर रन करने वाले ज़ेन के क्लस्टर संस्करण का उपयोग करता है।

2012 में, ज़ेन ने मसाकी ताकेमिया (9p) को फाइव स्टोन्स हैंडीकैप में 11 अंकों से बीट किया, इसके पश्चात फोर स्टोन्स हैंडीकैप में 20 अंकों से विजय प्राप्त की।

2013 में, क्रेजी स्टोन (सॉफ्टवेयर) ने फोर स्टोन्स हैंडीकैप में 19×19 गेम में योशियो इशिदा (9पी) को बीट किया।

2014 कोडसेंट्रिक गो चैलेंज, सम 19x19 गेम में सर्वश्रेष्ठ पांच मैच, क्रेज़ी स्टोन और फ्रांज-जोज़ेफ़ डिकहुट (6d) के मध्य खेला गया था। इससे पूर्व कोई भी स्ट्रांग प्लेयर समान स्थितियों पर गो प्रोग्राम के विरुद्ध गंभीर प्रतियोगिता खेलने के लिए सहमत नहीं हुआ था। फ्रांज-जोज़ेफ़ डिकहुत ने विजय प्राप्त की, यद्यपि क्रेज़ी स्टोन ने प्रथम मैच में 1.5 अंकों से विजय प्राप्त की थी।

2015 के बाद: गहन शिक्षण युग

गूगल DeepMind द्वारा विकसित AlphaGo, पिछले Go प्रोग्राम की तुलना में कंप्यूटर की ताकत में महत्वपूर्ण प्रगति थी। इसमें ऐसी तकनीकों का उपयोग किया गया जो गहन शिक्षण और मोंटे कार्लो ट्री सर्च को जोड़ती हैं। अक्टूबर 2015 में, इसने यूरोपीय गो चैंपियन प्रशंसक हुई को टूर्नामेंट की परिस्थितियों में पांच में से पांच बार हराया। मार्च 2016 में, अल्फ़ागो ने पांच में से पहले तीन मैचों में ली सेडोल को हराया। यह पहली बार था कि 9-डैन मास्टर ने बिना किसी बाधा के कंप्यूटर के विरुद्ध पेशेवर गेम खेला था। चौथे मैच में ली ने अपनी जीत को अमूल्य बताते हुए जीत हासिल की. अल्फ़ागो ने दो दिन बाद फ़ाइनल मैच जीत लिया। इस जीत के साथ, अल्फ़ागो पूर्ण आकार के बोर्ड पर बिना किसी बाधा वाले गेम में 9 डैन मानव पेशेवर को हराने वाला पहला प्रोग्राम बन गया।

मई 2017 में, अल्फ़ागो ने के जिए को हराया, जो उस समय दुनिया में शीर्ष स्थान पर थे। गो समिट का भविष्य के दौरान अल्फ़ागो बनाम के जी|तीन-गेम मैच में। अक्टूबर 2017 में, डीपमाइंड ने अल्फ़ागो का नया संस्करण पेश किया, जिसे केवल सेल्फ प्ले के माध्यम से प्रशिक्षित किया गया था, जिसने 100 खेलों में से 89 में के जी संस्करण को पछाड़ते हुए सभी पिछले संस्करणों को पीछे छोड़ दिया था। अल्फ़ागो के बुनियादी सिद्धांत नेचर जर्नल में प्रकाशित होने के बाद, अन्य टीमें उच्च-स्तरीय कार्यक्रम तैयार करने में सक्षम हो गई हैं। गो एआई पर काम में बड़े पैमाने पर अल्फ़ागो के निर्माण के लिए उपयोग की जाने वाली तकनीकों का अनुकरण शामिल है, जो बाकी सभी चीज़ों की तुलना में बहुत अधिक मजबूत साबित हुई। 2017 तक, ज़ेन (सॉफ़्टवेयर) और Tencent के प्रोजेक्ट फाइन आर्ट (सॉफ़्टवेयर) दोनों कुछ समय के लिए बहुत उच्च-स्तरीय पेशेवरों को हराने में सक्षम थे। ओपन सोर्स लीला शून्य इंजन भी बनाया गया था।

क्लासिक एआई के लिए रणनीति और प्रदर्शन की चुनौतियाँ
लंबे समय तक, यह व्यापक रूप से माना जाता था कि कंप्यूटर गो कंप्यूटर शतरंज से मौलिक रूप से भिन्न समस्या उत्पन्न करता है। कई लोगों ने मजबूत गो-प्लेइंग कार्यक्रम पर विचार किया जिसे सामान्य आर्टिफिशियल इंटेलिजेंस प्रौद्योगिकी में मूलभूत प्रगति के परिणामस्वरूप केवल सुदूर भविष्य में ही हासिल किया जा सकता है। जिन लोगों ने समस्या को व्यवहार्य समझा, उनका मानना ​​था कि मानव विशेषज्ञों के विरुद्ध प्रभावी होने के लिए डोमेन ज्ञान की आवश्यकता होगी। इसलिए, कंप्यूटर गो विकास प्रयास का बड़ा हिस्सा उस समय के दौरान मानव-जैसे विशेषज्ञ ज्ञान का प्रतिनिधित्व करने और सामरिक प्रकृति के सवालों के जवाब देने के लिए इसे स्थानीय खोज के साथ संयोजित करने पर केंद्रित था। इसका परिणाम ऐसे प्रोग्राम थे जिन्होंने कई विशिष्ट स्थितियों को अच्छी तरह से संभाला किन्तु खेल के समग्र संचालन में उनकी कमजोरियाँ बहुत स्पष्ट थीं। इसके अलावा, इन शास्त्रीय कार्यक्रमों को उपलब्ध कंप्यूटिंग शक्ति में वृद्धि से लगभग कुछ भी हासिल नहीं हुआ। क्षेत्र में प्रगति आम तौर पर धीमी थी।

बड़े बोर्ड (19×19, 361 चौराहे) को अक्सर प्राथमिक कारणों में से के रूप में जाना जाता है कि मजबूत कार्यक्रम बनाना कठिन क्यों है। बड़े बोर्ड का आकार अल्फा-बीटा प्रूनिंग|अल्फा-बीटा खोजकर्ता को महत्वपूर्ण खोज ्सटेंशन या प्रूनिंग (निर्णय वृक्ष) अनुमान के बिना गहराई से आगे देखने से रोकता है।
 * बोर्ड का आकार

2002 में, MIGOS (MIni GO सॉल्वर) नामक कंप्यूटर प्रोग्राम ने 5×5 बोर्ड के लिए गो गेम को पूरी तरह से हल कर दिया। ब्लैक जीतता है, पूरे बोर्ड पर कब्ज़ा कर लेता है। शतरंज से तुलना जारी रखते हुए, गो चालें खेल के नियमों द्वारा सीमित नहीं हैं। शतरंज में पहली चाल के लिए खिलाड़ी के पास बीस विकल्प होते हैं। गो खिलाड़ी समरूपता को ध्यान में रखते हुए 55 अलग-अलग कानूनी चालों के विकल्प के साथ शुरुआत करते हैं। समरूपता टूटने पर यह संख्या तेज़ी से बढ़ती है, और जल्द ही बोर्ड के लगभग सभी 361 बिंदुओं का मूल्यांकन किया जाना चाहिए।
 * स्थानांतरण विकल्पों की संख्या

खेल में सबसे बुनियादी कार्यों में से बोर्ड की स्थिति का आकलन करना है: किस पक्ष का पक्ष लिया जाता है, और कितना? शतरंज में, पेड़ में भविष्य की कई स्थितियाँ पक्ष के लिए सीधी जीत होती हैं, और बोर्डों के पास सरल सामग्री गिनती में मूल्यांकन के लिए उचित अनुमान होता है, साथ ही प्यादे की संरचना जैसे कुछ निश्चित कारक भी होते हैं। ऐसा भविष्य जहां पक्ष ने बिना किसी लाभ के अपनी रानी को खो दिया है, वह स्पष्ट रूप से दूसरे पक्ष के पक्ष में है। इस प्रकार के स्थितिगत मूल्यांकन नियमों को गो पर कुशलतापूर्वक लागू नहीं किया जा सकता है। गो स्थिति का मूल्य यह निर्धारित करने के लिए जटिल विश्लेषण पर निर्भर करता है कि समूह जीवित है या नहीं, कौन से पत्थरों को दूसरे से जोड़ा जा सकता है, और मजबूत स्थिति का किस हद तक प्रभाव है, या किस हद तक कमजोर स्थिति का अनुमान है। स्थिति पर हमला किया जा सकता है. रखे गए पत्थर का तत्काल प्रभाव नहीं हो सकता है, किन्तु कई कदमों के बाद पूर्व-निरीक्षण में अत्यधिक महत्वपूर्ण हो सकता है क्योंकि बोर्ड के अन्य क्षेत्र आकार लेते हैं।
 * मूल्यांकन समारोह

बोर्ड राज्यों के खराब मूल्यांकन के कारण एआई को उन पदों की ओर काम करना पड़ेगा जो गलत तरीके से मानते हैं कि वे इसके पक्ष में हैं, किन्तु वास्तव में ऐसा नहीं है।

गो खिलाड़ी के लिए मुख्य चिंताओं में से यह है कि पत्थरों के किन समूहों को जीवित रखा जा सकता है और किसे पकड़ा जा सकता है। समस्याओं के इस सामान्य वर्ग को जीवन और मृत्यु के रूप में जाना जाता है। ज्ञान-आधारित एआई सिस्टम ने कभी-कभी बोर्ड पर समूहों के जीवन और मृत्यु की स्थिति को समझने का प्रयास किया। सबसे सीधा तरीका उन चालों पर पेड़ की खोज करना है जो संभावित रूप से संबंधित पत्थरों को प्रभावित करते हैं, और फिर खेल की मुख्य पंक्ति के अंत में पत्थरों की स्थिति को रिकॉर्ड करना है। यद्यपि, समय और स्मृति बाधाओं के भीतर, पूरी सटीकता के साथ यह निर्धारित करना आम तौर पर संभव नहीं है कि कौन सी चाल पत्थरों के समूह के 'जीवन' को प्रभावित कर सकती है। इसका तात्पर्य यह है कि किन कदमों पर विचार करना है, इसका चयन करने के लिए कुछ अनुमान लागू किया जाना चाहिए। कुल प्रभाव यह है कि किसी भी कार्यक्रम के लिए, खेलने की गति और जीवन और मृत्यु पढ़ने की क्षमताओं के बीच व्यापार-बंद होता है।
 * जीवन और मृत्यु

राज्य का प्रतिनिधित्व
मुद्दा जिससे सभी गो कार्यक्रमों को निपटना चाहिए वह यह है कि खेल की वर्तमान स्थिति का प्रतिनिधित्व कैसे किया जाए। बोर्ड का प्रतिनिधित्व करने का सबसे सीधा तरीका या दो-आयामी सरणी के रूप में है, जहां सरणी में तत्व बोर्ड पर बिंदुओं का प्रतिनिधित्व करते हैं, और सफेद पत्थर, काले पत्थर या खाली चौराहे के अनुरूप मान ले सकते हैं।. यह संग्रहीत करने के लिए अतिरिक्त डेटा की आवश्यकता है कि कितने पत्थरों पर कब्जा कर लिया गया है, किसकी बारी है, और को नियम के कारण कौन से चौराहे अवैध हैं। सामान्यतः, मशीन लर्निंग प्रोग्राम इस सरलतम रूप में रुक जाते हैं और ऑर्गेनिक एआई को बोर्ड के अर्थ की अपनी समझ में आने देते हैं, संभवतः किसी खिलाड़ी के लिए बोर्ड को अच्छा या बुरा स्कोर करने के लिए मोंटे कार्लो प्लेआउट का उपयोग करते हैं। हालांकि, क्लासिक एआई कार्यक्रम जो सीधे मानव की रणनीति को मॉडल करने का प्रयास करते हैं, आगे बढ़ सकते हैं, जैसे कि डेटा पर परतें जैसे कि मृत माने जाने वाले पत्थर, बिना शर्त जीवित पत्थर, आपसी जीवन की सेकी अवस्था में पत्थर, इत्यादि। खेल की स्थिति का प्रतिनिधित्व.

सिस्टम डिज़ाइन
ऐतिहासिक रूप से, गो एआई की समस्या से निपटने के लिए प्रतीकात्मक आर्टिफिशियल इंटेलिजेंस तकनीकों का उपयोग किया गया है। 2000 के दशक में कृत्रिम तंत्रिका नेटवर्क को वैकल्पिक दृष्टिकोण के रूप में आज़माया जाने लगा, क्योंकि उन्हें अत्यधिक कंप्यूटिंग शक्ति की आवश्यकता थी जो कि पहले के दशकों में पहुँचना महंगा से असंभव था। ये दृष्टिकोण उच्च शाखा कारक वाले गो गेम की समस्याओं और कई अन्य कठिनाइयों को कम करने का प्रयास करते हैं।

किसी कार्यक्रम को मात्र विकल्प यह चुनना होता है कि अपना अगला पत्थर कहाँ रखा जाए। यद्यपि, यह निर्णय पत्थर के पूरे बोर्ड पर पड़ने वाले प्रभावों की विस्तृत श्रृंखला और विभिन्न पत्थरों के समूहों की दूसरे के साथ होने वाली जटिल अंतःक्रियाओं के कारण कठिन हो जाता है। इस समस्या से निपटने के लिए विभिन्न वास्तुकलाएँ सामने आई हैं। लोकप्रिय तकनीकों और डिज़ाइन दर्शन में शामिल हैं:
 * ट्री सर्च का कुछ रूप,
 * पैटर्न मिलान और ज्ञान-आधारित प्रणाली,
 * मोंटे कार्लो विधियों का अनुप्रयोग,
 * मशीन लर्निंग का उपयोग.

अल्पमहिष्ठ ट्री सर्च
गेम प्लेइंग सॉफ़्टवेयर बनाने के लिए प्रतीकात्मक एआई तकनीक मिनिमैक्स ट्री सर्च का उपयोग करना है। इसमें निश्चित बिंदु तक बोर्ड पर सभी काल्पनिक चालें चलाना, फिर वर्तमान खिलाड़ी के लिए उस स्थिति के मूल्य का अनुमान लगाने के लिए मूल्यांकन फ़ंक्शन का उपयोग करना शामिल है। सर्वोत्तम काल्पनिक बोर्ड की ओर ले जाने वाली चाल का चयन किया जाता है, और प्रक्रिया प्रत्येक मोड़ पर दोहराई जाती है। जबकि कंप्यूटर शतरंज में पेड़ की खोज बहुत प्रभावी रही है, उन्हें कंप्यूटर गो कार्यक्रमों में कम सफलता मिली है। यह आंशिक रूप से इसलिए है क्योंकि परंपरागत रूप से गो बोर्ड के लिए प्रभावी मूल्यांकन फ़ंक्शन बनाना कठिन रहा है, और आंशिक रूप से क्योंकि प्रत्येक पक्ष द्वारा बड़ी संख्या में संभावित चालें उच्च शाखा कारक की ओर ले जा सकती हैं। इससे यह तकनीक कम्प्यूटेशनल रूप से बहुत महंगी हो जाती है। इस वजह से, कई प्रोग्राम जो बड़े पैमाने पर सर्च ट्री का उपयोग करते हैं, वे पूरे 19×19 बोर्ड के बजाय केवल छोटे 9×9 बोर्ड पर ही चल सकते हैं।

ऐसी कई तकनीकें हैं, जो गति और मेमोरी दोनों के संदर्भ में खोज पेड़ों के प्रदर्शन में काफी सुधार कर सकती हैं। अल्फा-बीटा प्रूनिंग, प्रमुख विविधता खोज और एमटीडी(एफ) (एफ) जैसी प्रूनिंग तकनीकें ताकत के नुकसान के बिना प्रभावी शाखा कारक को कम कर सकती हैं। जीवन और मृत्यु जैसे सामरिक क्षेत्रों में, गो विशेष रूप से स्थानान्तरण तालिका जैसी कैशिंग तकनीकों के लिए उत्तरदायी है। ये बार-बार किए जाने वाले प्रयास की मात्रा को कम कर सकते हैं, खासकर जब इसे पुनरावृत्तीय गहनता दृष्टिकोण के साथ जोड़ा जाए। ट्रांसपोज़िशन टेबल में पूर्ण आकार के गो बोर्ड को तुरंत संग्रहीत करने के लिए, गणितीय रूप से सारांशित करने के लिए हैश फंकशन तकनीक आम तौर पर आवश्यक होती है। ज़ोब्रिस्ट हैशिंग गो कार्यक्रमों में बहुत लोकप्रिय है क्योंकि इसमें टकराव की दर कम है, और स्क्रैच से गणना करने के बजाय इसे केवल दो ्सओआर के साथ प्रत्येक चाल पर पुनरावृत्त रूप से अपडेट किया जा सकता है। इन प्रदर्शन-बढ़ाने वाली तकनीकों का उपयोग करते हुए भी, पूर्ण आकार के बोर्ड पर पूर्ण ट्री सर्च अभी भी बेहद धीमी है। बड़ी मात्रा में डोमेन विशिष्ट प्रूनिंग तकनीकों का उपयोग करके खोजों को तेज किया जा सकता है, जैसे कि उन चालों पर विचार न करना जहां आपका प्रतिद्वंद्वी पहले से ही मजबूत है, और चयनात्मक ्सटेंशन जैसे हमेशा पत्थरों के समूहों के आगे की चालों पर विचार करना जो गो शब्द #अटारी हैं। यद्यपि, ये दोनों विकल्प महत्वपूर्ण कदम पर विचार न करने का महत्वपूर्ण जोखिम पेश करते हैं जिसने खेल के पाठ्यक्रम को बदल दिया होगा।

कंप्यूटर प्रतियोगिताओं के नतीजे बताते हैं कि तेजी से स्थानीयकृत सामरिक खोजों (ऊपर समझाया गया) के साथ संयुक्त उचित चालों को चुनने के लिए पैटर्न मिलान तकनीक प्रतिस्पर्धी कार्यक्रम तैयार करने के लिए पर्याप्त थीं। उदाहरण के लिए, जीएनयू गो 2008 तक प्रतिस्पर्धी था।

ज्ञान-आधारित प्रणालियाँ
मानव नौसिखिया अक्सर मास्टर खिलाड़ियों द्वारा खेले गए पुराने खेलों के खेल रिकॉर्ड से सीखते हैं। 1990 के दशक में एआई कार्य में अक्सर गो ज्ञान के एआई मानव-शैली के अनुमान सिखाने का प्रयास शामिल होता था। 1996 में, टिम क्लिंगर और डेविड मेचनर ने सर्वश्रेष्ठ एआई की शुरुआती स्तर की ताकत को स्वीकार किया और तर्क दिया कि यह हमारा विश्वास है कि गो ज्ञान का प्रतिनिधित्व करने और बनाए रखने के लिए बेहतर उपकरणों के साथ, मजबूत गो कार्यक्रमों को विकसित करना संभव होगा। उन्होंने दो तरीके प्रस्तावित किए: पत्थरों के सामान्य विन्यास और उनकी स्थिति को पहचानना और स्थानीय लड़ाइयों पर ध्यान केंद्रित करना। 2001 में, पेपर ने निष्कर्ष निकाला कि गो कार्यक्रमों में अभी भी ज्ञान की गुणवत्ता और मात्रा दोनों की कमी है, और इसे ठीक करने से गो एआई प्रदर्शन में सुधार होगा।

सिद्धांत रूप में, विशेषज्ञ ज्ञान के उपयोग से गो सॉफ़्टवेयर में सुधार होगा। मजबूत खेल के लिए सैकड़ों दिशानिर्देश और सामान्य नियम उच्च-स्तरीय शौकीनों और पेशेवरों दोनों द्वारा तैयार किए गए हैं। प्रोग्रामर का कार्य इन अनुमानों को लेना, उन्हें कंप्यूटर कोड में औपचारिक रूप देना और इन नियमों के लागू होने पर पहचानने के लिए पैटर्न मिलान और पैटर्न पहचान एल्गोरिदम का उपयोग करना है। इन अनुमानों को स्कोर करने में सक्षम होना भी महत्वपूर्ण है ताकि जब वे परस्पर विरोधी सलाह दें, तो सिस्टम के पास यह निर्धारित करने के तरीके हों कि कौन सा अनुमान अधिक महत्वपूर्ण है और स्थिति पर लागू होता है। अधिकांश अपेक्षाकृत सफल परिणाम गो में प्रोग्रामर के व्यक्तिगत कौशल और गो के बारे में उनके व्यक्तिगत अनुमानों से आते हैं, किन्तु औपचारिक गणितीय दावों से नहीं; वे कंप्यूटर को गो खेलने के तरीके की नकल बनाने की कोशिश कर रहे हैं। 2001 के आसपास के प्रतिस्पर्धी कार्यक्रमों में 50-100 मॉड्यूल शामिल हो सकते हैं जो खेल के विभिन्न पहलुओं और रणनीतियों से निपटते हैं, जैसे कि जोसेकी।

कार्यक्रमों के कुछ उदाहरण जो विशेषज्ञ ज्ञान पर बहुत अधिक निर्भर हैं, वे हैं हैंडटॉक (जिसे बाद में गोएमेट के नाम से जाना गया), द मेनी फेसेस ऑफ गो, गो इंटेलेक्ट और गो++, जिनमें से प्रत्येक को किसी समय दुनिया का सबसे अच्छा गो प्रोग्राम माना गया है। यद्यपि, इन तरीकों से अंततः कम रिटर्न मिला, और वास्तव में पूर्ण आकार के बोर्ड पर कभी भी मध्यवर्ती स्तर से आगे नहीं बढ़ पाया। विशेष समस्या समग्र खेल रणनीति थी। भले ही विशेषज्ञ प्रणाली पैटर्न को पहचानती है और जानती है कि स्थानीय झड़प को कैसे खेलना है, यह भविष्य में उभरती गहरी रणनीतिक समस्या से चूक सकती है। परिणाम ऐसा कार्यक्रम है जिसकी ताकत उसके भागों के योग से कम है; जबकि चालें व्यक्तिगत सामरिक आधार पर अच्छी हो सकती हैं, कार्यक्रम को धोखा दिया जा सकता है और बदले में बहुत अधिक देने के लिए चालाकी की जा सकती है, और खुद को समग्र रूप से खोने की स्थिति में पाया जा सकता है। जैसा कि 2001 के सर्वेक्षण में कहा गया था, केवल बुरा कदम अच्छे खेल को बर्बाद कर सकता है। पूरे गेम में प्रोग्राम का प्रदर्शन मास्टर स्तर से काफी कम हो सकता है।

मोंटे-कार्लो विधियाँ

हाथ से कोडित ज्ञान और खोजों का उपयोग करने का प्रमुख विकल्प मोंटे कार्लो विधियों का उपयोग है। यह संभावित चालों की सूची तैयार करके और प्रत्येक चाल के लिए परिणामी बोर्ड पर रैंडम रूप से हजारों गेम खेलकर किया जाता है। वह चाल जो वर्तमान खिलाड़ी के लिए रैंडम खेलों के सर्वोत्तम सेट की ओर ले जाती है, उसे सर्वश्रेष्ठ चाल के रूप में चुना जाता है। किसी संभावित रूप से त्रुटिपूर्ण ज्ञान-आधारित प्रणाली की आवश्यकता नहीं है। यद्यपि, क्योंकि मूल्यांकन के लिए उपयोग की जाने वाली चालें रैंडम रूप से उत्पन्न होती हैं, इसलिए यह संभव है कि चाल जो विशिष्ट प्रतिद्वंद्वी प्रतिक्रिया को छोड़कर उत्कृष्ट होगी, उसे गलती से अच्छी चाल के रूप में मूल्यांकन किया जाएगा। इसका परिणाम ऐसे कार्यक्रम हैं जो समग्र रणनीतिक दृष्टि से मजबूत हैं, किन्तु सामरिक रूप से अपूर्ण हैं। मूव जनरेशन में कुछ डोमेन ज्ञान और रैंडम विकास के शीर्ष पर खोज की गहराई का बड़ा स्तर जोड़कर इस समस्या को कम किया जा सकता है। कुछ प्रोग्राम जो मोंटे-कार्लो तकनीकों का उपयोग करते हैं वे हैं फ़्यूगो, गो v12 के कई चेहरे, लीला, मोगो, क्रेजी स्टोन (सॉफ्टवेयर), MyGoFriend, और ज़ेन.

2006 में, नई खोज तकनीक, पेड़ों पर लागू ऊपरी आत्मविश्वास सीमा (यूसीटी), इसे उत्कृष्ट परिणामों के साथ कई 9x9 मोंटे-कार्लो गो कार्यक्रमों में विकसित और लागू किया गया था। यूसीटी खेल की अधिक सफल लाइनों के साथ खोज को निर्देशित करने के लिए अब तक त्र किए गए प्ले आउट के परिणामों का उपयोग करता है, जबकि अभी भी वैकल्पिक लाइनों का पता लगाने की अनुमति देता है। बड़े 19x19 बोर्ड पर खेलने के लिए कई अन्य अनुकूलन के साथ यूसीटी तकनीक ने MoGo को सबसे मजबूत अनुसंधान कार्यक्रमों में से बना दिया है। 19x19 गो में यूसीटी विधियों के सफल प्रारंभिक अनुप्रयोगों में मोगो, क्रेज़ी स्टोन और मैंगो शामिल हैं। MoGo ने 2007 कंप्यूटर ओलंपियाड जीता और बहुत कम जटिल 9x9 गो में गुओ जुआन, 5वें डैन प्रो के खिलाफ (तीन में से) ब्लिट्ज गेम जीता। गो के कई चेहरे अपने पारंपरिक ज्ञान-आधारित इंजन में यूसीटी खोज को जोड़ने के बाद 2008 कंप्यूटर ओलंपियाड जीता।

मोंटे-कार्लो आधारित गो इंजनों की प्रतिष्ठा है कि वे मानव खिलाड़ियों की तुलना में टेनुकी खेलने के लिए अधिक इच्छुक हैं, स्थानीय लड़ाई जारी रखने के बजाय बोर्ड पर कहीं और चलते हैं। इन कार्यक्रमों के अस्तित्व की शुरुआत में इसे अक्सर कमजोरी के रूप में देखा जाता था। जैसा कि कहा गया है, यह प्रवृत्ति प्रमुख परिणामों के साथ अल्फ़ागो की खेल शैली में बनी हुई है, इसलिए यह कमजोरी से अधिक विचित्रता हो सकती है।

मशीन लर्निंग

ज्ञान-आधारित प्रणालियों का कौशल स्तर उनके प्रोग्रामर और संबंधित डोमेन विशेषज्ञों के ज्ञान से निकटता से जुड़ा हुआ है। इस सीमा ने वास्तव में मजबूत एआई को प्रोग्राम करना कठिन बना दिया है। मशीन लर्निंग तकनीकों का उपयोग करना अलग रास्ता है। इनमें, केवल चीज जिसे प्रोग्रामर्स को प्रोग्राम करने की आवश्यकता होती है वह है किसी पद के मूल्य का विश्लेषण करने के नियम और सरल स्कोरिंग एल्गोरिदम। इसके बाद सॉफ्टवेयर स्वचालित रूप से सिद्धांत रूप में पैटर्न, अनुमान और रणनीतियों की अपनी समझ उत्पन्न करेगा।

यह आम तौर पर कृत्रिम तंत्रिका नेटवर्क या आनुवंशिक एल्गोरिदम को पेशेवर खेलों के बड़े डेटाबेस की समीक्षा करने, या स्वयं या अन्य लोगों या कार्यक्रमों के खिलाफ कई गेम खेलने की अनुमति देकर किया जाता है। ये एल्गोरिदम तब इस डेटा का उपयोग अपने प्रदर्शन को बेहतर बनाने के साधन के रूप में करने में सक्षम होते हैं। मशीन लर्निंग तकनीकों का उपयोग कम महत्वाकांक्षी संदर्भ में कार्यक्रमों के विशिष्ट मापदंडों को ट्यून करने के लिए भी किया जा सकता है जो मुख्य रूप से अन्य तकनीकों पर निर्भर होते हैं। उदाहरण के लिए, क्रेजी स्टोन (सॉफ्टवेयर) एलो रेटिंग प्रणाली के सामान्यीकरण का उपयोग करके कई सौ नमूना खेलों से चाल पीढ़ी पैटर्न सीखता है। इस दृष्टिकोण का सबसे प्रसिद्ध उदाहरण अल्फ़ागो है, जो पिछले एआई की तुलना में कहीं अधिक प्रभावी साबित हुआ है। इसके पहले संस्करण में, इसकी परत थी जिसने आगे के विश्लेषण के योग्य प्राथमिकता देने के लिए संभावित चालों को निर्धारित करने के लिए लाखों मौजूदा स्थितियों का विश्लेषण किया था, और दूसरी परत जिसने पहली परत से सुझाए गए संभावित चालों का उपयोग करके अपनी जीत की संभावनाओं को अनुकूलित करने का प्रयास किया था। अल्फ़ागो ने परिणामी स्थिति प्राप्त करने के लिए मोंटे कार्लो ट्री खोज का उपयोग किया। अल्फ़ागो के बाद के संस्करण, अल्फ़ागोज़ीरो ने मौजूदा गो गेम से सीखना छोड़ दिया, और इसके बजाय केवल बार-बार खेलने से ही सीखा। तंत्रिका जाल का उपयोग करने वाले अन्य पुराने कार्यक्रमों में न्यूरोगो और विनहोंटे शामिल हैं।

कंप्यूटर गो और अन्य फ़ील्ड
कंप्यूटर गो अनुसंधान परिणाम अन्य समान क्षेत्रों जैसे संज्ञानात्मक विज्ञान, पैटर्न पहचान और मशीन लर्निंग पर लागू किए जा रहे हैं। कॉम्बिनेटोरियल गेम थ्योरी, अनुप्रयुक्त गणित की शाखा, कंप्यूटर गो के लिए प्रासंगिक विषय है। जॉन एच. कॉनवे ने गो में एंडगेम के विश्लेषण के लिए असली संख्याओं को लागू करने का सुझाव दिया। इस विचार को एल्विन आर. बर्लेकैंप और डेविड वोल्फ (गणितज्ञ) ने अपनी पुस्तक मैथमैटिकल गो में और विकसित किया है। गो एंडगेम्स को पीएसपीएसीई-कठिन साबित किया गया है, यदि पूर्ण सर्वोत्तम चाल की गणना मनमाने ढंग से अधिकतर भरे हुए बोर्ड पर की जानी चाहिए। ट्रिपल को, क्वाड्रपल को, मोलासेस को और मूनशाइन लाइफ जैसी कुछ जटिल परिस्थितियाँ इस समस्या को कठिन बना देती हैं। (व्यवहार में, मजबूत मोंटे कार्लो एल्गोरिदम अभी भी सामान्य गो एंडगेम स्थितियों को काफी अच्छी तरह से संभाल सकते हैं, और जीवन और मृत्यु एंडगेम समस्याओं की सबसे जटिल कक्षाएं उच्च-स्तरीय गेम में आने की संभावना नहीं है।) विभिन्न कठिन संयोजक समस्याओं (किसी भी एनपी कठिन समस्या) को पर्याप्त बड़े बोर्ड पर गो-जैसी समस्याओं में परिवर्तित किया जा सकता है; यद्यपि, शतरंज और माइनस्वीपर (वीडियो गेम) सहित अन्य अमूर्त बोर्ड गेम के लिए भी यही सच है, जब मनमाने आकार के बोर्ड के लिए उपयुक्त रूप से सामान्यीकृत किया जाता है। एनपी-पूर्ण समस्याएँ अपने सामान्य मामले में उपयुक्त रूप से प्रोग्राम किए गए कंप्यूटरों की तुलना में बिना सहायता प्राप्त मनुष्यों के लिए आसान नहीं होती हैं: बिना सहायता प्राप्त मनुष्य हल करने में कंप्यूटर की तुलना में बहुत खराब हैं, उदाहरण के लिए, सबसेट योग समस्या के उदाहरण।

गो-प्लेइंग कंप्यूटर प्रोग्राम की सूची

 * अल्फ़ागो, गूगल DeepMind द्वारा मशीन लर्निंग प्रोग्राम, और 9-डैन ह्यूमन गो प्लेयर के विरुद्ध नो-हैंडीकैप मैचों में जीतने वाला पहला कंप्यूटर प्रोग्राम
 * बडुजीआई, जोयॉन्ग ली का कार्यक्रम
 * क्रेजी स्टोन (सॉफ्टवेयर), रेमी कूलॉम द्वारा (जापान में सैक्यो नो इगो के रूप में बेचा गया)
 * अंधकारमय जंगल, फेसबुक द्वारा
 * ललित कला (सॉफ्टवेयर), Tencent द्वारा
 * फ़्यूगो, खुला स्रोत सॉफ्टवेयर मोंटे कार्लो प्रोग्राम * गोबन, सेन:टे द्वारा मैकिंटोश गो प्रोग्राम (मुफ्त गोबन ्सटेंशन की आवश्यकता है)
 * जीएनयू गो, खुला स्रोत शास्त्रीय गो कार्यक्रम
 * काटागो, डेविड वू द्वारा।
 * लीला (सॉफ्टवेयर), जनता के लिए बिक्री के लिए पहला मोंटे कार्लो कार्यक्रम * लीला ज़ीरो, अल्फ़ागो ज़ीरो पेपर में वर्णित प्रणाली का पुनः कार्यान्वयन * द मेनी फेसेस ऑफ गो, डेविड फ़ोटलैंड द्वारा (जापान में एआई इगो के रूप में बेचा गया) * MyGoFriend, फ्रैंक कार्गर का कार्यक्रम * सिल्वेन जेली द्वारा MoGo; कई लोगों द्वारा समानांतर संस्करण। * पाची, पेट्र बॉडिश द्वारा खुला स्रोत मोंटे कार्लो कार्यक्रम
 * स्मार्ट गेम प्रारूप के आविष्कारक एंडर्स कीरल्फ़ द्वारा स्मार्ट गो
 * स्टोन ईटर, एरिक वैन डेर वेर्फ़ द्वारा
 * ज़ेन, योजी ओजिमा अकायामातो द्वारा (जापान में टेनचो नो इगोइन के रूप में बेचा गया);

कंप्यूटर गो कार्यक्रमों के बीच प्रतिस्पर्धा
गो कंप्यूटर प्रोग्रामों के बीच कई वार्षिक प्रतियोगिताएं होती हैं, जिनमें कंप्यूटर ओलंपियाड में गो कार्यक्रम भी शामिल हैं। केजीएस गो सर्वर पर कार्यक्रमों के बीच नियमित, कम औपचारिक प्रतियोगिताएं होती थीं (मासिक) और कंप्यूटर गो सर्वर (निरंतर)।

कई प्रोग्राम उपलब्ध हैं जो कंप्यूटर गो इंजनों को -दूसरे के विरुद्ध खेलने की अनुमति देते हैं; वे लगभग हमेशा गो टेक्स्ट प्रोटोकॉल (जीटीपी) के माध्यम से संचार करते हैं।

इतिहास
पहली कंप्यूटर गो प्रतियोगिता बलूत का फल द्वारा प्रायोजित थी, और USENIX द्वारा पहला नियमित। वे 1984 से 1988 तक चले। इन प्रतियोगिताओं में नेमेसिस, ब्रूस विलकॉक्स का पहला प्रतिस्पर्धी गो कार्यक्रम और डेविड फोटलैंड द्वारा जी2.5 पेश किया गया, जो बाद में कॉसमॉस और द मेनी फेसेस ऑफ गो में विकसित हुआ।

कंप्यूटर गो अनुसंधान के शुरुआती चालकों में से इंग पुरस्कार था, जो ताइवानी बैंकर चांग-की में द्वारा प्रायोजित अपेक्षाकृत बड़ा धन पुरस्कार था, जो 1985 और 2000 के बीच विश्व कंप्यूटर गो कांग्रेस (या इंग कप) में सालाना पेश किया जाता था। इस टूर्नामेंट के विजेता को छोटे मैच में युवा खिलाड़ियों को चुनौती देने की अनुमति दी गई थी। यदि कंप्यूटर मैच जीत जाता है, तो पुरस्कार दिया जाता था और नए पुरस्कार की घोषणा की जाती थी: कम बाधा वाले खिलाड़ियों को हराने के लिए बड़ा पुरस्कार। आईएनजी पुरस्कारों की श्रृंखला या तो 1) वर्ष 2000 में समाप्त होने वाली थी या 2) जब कोई कार्यक्रम 40,000,000 नया ताइवान डॉलर के लिए बिना किसी बाधा के 1-डैन पेशेवर को हरा सकता था। आखिरी विजेता 1997 में हैंडटॉक था, जिसने तीन 11-13 साल के शौकिया 2-6 डैन के खिलाफ 11-स्टोन हैंडीकैप मैच जीतने के लिए 250,000 एनटी डॉलर का दावा किया था। 2000 में पुरस्कार समाप्त होने के समय, नौ-स्टोन हैंडीकैप मैच जीतने के लिए लावारिस पुरस्कार 400,000 एनटी डॉलर था। कई अन्य बड़े क्षेत्रीय गो टूर्नामेंट (कांग्रेस) में संलग्न कंप्यूटर गो इवेंट था। यूरोपीय गो कांग्रेस ने 1987 से कंप्यूटर टूर्नामेंट को प्रायोजित किया है, और USENIX कार्यक्रम यूएस/उत्तरी अमेरिकी कंप्यूटर गो चैम्पियनशिप में विकसित हुआ, जो 1988-2000 तक यूएस गो कांग्रेस में प्रतिवर्ष आयोजित किया जाता था।

जापान ने 1995 में कंप्यूटर गो प्रतियोगिताओं को प्रायोजित करना शुरू किया। FOST कप 1995 से 1999 तक प्रतिवर्ष टोक्यो में आयोजित किया जाता था। उस टूर्नामेंट को गिफू चैलेंज द्वारा प्रतिस्थापित कर दिया गया था, जो 2003 से 2006 तक ओगाकी, गिफू में प्रतिवर्ष आयोजित किया जाता था। कंप्यूटर गो यूईसी कप 2007 से प्रतिवर्ष आयोजित किया जाता है।

कंप्यूटर-कंप्यूटर गेम में स्कोरिंग औपचारिकता
जब दो कंप्यूटर -दूसरे के विरुद्ध गेम खेलते हैं, तो आदर्श यह है कि वास्तविक मनुष्यों के किसी भी हस्तक्षेप से बचते हुए गेम को दो इंसानों के समान तरीके से खेला जाए। यद्यपि, गेम के अंत में स्कोरिंग के दौरान यह मुश्किल हो सकता है। मुख्य समस्या यह है कि गो प्लेइंग सॉफ़्टवेयर, जो आमतौर पर मानकीकृत गो टेक्स्ट प्रोटोकॉल (जीटीपी) का उपयोग करके संचार करता है, हमेशा पत्थरों की जीवित या मृत स्थिति के संबंध में सहमत नहीं होगा।

यद्यपि दो अलग-अलग कार्यक्रमों के लिए इस पर बात करने और संघर्ष को हल करने का कोई सामान्य तरीका नहीं है, फिर भी अधिकांशतः इस समस्या को रूल्स ऑफ गो#चाइनीज रूल्स, रूल्स ऑफ गो#बेसिक रूल्स|ट्रॉम्प-टेलर, या अमेरिकन गो का उपयोग करके टाला जाता है। एसोसिएशन (एजीए) के नियम जिसमें बोर्ड पर किसी भी पत्थर की स्थिति पर कोई और असहमति न होने तक खेल जारी रखना (दंड के बिना) आवश्यक है। व्यवहार में, जैसे कि केजीएस गो सर्वर पर, सर्वर दो क्लाइंट प्रोग्रामों को विशेष जीटीपी कमांड भेजकर विवाद में मध्यस्थता कर सकता है, जो यह दर्शाता है कि उन्हें तब तक पत्थर लगाना जारी रखना चाहिए जब तक कि किसी विशेष समूह (सभी मृत पत्थर) की स्थिति के बारे में कोई सवाल न हो पकड़ लिया गया है)। सीजीओएस गो सर्वर आमतौर पर प्रोग्राम को गेम के स्कोरिंग चरण तक पहुंचने से पहले ही रिजाइन कर देता है, किन्तु फिर भी ट्रॉम्प-टेलर नियमों के संशोधित संस्करण का समर्थन करता है जिसके लिए पूर्ण प्ले आउट की आवश्यकता होती है।

इन नियम सेटों का मतलब है कि कार्यक्रम जो जापानी नियमों के तहत खेल के अंत में जीतने की स्थिति में था (जब दोनों खिलाड़ी पास हो गए) सैद्धांतिक रूप से रिज़ॉल्यूशन चरण में खराब खेल के कारण हार सकते थे, किन्तु यह बहुत ही असंभव है और इसे सामान्य माना जाता है सभी क्षेत्र नियम सेटों के अंतर्गत खेल का हिस्सा।

उपरोक्त प्रणाली का मुख्य दोष यह है कि गो#नियमसेट के कुछ नियम (जैसे कि पारंपरिक जापानी नियम) खिलाड़ियों को इन अतिरिक्त चालों के लिए दंडित करते हैं, जिससे दो कंप्यूटरों के लिए अतिरिक्त प्लेआउट का उपयोग बंद हो जाता है। फिर भी, अधिकांश आधुनिक गो प्रोग्राम मनुष्यों के विरुद्ध जापानी नियमों का समर्थन करते हैं।

ऐतिहासिक रूप से, इस समस्या को हल करने का अन्य तरीका अंतिम बोर्ड में विशेषज्ञ मानव न्यायाधीश को नियुक्त करना था। यद्यपि, यह परिणामों में व्यक्तिपरकता का परिचय देता है और जोखिम यह है कि विशेषज्ञ कार्यक्रम में देखी गई किसी चीज़ को चूक जाएगा।

यह भी देखें

 * कंप्यूटर शतरंज
 * कंप्यूटर ओथेलो
 * कंप्यूटर शोगी
 * टेक्स्ट प्रोटोकॉल पर जाएं

अग्रिम पठन

 * Co-Evolving a Go-Playing Neural Network, written by Alex Lubberts & Risto Miikkulainen, 2001
 * Computer Game Playing: Theory and Practice, edited by M.A. Brauner (The Ellis Horwood Series in Artificial Intelligence), Halstead Press, 1983. A collection of computer Go articles. The American Go Journal, vol. 18, No 4. page 6. [ISSN 0148-0243]
 * A Machine-Learning Approach to Computer Go, Jeffrey Bagdis, 2007.
 * Minimalism in Ubiquitous Interface Design Wren, C. and Reynolds, C. (2004) Personal and Ubiquitous Computing, 8(5), pages 370–374. Video of computer Go vision system in operation shows interaction and users exploring Joseki and Fuseki.
 * Monte-Carlo Go, presented by Markus Enzenberger, Computer Go Seminar, University of Alberta, April 2004
 * Monte-Carlo Go, written by B. Bouzy and B. Helmstetter from Scientific Literature Digital Library
 * Static analysis of life and death in the game of Go, written by Ken Chen & Zhixing Chen, 20 February 1999
 * article describing the techniques underlying Mogo

बाहरी संबंध

 * Extensive list of computer Go events
 * All systems Go by David A. Mechner (1998), discusses the game where professional Go player Janice Kim won a game against program Handtalk after giving a 25-stone handicap.
 * Computer Go and Computer Go Programming pages at Sensei's Library
 * Computer Go bibliography
 * Another Computer Go Bibliography
 * Computer Go mailing list
 * Published articles about computer Go on Ideosphere gives current estimate of whether a Go program will be best player in the world
 * Information on the Go Text Protocol commonly used for interfacing Go playing engines with graphical clients and internet servers
 * The Computer Go Room on the K Go Server (KGS) for online discussion and running "bots"
 * Two Representative Computer Go Games, an article about two computer Go games played in 1999, one with two computers players, and the other a 29-stone handicap human-computer game
 * What A Way to Go describes work at Microsoft Research on building a computer Go player.
 * Cracking Go by Feng-hsiung Hsu, IEEE Spectrum magazine (October 2007) – Why it should be possible to build a Go machine stronger than any human player
 * computer-go-dataset, SGF datasets of 1,645,958 games