Beim Go kam die Zukunft plötzlich. Bis vor kurzem wurde frühestens für das Jahr 2025 mit einem Programm gerechnet, das sich auf dem regulären 19-x-19-Felder-Brett mit einem professionellen Spieler messen kann. Und dann kam schon in der vergangenen Woche die Nachricht, dass der amtierende Europameister Fan Hui in fünf von fünf Spielen von dem Programm Alpha Go geschlagen wurde – ohne Handicap.

Dieser Artikel ist auch auf Golem.de erschienen. Bevor ich ihn fertig geschrieben hatte, habe ich mich mit dem “Sonntagssoziologen” Rene Lehnard über das Thema unterhalten. Wer mag, kann uns hier zuhören:

Es war eine beeindruckende Demonstration des Teams von Google, welche Fortschritte sie inzwischen bei der Entwicklung von neuronalen Netzwerken in der künstlichen Intelligenz (KI) erreicht haben. Mit einer baldigen Übernahme der Weltherrschaft durch KIs ist zwar noch nicht zu rechnen, aber der Umgang der Go-Welt mit der KI ist durchaus bemerkenswert.

Professionelle Spielauswertungen

Inzwischen gibt es auch professionelle Auswertungen der fünf Spiele, die das Programm Alpha Go gegen Fan Hui (2p) gewonnen hat. Der koreanische Profispieler Myungwan Kim (9p) hat seine Einschätzung zu den Spielen in einem Interview mit Andrew Jackson (5d) für die American Go Association (AGA) gegeben.

Kürzel wie “9p” deuten die Spielstärke an. Im Fall von Kim ist es der höchste professionelle Dan-Rang, auch wenn er sich selbst nicht zu den besten Spielern der Welt rechnet. 5d ist der fünfte Dan der Amateure. Ich selbst spiele in der vierten Bundesliga des Deutschen Go-Bundes als 2. Kyu, also noch unterhalb der Dan-Ränge.

Professionelle Spielauswertung


Myungwan Kim hat nicht nur die Spiele selbst im Detail besprochen, was wohl nur für aktive Go-Spieler interessant ist, sondern auch seinen Eindruck von der KI und den Reaktionen professioneller Go-Spieler auf den überraschenden Erfolg von Alpha Go geschildert. Kim hatte selbst schon die Erfahrung gemacht, von einem Computer geschlagen zu werden.

Er war 2008 der erste professionelle Spieler, der jemals von einem Programm besiegt wurde, das nur neun Handicap-Steine als Vorgabe bekam. Das erfolgreiche Programm MoGo war damals wohl etwas über meinem heutigen Spielniveau.

Zu Fan Hui sollte man sagen, dass er fraglos ein starker chinesischer Spieler ist, der selbst professionell in China gespielt hat. Aber heute gibt er hauptsächlich Unterricht für Amateure in Europa, die besser spielen wollen. Das bringt es mit sich, dass Fan Hui hauptsächlich Lehrspiele gegen schwächere Amateure spielt und weniger Spielpraxis gegen gleichwertige, professionelle Spieler hat.

Laut Myungwan Kim machte sich das durchaus bemerkbar. Fan Hui hat in den Spielen einige “overplays” gespielt, die in Lehrspielen bei Amateuren leicht zu falschen Reaktionen führen, aber von professionellen Spielern durchschaut werden. Das sollte man Fan Hui nicht als Arroganz auslegen, sondern als fast unvermeidliche Folge seines großen Einsatzes für den Unterricht.

Alpha Go wirkt menschlich

In jedem Fall hat sich durch die Besprechung mein Eindruck bestätigt, dass Alpha Go im Wesentlichen menschlich spielt. Anders als bei früheren Go-Programmen gibt es keinen spürbaren Unterschied zwischen den Zügen des Programms und des Menschen, auch wenn das Programm noch gewisse Eigenheiten und Schwächen hat. Tatsächlich habe ich beim ersten Spiel, das ich mir angeschaut habe, nicht auf die Namen der Spieler geschaut.

Ich konnte nicht sagen, ob Fan Hui oder Alpha Go mit Weiß gespielt hat. Es gab keine völlig erratischen, also zu keiner Spielsituation passende Spielzüge mitten im Spiel. Solche Züge waren aber bei den Monte-Carlo-Algorithmen praktisch unvermeidlich und immer wieder zu sehen.

Alpha Go spielte seine Spiele in einem eher japanischen Stil. Das ist ein ruhiger, wenig aggressiver Stil, vor allem in der Eröffnung. Andrew Jackson sagte, dass dafür wohl die Datenbanken verantwortlich sind, mit denen Alpha Go gelernt hat. Die meisten offenen Datenbanken bestehen aus alten japanischen Spielen, und auch auf dem Kiseido Go Server (KGS) herrscht im Allgemeinen der japanische Stil vor. Der eher aggressive koreanische Stil ist dort dagegen eher selten. Über 150.000 Spiele der Datenbank kamen aber allein von KGS.

Alpha Go fehlt Kreativität

Was dem Programm nach menschlichen Maßstäben fehlt, ist Kreativität und Voraussicht in einigen Situationen. Das zeigt womöglich die Schwächen des Programms und wohl auch des gesamten Ansatzes. Es hält sich hauptsächlich an typische Spielmuster und Reaktionen aus den Spielen der Datenbank. Das verleiht den Spielen auch insgesamt einen sehr menschlichen Charakter.

Bisher war es für Bots fast schon typisch, in kritischen Situationen plötzlich und nicht nachvollziehbar Tenuki, also einen Stein auf einem anderen Teil des Bretts, zu spielen. Das Ausnutzen solcher falschen Tenukis machte einen großen Teil der Spielschwäche von Bots aus.

Das neurale Netz macht Anfängerfehler

Diese Schwierigkeiten sind nun überwunden. Das Problem ist nur, dass es Alpha Go nicht überall schafft, Ausnahmen zu erkennen, in denen die gängigen Muster nicht funktionieren. Beispielsweise mussten die Programmierer explizite Algorithmen zum Umgang mit einfachen Treppen einprogrammieren. Eine Möglichkeit, Steine zu fangen, die jedem Anfänger bekannt ist und in realen Spielen praktisch nie angewendet wird.

Treppen und ähnliche Formationen werden fast immer schon im Ansatz vermieden und nie ausgespielt. Das neuronale Netz war nicht in der Lage, das Konzept selbst aus den Spielregeln und den beobachteten Spielen herzuleiten, in denen Treppen praktisch nie ausgespielt wurden. Ganz offensichtlich ist das Lernpotenzial dieser Netze noch begrenzt.

Subtile Konzepte

So ähnlich sieht es mit Konzepten wie Aji und Sente aus. Aji bezeichnet dabei das Potenzial, dass bestimmte Züge in der späteren Spielentwicklung eine wichtige Rolle spielen könnten, aber nicht müssen. Sie bleiben auf dem Brett und hinterlassen ein gewisses Geschmäckle – Aji heißt auf Deutsch Geruch oder Geschmack. Wie dieses Aji zum Tragen kommen kann, ist oft absehbar. Ob es zum Tragen kommt, hängt aber von der Spielentwicklung ab.

Sente sind Vorhandzüge, die eine so große Bedrohung darstellen, dass sie den Gegner zu einer Reaktion zwingen. Sie können lokal einen kleineren Einfluss haben als ein großer Zug in einem freien Teil des Bretts. Aber weil der Gegner reagieren muss, bleibt für den großen Zug auch später noch Gelegenheit. Auf dem hohen Spielniveau ist es ein ernsthaftes Problem, wenn ein Spieler dabei einzelne Punkte verschenkt.

Wegen solcher und ähnlicher Probleme vermutet Kim und auch andere Profis, dass ein Spieler wie Lee Sedol gegen Alpha Go sehr gute Chancen haben wird. Lee spielt praktisch ausschließlich gegen die besten Spieler der Welt und wird sich nicht zu Overplays gegen den Computer hinreißen lassen. Für einen Sieg gegen Alpha Go hat Google einen Preis von einer Million US-Dollar ausgelobt. Derzeit dominiert noch die Ansicht, dass das leicht verdientes Geld sein wird.

Bis zu dem Spiel im März bleibt aber noch genug Zeit, das Programm zu verbessern. Einer der Programmierer, Aja Huang, war auch bei der Liveübertragung des Kommentars dabei. Zu früh sollte sich Lee Sedol also trotzdem nicht auf das Preisgeld freuen, denn er wird mit Sicherheit nicht gegen das gleiche Programm antreten.

Alpha Go gilt als Underdog

Insgesamt hat die professionelle Go-Community die Nachricht mit einiger Überraschung aufgenommen. Mit einem derart starken Programm wurde erst etwa im Jahr 2025 gerechnet. Kim sieht aber trotzdem nicht die Feindseligkeit, mit der Schachspieler einst den ersten Schachcomputern wie Deep Blue gegenübertraten. Das lag sicher auch daran, dass die Spielstärke des Gegners von Alpha Go noch weit entfernt von der Weltspitze liegt. Myungwan Kim selbst hofft auf einen Sieg von Alpha Go, weil das Programm in dem Duell als Underdog gilt.

Über Go hinaus sollte man die Fähigkeiten solcher Programme nicht überschätzen. Solche neuronalen Netzwerke sind der Extremfall einer Inselbegabung, die nur auf vorhandenen Daten beruht und – zumindest bisher – keine Fähigkeit zum kreativem Lernen aus diesen Daten hat. Es verhält sich so ähnlich wie ein Papagei, der Sätze aus einem besonders großen Literaturfundus wiederholen kann. Einmal trainiert kann das Netzwerk über das clevere Legen von Go-Steinen auf den Goban hinaus praktisch keine weitere Funktion übernehmen. Das kann es dafür aber zuverlässig und ausdauernd, wenn auch mit hohem Aufwand. Das Computernetzwerk, auf dem Alpha Go läuft, braucht beim Spielen geschätzte 6,4 Kilowatt Strom.

Ein wegweisender Umgang mit KI

Wegweisend ist aber vielleicht der Umgang einiger Go-Profis mit dieser unerwarteten Situation. Es gibt durchaus positive Kommentare von Profis, die sich von stärkeren Computerprogrammen erhoffen, ihre eigene Spielstärke verbessern zu können. Das passt auch in die aktuelle Kultur des Spiels, in der sich die Spielstärke an der Weltspitze in den vergangenen Jahren deutlich verbessert hat – nicht durch Computerhilfe, sondern durch bessere Kooperation beim Studium von Spielen unter den Spielern, die sich nun immer mehr vom Typ des einzelnen Genies entfernen.

Vielleicht liegt dort auch eine andere Zukunftsvision für die KI: Eine KI kann auch dazu dienen, den Menschen zu helfen, über sich selbst hinauszuwachsen und die eigenen Aufgaben besser zu erledigen, anstatt lästige Aufgaben komplett an den Computer abzuschieben. Es mag zunächst wie eine Befreiung wirken, Aufgaben an einen Computer abzugeben. Aber es schafft auch eine um so größere Abhängigkeit und um so größere Angst. Diese Angst ist berechtigt, denn ohne die KI wäre man hilflos. Es ist wie mit dem Taschenrechner. Er ist entweder ein Werkzeug, um besser zu rechnen, oder es ist jener Kasten, ohne den man nicht rechnen kann.

Eine KI, die dazu benutzt wird, sich selbst zu verbessern, ist sicher keine KI, vor der man Angst haben muss. Wenn eines Tages die KIs die Welt übernehmen, dann nicht, weil sie Macht an sich gerissen haben, sondern weil wir sie aus Faulheit an sie abgegeben haben.

Kommentare (7)

  1. #1 Dwon
    3. Februar 2016

    “Das neuronale Netz war nicht in der Lage, das Konzept selbst aus den Spielregeln und den beobachteten Spielen herzuleiten, in denen Treppen praktisch nie ausgespielt wurden. Ganz offensichtlich ist das Lernpotenzial dieser Netze noch begrenzt.”
    Eigenartiger Schluß. Du schreibst doch selbst, dass die Treppen nicht vor kamen. Wie soll man etwas lernen was man nicht kennen kann?! Wie ein Mensch müssen entweder solche Situationen von außen zugeführt werden – lernen Anhand von Spielen in denen diese Situationen vorkommen. Oder man muss beim Nachdenken selber auf diese Situation kommen. D.h. die KI müsste gegen sich selbst spielen und zufälligerweise diese Situation legen um daraus zu lernen.
    Ich sehe hier keine Probleme in der KI. Sondern das Problem, wenn man auf Profiniveau einsteigt, dass man von Amateurtricks besiegt werden kann.

  2. #2 Ulfi
    3. Februar 2016

    Überlass mal das Bashen von Neuronalen Netzen denjenigen, die sich damit auskennen. Was das Netz kann und was es nicht kann, bzw wieviel es über das Spiel weiß, ist momentan nicht bekannt und benötigt die Evaluierung von vielen Profispielen.

    Vergiss niemals, dass Neuronale Netze auf Backgammon so gut funktioniert haben, dass hinterher die Profis von TDGammon gelernt haben.

    • #3 wasgeht
      3. Februar 2016

      Es ging nicht darum, neuronale Netzwerke zu bashen, sondern zu beschreiben was es in dem Zusammenhang kann und was nicht. Und einige Schwächen waren eben recht deutlich. Ok, ich hätte wohl die Tatsache, dass es vieles sehr richtig und sehr gut macht, etwas plakativer schreiben sollen.

      Aber der Punkt ist eben, dass es fünf Spiele gegeben hat, in denen es gewisse Auffälligkeiten gezeigt hat – und dass dem neuronalen Netz durch andere, fest einprogrammierte, Algorithmen deutlich unter die Arme gegriffen wird um die Spielstärke zu erhöhen.

  3. #4 schlappohr
    3. Februar 2016

    Ist jetzt ein bisschen offtopic, aber kennt jemand eine gute Anfänger-GO-Software für Android? Ich würde zwar lieber auf einem traditionellen Hardware-Brett spielen, aber ich kenne niemanden, der stundenlang mit mir GO spielen würde. Außerdem wäre mir das als Anfänger viel zu peinlich :-)

  4. #5 Meta-Diskutierer
    3. Februar 2016

    @Ulfi: Überlass mal das Bashen von Blogposts über Neuronale Netze denjenigen, die sich damit auskennen. Was Frank kann und was er nicht kann, bzw wieviel er über Neuronale Netze weiß, ist momentan nicht bekannt und benötigt die Evaluierung durch viele Profikommentatoren.

  5. #6 Ulfi
    3. Februar 2016

    @wasgeht Ich bezieh mich hier explizit auf den Teil: “Was dem Programm nach menschlichen Maßstäben fehlt, ist Kreativität und Voraussicht in einigen Situationen. Das zeigt womöglich die Schwächen des Programms und wohl auch des gesamten Ansatzes. Es hält sich hauptsächlich an typische Spielmuster und Reaktionen aus den Spielen der Datenbank.”

    Für eine solche Evaluierung ist es auf Basis der Spiele gegen einen einzelnen Gegner einfach zu früh. Wir wissen nicht, wie “kreativ” das Programm ist und wie gut es den Zustandsraum generalisieren kann. Offensichtlich kamen ja die Go-Profis zum Schluss, dass der Gegner nicht stark genug war.

    Dabei darauf raumzuhacken, dass es Fehler bei Taktiken macht, die im Datensatz nicht vorkommen und deswegen weit entfernt vom bekannten Zustandsraum ist, ist unfair gegenüber dem Verfahren, denn offensichtlich muss man es darin bewerten, wie gut es sich im Profispiel schlägt und wenn da niemand Treppen verwendet ist die Performanz in Treppensituationen – und wie man sie erreicht – reichlich irrelevant.

    Ähnliche Situationen kennt man übrigens auch aus dem Spiel gegen Menschen: wenn ein Profi gegen einen Amateur spielt, kann es sein, dass für den Profi die Spielzüge des Gegners nicht klar werden, einfach weil der Gegner so erratisch spielt, dass die Spielsituationen unbekannt sind. Anhand so eines Spiels würde ja auch niemand einschätzen wollen, wie gut der Profi ist, oder?

  6. #7 Sansan
    4. Februar 2016

    @Schlappohr:
    Kennst Du den Go-Server (https://www.gokgs.com/)?
    Dort kannst Du online spielen. Auf dem PC mit einem Java-Client, aber es gibt auch eine Android-App.