Am Mittwoch beginnt der Endkampf Mensch gegen Google, Sedol Lee gegen AlphaGo.
AlphaGo ist kein klassisches von einem Programmierer verfaßtes Computerprogramm, sondern es trainiert sich selbst mittels neuronaler Netzwerke.
Über neuronale Netze hatte ich in den 90er Jahren mal eine Vorlesung gehört, nach dem damals ganz aktuellen Lehrbuch von Raul Rojas. Da ich mich seit damals nie mehr mit dem Thema beschäftigt habe ist mir nicht viel mehr in Erinnerung geblieben als die grundsätzliche Funktionsweise: man hat einen Graphen, dessen Kanten man sich als Verbindungen (“Synapsen”) zwischen den Knoten (“Neuronen”) denkt und man hat Gewichte auf den einzelnen Kanten die als Parameter einer Funktion (wie zum Beispiel als einfachste Möglichkeit
) dienen, mit der man den Output zu gegebenen Inputs
berechnet. Diesen Output (zum Beispiel das Resultat einer oder vieler Go-Partien) vergleicht man dann mit dem gewünschten Ergebnis (zum Beispiel dem Gewinn von 100% der gespielten Partien) und mittels numerischer Verfahren (im Lehrbuch kam das Gradientenabstiegsverfahren vor) ändert man dann die Werte der Gewichte
so, dass man ein besseres Ergebnis erhalten würde. Auf diese Weise verbessert das neuronale Netzwerk selbstlernend im Laufe der Zeit immer mehr seinen Output.
Ein aktueller Artikel in Nature Mastering the game of Go with deep neural networks and tree search beschreibt nun speziell die bei AlphaGo verwendeten Verfahren und auch einige Beispiele aus dem Match gegen Europameister Fan Hui:
Das am Mittwoch beginnende Match wird übrigens auf https://www.youtube.com/watch?v=vFr3K2DORc8 live aus Seoul übertragen, Anstoß ist um 5 Uhr morgens mitteleuropäischer Zeit.
Kommentare (2)