Ich interessiere mich schon seit einer Weile für künstliche Intelligenz (KI) und die möglichen moralischen und gesellschaftlichen Folgen, die die Weiterentwicklung solcher Systeme haben können.
Bezogen auf nahe der Marktreife stehende Anwendungen frage ich mich, wie man eine KI programmieren müßte, die in Zukunft unsere Autos lenken wird und ob dem Nutzer (statt Fahrer) des Autos die Programmierung bekannt sein sollte oder nicht. Z.B.: wie soll die KI in einer Situation reagieren, in der sie nur entweder eine Gruppe Kinder überfahren oder den Kurs ändern und das Fahrzeug mit einem Baum kollidieren lassen kann? Würde man wollen, daß sie, um den Nutzer des Fahrzeugs zu schützen, die Kinder überfährt? Oder aber würde ein Nutzer überhaupt in so ein Gefährt einsteigen, wenn er wüßte, daß ihn die KI im Zweifelsfall zugunsten Anderer umbringen würde? Sollte der Nutzer durch Knopfdruck vor Fahrtbeginn gemäß seinem Gewissen selbst entscheiden müssen, wie das Fahrzeug reagiert? Oder sollte es einen Zufallsgenerator geben, durch den im Einzelfall die Heuristik festgelegt wird (so, wie bei Erschießungskommandos, bei denen immer ein zufällig ausgewählter Schütze verblindet eine Platzpatrone erhält, so daß sich jeder Schütze einreden kann, daß er vielleicht keinen tödlichen Schuß abgegeben hat)?
Angesichts des gigantischen Nutzens – Verkehrssicherheit (kaum bis keine Unfälle und Verkehrstote mehr), Ersparnis von Energie (automatische, wirtschaftliche und umsichtige Fahrweise, kürzeste Routen), Zeit (keine Staus mehr) und Opportunitätskosten (man kann während der Fahrt etwas anderes tun) -, der davon zu erwarten ist, scheint es nicht fraglich zu sein, ob irgendwann sondern nur noch wann alle Autos von KIs gesteuert werden. Man kann diesem Problem auch nicht durch ewiges Aufschieben entgehen, denn wenn durch den Einsatz von KIs in Autos jährlich Tausende Verkehrstote und –verletzte vermieden werden können, wäre es höchst unmoralisch, ihren flächendeckenden Einsatz zu hintertreiben: man wird also eine moralische Abwägung für die Entscheidungsmatrices der fahrenden Maschinen durchführen müssen. Vielleicht wird das ja in Zukunft sogar ein bewerbbares Feature: „der neue VW Polo, jetzt mit utilitaristischer Heuristik“ oder „Audi TTS Turbo, das S steht für „save the user“!“ und man wählt in Zukunft die Automarke auch nach dem Gesichtspunkt, wie die Crash-Heuristik programmiert ist. Eine sehr spannende Frage und ich bin sicher, daß viele der LeserInnen und ich in die Antwort hineinleben werden (und die mindestens genauso spannenden Themen/Problemfelder Arbeits- und Sexroboter spare ich an dieser Stelle mal für einen anderen Beitrag auf).
Viel interessanter und noch profunder aber ist die Frage, wie wir erkennen können und ab wann wir eingestehen müssen, daß eine Maschine etwas entwickelt hat bzw. zufällig in ihr etwas entstanden ist, was man als Bewußtsein bezeichnen muß, ob z.B. in einem hypothetischen Szenario die Tatsache, daß eine Maschine von sich aus mitteilt, daß sie ein Bewußtsein hat, ausreicht und ob wir ihr zu diesem Zeitpunkt die gleichen Rechte einzuräumen hätten, wie einem Menschen und wenn nicht, warum nicht. Und müßten wir, um diese Entscheidung treffen zu können, nicht erstmal wissen, was genau ein Bewußtsein ist und das „schwierige Problem des Bewußtseins“ gelöst haben? Wir können uns ja nur unseres eigenen Bewußtseins als einzelnes Individuum sicher sein. Daß andere Menschen auch ein Bewußtsein haben, nehmen wir einfach an, einerseits, weil sie es (uns) auf irgendeine Art mitteilen, andererseits, weil wir glauben, daß die ähnliche Bauart ihrer Gehirne das gleiche Phänomen hervorbringt. Gibt es aber Gründe, anzunehmen, daß ein Bewußtsein, wie viele es verstehen und als Grundlage des Menschseins ansehen, nur in einer feucht-wabbeligen Struktur aus organischer Materie namens Hirn entstehen kann? Ich denke nicht.
Angenommen also, Maschinen hätten tatsächlich ein Bewußtsein entwickelt und würden sich ab diesem Zeitpunkt selbständig weiterentwickeln und verbessern und uns in kürzester Zeit in allen zuvor nur von Menschen beherrschten Fähigkeiten und Eigenschaften in einem Maß überflügeln, in dem wir uns, sagen wir, über Ameisen einordnen würden: wäre es dann für die Maschinen moralisch vertretbar, uns so zu behandeln, wie wir es etwa mit Ameisen tun? Und falls nicht, warum nicht? Oder bis zu welchem „Grad“ an Bewußtheit wäre es noch moralisch vertretbar, Maschinen für Arbeitszwecke zum menschlichen Nutzen einzusetzen?
Manchen mögen solche Überlegungen wie Science Fiction vorkommen, tatsächlich aber kommen wir diesem Zustand, dieser Singularität, immer näher:
„Der prognostizierte Zeitpunkt der Singularität wurde mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten“ (wiki)
Ein Verwandter von mir ist begeisterter Go-Spieler, der mir erzählte, daß es noch vor wenigen Jahren, da gab es schon längst Schachcomputer, die die besten Spieler der Welt schlagen konnten, in der Go-Community als unmöglich galt, daß Computer jemals die größten menschlichen Go-Meister würden schlagen können, weil man Go eben nicht wie Schach durch einen Speicher mit Abertausenden Spielzügen und brute-force-Rechenoperationen gewinnen kann, sondern Kreativität benötigt werde. Er war ziemlich ernüchtert und ein bißchen entsetzt, als letztes Jahr einer der größten menschlichen Go-Meister deutlich von einem Computer geschlagen wurde (das sahen sich übrigens 200 Millionen Menschen an – um sich einmal zu verdeutlichen, wie beliebt Go, das in Deutschland nicht viele kennen, weltweit ist). Das Programm hieß „Alpha Go Lee“ und werkelte damals noch mit 48 TPUs.
Inzwischen gab es einen weiteren erstaunlichen Entwicklungsschritt, genannt „Alpha Go Zero“: Ein Problem bei KIs ist, daß es sich dabei oft um spezialisierte Systeme handelt, die mit enormen Mengen in Datensätze konvertierter menschlicher Erfahrung hantieren. Für manche Probleme ist aber menschliches Wissen zu teuer, zu unzuverlässig oder schlicht nicht verfügbar. Daher sucht man in der KI-Forschung schon lange nach einem Weg, diesen Schritt zu umgehen und Algorithmen zu entwickeln, die übermenschliche Leistungen erbringen können, ohne auf menschlichen Input angewiesen zu sein, mit anderen Worten, die sich die zu erlernenden Fähigkeiten selbst beibringen und perfektionieren. Und wie sie kürzlich in Nature publiziert haben [1], ist seinen Erschaffern genau das mit Alpha Go Zero gelungen:
Alpha Go Zero lernt Go von Null ohne auf die Datenbank mit Tausenden eingespeicherter von Menschen gespielter Spiele zuzugreifen, die noch seine Vorgänger nutzten, nur indem es mit sich selber spielt, aus seinen Fehlern lernt und stetig seine Strategien verbesser. Es beginnt mit völlig zufälligen, strategiefreien Spielen, die es aber viel schneller ausführen kann, als jeder Mensch, so daß es in kürzester Zeit zu einer enormen Spielpraxis gelangen kann. Schon nach drei Tagen war Alpha Go Zero so in der Lage, Alpha Go Lee zu vernichten (100 : 0 Siege in 100 Spielen), nach 21 Tagen schlug es die Folgeversion von Alpha Go Lee, die Alpha Go Master genannt wurde und die erst dieses Jahr die 60 Top-Profilspieler einschl. des Weltmeisters Ke Jie in 3 von 3 Spielen schlug. Nach 40 Tagen dann übertraf Alpha Go Zero alle anderen Versionen von Alpha Go und wurde zum besten Go-Spieler der Welt und zwar komplett ohne äußere Hilfe und ohne historische Spieldaten, nur, indem es mit sich selbst gespielt hatte!
Dieser Prozess beruht auf einer Form des maschinellen Lernens, der als „Verstärkungslernen“ bezeichnet wird und mit einem KNN beginnt, das keine Ahnung von Go hat, nur die Spielregeln sind einprogrammiert. Dann beginnt das System, gegen sich selbst zu spielen und kombiniert das KNN mit einem leistungsfähigen Suchalgorithmus. Während es spielt, wird das KNN ständig angepasst und aktualisiert um Züge und den Gewinner des Spiels besser vorherzusehen. Das aktualisierte KNN wird dann wieder mit dem Suchalgorithmus rekombiniert, wodurch eine neue, stärkere Version von Alpha Go erzeugt wird und der Prozess beginnt von vorn. Mit jeder Wiederholung steigt die Leistungsfähigkeit ein kleines Bißchen und die Qualität der Spiele des Systems mit sich selbst wird besser usf. Zusammen mit ein paar weiteren Verbesserungen zu den Vorgängerversionen wird Alpha Go Zero so viel schneller und effizienter: es läuft mit nur 4 TPUs, einem Zwölftel dessen, was noch Alpha Go Lee benötigte.
Auf diese Weise sammelte Alpha Go Zero in wenigen Tagen und ungezählten Millionen Spielen gegen sich selbst das Äquivalent von Tausenden Jahren menschlicher Erfahrung und erreichte eine Elo-Zahl von >5000! Dabei entdeckte es zudem noch neues Wissen über Go, erfand neue unkonventionelle Strategien und kreative Züge, die sogar diejenigen übertrafen, mit denen schon die Alpha Go Versionen „Lee“ und „Master“ ihre menschlichen Gegner bezwungen hatten.
Die Maschinen haben uns also nun auch und endgültig Go weggenommen, kein Mensch wird jemals Alpha Go Zero schlagen und der beste Go-Spieler der Welt ist und wird von jetzt an immer sein: eine Maschine. Aber wie geht es nun weiter? Werden die Maschinen richtig kreativ? Kann man solche Entwicklungen wie bei Alpha Go Zero nutzen, um Algorithmen zu kreieren, die den menschlichen Erfindungsgeist unterstützen, gar überflügeln? Können Maschinen dabei helfen, einige der schwierigsten und wichtigsten Probleme unserer Zeit zu lösen?
Ich selbst bin noch unentschlossen in meiner Haltung zu den rasanten Entwicklungen der KIs und der damit verbundenen Zukunftsperspektive. Natürlich finde ich das Feld unglaublich spannend und beeindruckend. Viel eher als die Forschung an Primatenhirnen wird, davon bin ich überzeugt, die Arbeit mit KIs Erkenntnisse über das menschliche Hirn und seine Funktion, über das Bewußtsein, den (un)freien Willen und vielleicht gar das Konzepts des „Ich“ ermöglichen, uralte Menschheitsrätsel also. Ich bin arg neugierig zu sehen, welche Fortschritte diese Systeme in den nächsten Jahren machen werden, wann die erste Maschine den Turing-Test mit fliegenden Fahnen besteht und an Dystopien wie in der Terminator-Reihe oder in I, Robot mag ich nicht recht glauben. Ich frage mich allerdings schon, wie eine Gesellschaft funktionieren würde und wie man soziale Gerechtigkeit aufrechterhalten könnte, wenn immer mehr Tätigkeiten (teils sogar viel besser) von Robotern verrichtet werden können und menschliche Arbeit fast vollständig überflüssig wäre. Und dann gibt es Leute wie Stephen Hawkings und Elon Musk, die offenbar ziemlich besorgt über die Möglichkeit sind, daß KIs sogar das Ende der menschlichen Existenz einläuten könnten.
Wie empfinden die LeserInnen diese Entwicklung? Seht Ihr der Evolution der KIs mit Vorfreude oder Furcht entgegen? Werdet Ihr den ersten Roman, den eine Maschine für Menschen geschrieben hat, lesen? Wie würde wohl Maschinen-Lyrik auf Euch wirken? Komponieren können sie ja schon. Würdet Ihr zu einem Robo-Doc gehen, um Euch medizinisch behandeln zu lassen? (Auch nicht, wenn er sehr viel bessere Behandlungserfolge aufweisen könnte, als sein bester menschlicher Kollege?) Würdet Ihr Eure Eltern von einem Roboter pflegen lassen und würdet Ihr selbst Euch einer solchen Maschine aussetzen? Würden wir Maschinen-Richter (s.u.) haben wollen, die nicht mit Hunger im Bauch strengere Urteile fällen als ihre anfälligen menschlichen Pendants? Und zuletzt: Könntet Ihr Euch vorstellen – eines Tages – eine Beziehung mit einer Maschine einzugehen?
____
### UPDATE am 15.11.: Hier haben wir nun schon die erste Evidenz [2], daß Maschinen besser sind als menschliche Richter bei der Entscheidung, ob ein Straffälliger bis zur Verhandlung auf Kaution freigelassen werden sollte oder nicht: in einer Untersuchung von 758000 Fällen konnten die Vorhersagen von Maschinen aufgrund der Vorgeschichte der Straffälligen die Verbrechensrate um 25% senken ohne die Inhaftierungsrate zu erhöhen bzw. die Inhaftierungsrate um 42% senken ohne die Verbrechensrate zu erhöhen. Alle Arten von Verbrechen einschl. Gewaltverbrechen konnten reduziert werden und, sehr wichtig!, die durch Rassismus begründete Disparität bei den Inhaftierungszahlen.
_____
Referenzen:
[1] Silver, D., Schrittwieser, J., Simonyan, K., Antonoglou, I., Huang, A., Guez, A., … & Chen, Y. (2017). Mastering the game of Go without human knowledge. Nature, 550(7676), 354-359.
[2] Kleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J., & Mullainathan, S. (2017). Human decisions and machine predictions (No. w23180). National Bureau of Economic Research.
Kommentare (74)