Dieser Artikel ist Teil des ScienceBlogs Blog-Schreibwettbewerb 2018. Informationen zum Ablauf gibt es hier. Leserinnen und Leser können die Artikel bewerten und bei der Abstimmung einen Preis gewinnen – Details dazu gibt es hier. Eine Übersicht über alle am Bewerb teilnehmenden Artikel gibt es hier. Informationen zu den Autoren der Wettbewerbsartikel finden sich in den jeweiligen Texten.
——————————————————————————————————————
Künstliche Intelligenz – Zwischen Buzzword-Bingo, Science Fiction und sozialen Abgründen
von Pablo Gómez
Mein Name ist Pablo Gómez und ich promoviere derzeit an der HNO-Klinik des Universitätsklinikums Erlangen im Bereich medizinische Bildverarbeitung und Stimmforschung. Der Fokus meiner Forschung liegt in letzter Zeit im Einsatz von Deep-Learning-Methoden. Neben der Forschung interessieren mich aber auch gesellschaftliche und politische Themen sowie Musik. Mehr über mich ist auf pablo-gomez.net zu erfahren.
Künstliche Intelligenz (KI) ist in aller Munde. Aber was ist KI eigentlich? Was kann KI heute? Dahinter steckt eine Technologie, die ungeahnte Möglichkeiten bietet und weitreichend einsetzbar ist. Aber wie so oft ist nicht jeder Einsatz wünschenswert. Autonome Waffensysteme und der Überwachungsstaat nutzen die gleichen Verfahren wie selbstfahrende Autos und Diagnosesysteme. Welche Einsatzgebiete akzeptabel sind und wo die Reise hingeht, das entscheidet sich heute.
1. Was sind Künstliche Intelligenz, Maschinelles Lernen und „Deep Learning”?
In den letzten Jahren tauchen die Begriffe Künstliche Intelligenz (KI, engl. artificial intelligence, AI) und Deep Learning nahezu täglich in den Medien auf. Sowohl auf staatlicher als auch auf wirtschaftlicher Ebene ist das Thema omnipräsent. Besonders die USA und China sind Vorreiter in diesem Bereich, aber auch die Bundesregierung arbeitet gerade die
„Strategie Künstliche Intelligenz“ aus. Der Fortschritt scheint uns abzuhängen. Google präsentiert Assistenten, die selbstständig Anrufe durchführen, selbstfahrende Autos wirken zum Greifen nahe und diagnostizieren kann die Maschine teils auch schon.
Doch wie funktioniert das überhaupt? Was ist KI, wohin geht die Reise und was sind die Chancen und Gefahren dieser Technologie?
KI ist ein Feld der Informatik, das sich mit Programmen oder Geräten beschäftigt, die abhängig von dem Input, den sie erhalten (z.B. Sensordaten, Bilder, Figurenpositionen auf einem Schachbrett…), eine Entscheidung oder Analyse liefern. Maschinelles Lernen (ML, engl. Machine Learning) ist ein Unterbereich davon, der sich mit Methoden befasst, die lernen. Deep Learning sind Methoden, die für ML verwendet werden, in der Regel mit Nutzung von neuronalen Netzwerken (NN). Das klingt erst einmal sehr vage und ist geschmückt mit Begriffen wie „Lernen“, „Neuronen“ und „Intelligenz“, die die meisten mit menschlichen Eigenschaften verbinden. Leider – oder zum Glück – ist aber die Konstruktion von irgendetwas wirklich Menschenähnlichem noch nicht absehbar. Google DeepDream träumt nicht wie ein Mensch, und auch wenn Maschinen in Go oder DotA sich mit Menschen messen oder sie schlagen, handelt es sich dabei immer um domänenspezifische Systeme, also Programme, die etwas Bestimmtes sehr gut, aber davon abgesehen eigentlich gar nichts können. Das, was die meisten intuitiv unter „Intelligenz“ verstehen, dürfte besser von „artificial general intelligence“ (AGI, dt. etwa Allgemeine, künstliche Intelligenz) erfasst werden.
Hierbei geht es um Systeme, die domänenunabhängig agieren. Derzeit ist unklar, ob so etwas jemals überhaupt erreichbar sein wird. Die aktuellen Systeme sind also lediglich sehr gut darin, bestimmte Probleme zu lösen, und es gibt einige Kritik an dieser Tendenz.
Trotzdem sind die Fortschritte in diesem Feld in den letzten Jahren atemberaubend. Nicht, weil plötzlich verstanden wurde, was Intelligenz ist und wie intelligente Maschinen zu bauen wären, aber weil die Rechenleistung enorm gestiegen ist und die Datenmengen, die zum Training von NNs benötigt werden, verfügbar geworden sind. Natürlich gab es auch etliche Fortschritte in der Forschung, aber ohne die beiden genannten Faktoren wären die heutigen Durchbrüche unvorstellbar. Aber was machen NNs denn nun eigentlich und welche Leistungen haben sie erbracht?
Die Anwendung von NNs ist eigentlich sehr anschaulich. Aus Platzgründen spare ich mir die Details darüber, was im Netzwerk passiert, und betrachte es gewissermaßen als eine Black Box (mehr über die Funktionsweise gibt es z.B. hier). Das Netzwerk als Black Box hat also Eingänge und Ausgänge. Eingegeben werden kann im Prinzip alles, was irgendwie in Zahlenform darstellbar ist, etwa Videos, Bilder, Audioaufnahmen et cetera. Der Ausgang liefert dann (hoffentlich) die gewünschte Information. Der Anschaulichkeit halber beziehe ich das jetzt nur auf Bilder. Dann könnte der Output sein:
- Enthält das Bild Objekt X – ja/nein
- Wo im Bild ist Objekt X – Pixelkoordinaten eines Rechtecks um das Objekt
- Eine Karte des Bilds, auf der jeder Pixel einem Objekt zugeordnet wird (sog. Segmentierung)
- Das gleiche Bild, aber ohne Rauschen oder in besserer Auflösung (sog. Denoising bzw. Super-resolution)
Jetzt bleibt die Frage: Wie lernt das NN, den richtigen Output zu liefern? Hier kommt der „learning“-Teil in ML ins Spiel. Das NN wird trainiert mit Beispieldaten. Praktisch bedeutet das, dass ein Datensatz mit den gewünschten Outputs vorliegt. Dann werden die Daten Stück für Stück und immer wieder in das Netzwerk eingespeist und an den Parametern des Netzwerks gedreht, bis es zunehmend den richtigen Output für diese Trainingsdaten liefert. Dieser Vorgang passiert automatisiert und ist ein bisschen mathematischer und komplexer als hier beschrieben, aber im Großen und Ganzen ist das alles. Wenn genug und mit ausreichend Daten trainiert wurde und das Netzwerk nicht zu simpel ist, ist das NN einsatzbereit für die Anwendung auf neue, unbekannte Daten!
2. Anwendungen und Chancen
Ein paar der Anwendungen wurden anfangs bereits erwähnt. Viele der vollbrachten Errungenschaften sind faszinierend, aber es gibt doch sehr große Unterschiede in den gesellschaftlichen Auswirkungen, die diese Technologien haben werden. Während es natürlich für EnthusiastInnen wahnsinnig spannend ist, dass AlphaZero die Schach- und Go-Welt aufrüttelt, sind die gesamtgesellschaftlichen Konsequenzen davon relativ gering. Auch auf der künstlerischen Seite bieten sich komplett neue Gestaltungsmöglichkeiten durch KI. Das kann die Gestalt von computer-komponierter Musik oder auch von künstlich erzeugten oder transformierten Bildern haben. Gleichzeitig aber gibt es Themen, die viele Menschen beschäftigen und verunsichern, in deren Kontext KI eine Rolle spielt und spielen wird.
Eines der Schlagwörter unserer Zeit ist Automatisierung. Selbstfahrende Fahrzeuge werden mit sehr großer Wahrscheinlichkeit im Laufe des nächsten Jahrzehnts verfügbar sein.
Auch die Automatisierung in der Fertigung nimmt weiter zu und es braucht wenig Vorstellungsvermögen, um sich eine vollautomatische Kasse im Supermarkt vorzustellen. Es ist umstritten, wie groß das Ausmaß der Automatisierung sein wird, wie viele Stellen sie vielleicht erzeugt oder
kostet und wie damit sowohl politisch als auch gesellschaftlich umzugehen sein wird. Fest steht: In Kürze wird es durch die neuen KI Methoden die technischen Möglichkeiten geben, viele Aufgaben, die derzeit Menschen erledigen, ohne oder mit geringerer menschlicher Intervention durchzuführen. In vielen Fällen ist zu hoffen, dass dies nicht nur eine zusätzliche Freiheit von der Notwendigkeit der Verrichtung dieser Tätigkeiten bedeutet, sondern auch Kapazitäten eröffnet, wo Mangel herrscht. Etwa die Altenpflege in Deutschland könnte davon profitieren und es gibt jetzt bereits Fälle, wo diese Methoden im medizinischen Bereich Nutzen haben.
Ein Beispiel ist die Erkennung der diabetischen Retinopathie, einer Erkrankung der Netzhaut, die bei 90% der DiabetikerInnen innerhalb von 20 Jahren Krankheitsverlauf
auftritt. Sie ist die häufigste Erblindungsursache in Europa. Die Erkennung der Anzeichen dieser Krankheit
mithilfe von Deep-Learning-Methoden wurde vor knapp zwei Jahren aufgezeigt und wird – im Angesicht der hohen Anzahl an Betroffenen – hoffentlich eine massive Entlastung für medizinisches Personal sein. Kürzlich hat DeepMind in Zusammenarbeit mit britischen Krankenhäusern ähnliche Ergebnisse für viele weitere Krankheitsbilder geliefert. Dies ist ein sehr konkretes Beispiel für das enorme Potential dieser Methoden zur Verwirklichung von Werkzeugen zur Verrichtung spezifischer Aufgaben. Es gibt viele Beispiele dieser Art. Grundlegend bietet vor allem der Bereich der Bildverarbeitung große Möglichkeiten für Deep-Learning-Methoden. Die Methoden sind besonders geeignet für Objekterkennung, Objektlokalisierung, Segmentierung und Bildbearbeitung.
Wenn es um Automatisierung geht, wird häufig die Sorge vor dem Jobverlust als drohendes Damoklesschwert herbeibeschworen und die Automatisierung als Übeltäterin festgemacht. Leider wird dabei vieles durcheinandergeworfen. Einen Wandel am Arbeitsmarkt gab es immer und wenn Menschen heute um ihre Existenz fürchten müssen, weil es möglich ist, eine Maschine zu bauen, die ihnen ihre Arbeit abnimmt, dann spricht das Bände über den Zustand der Gesellschaft. Die Ursache der Angst ist schließlich quasi nie, dass die Person darum fürchtet, dass sie die Tätigkeit nicht mehr ausüben kann oder darf. Ihr Lebensstandard, ihre finanzielle und soziale Absicherung sind in Gefahr und sie muss in der Gesellschaft damit rechnen, mangelnde Leistungsbereitschaft unterstellt und vorgeworfen zu bekommen. Davor hat sie verständlicherweise Angst, aber die Ursache dieser Angst ist nicht die Automatisierung, sondern ihre gesellschaftliche Situation. Umgekehrt heißt das aber auch nicht, dass diese Technologien keine Probleme und Gefahren haben.
3. Gefahren
Wie viele bahnbrechende Technologien (vgl. Kernspaltung) bietet Deep Learning nicht nur enormes Potential, sondern auch die Gefahr des Missbrauchs und – was oft deutlich subtiler geschieht – der Verstärkung von gesellschaftlichen Problemen und Ungleichheiten. Als Beispiel für Ersteres möchte ich an dieser Stelle kurz auf autonome Waffensysteme und Überwachungstechnik eingehen. Im Bezug zu Letzterem auf Patente, „algorithmic bias“ und Werbung.
Durch die riesigen Fortschritte in der Bildverarbeitung und Mustererkennung, die Deep-Learning-Methoden gebracht haben, sind auch viele Echtzeitanwendungen wie das autonome Fahren näher gerückt. Fast alle Fortschritte in diesen Bereichen sind jedoch anfällig für sogenannte Dual-Use-Szenarien, womit gemeint ist, dass eine Technologie zivilen, aber auch militärischen Nutzen haben kann. In dem konkreten Fall ist der Einsatz vieler der Methoden die für autonome Fahrzeuge oder Lieferdrohnen verwendet werden auch für komplexe, autonome Waffensysteme wie autonome Kampfdrohnen o.Ä. denkbar. Viele der ForscherInnen im KI-Bereich sind sich dieser Gefahren bewusst. Vor ein paar Monaten haben über
3000 Individuen, 239 Forschungsstätten, Organisationen und Unternehmen sowie 26 Länder zugesichert,
keine tödlichen, autonomen Waffensysteme zu entwickeln. Das einzige europäische Land auf der Liste ist übrigens Österreich. Die Vorstellung, dass eine Maschine die ntscheidung
trifft, ein Menschenleben zu beenden, ist schon jetzt zu real geworden. Bei vielen militärischen Systemen ist die Grenze zur autonomen Entscheidung bereits zunehmend erodiert und es ist dringend an der Zeit, hier politisch und regulatorisch einen Riegel vorzuschieben.
Ähnlich kritisch ist die Situation im Bereich der Gesichtserkennung. Angetrieben von Nutzungsbeispielen wie der Entsperrung des Handys per Kamera und diversen Sicherheits- und Werbeanwendungen ist diese Technologie stark vorangekommen. Hier ist der Fortschritt noch größer und viele ExpertInnen warnen bereits vor den Auswirkungen dieser Technologie. Während in Deutschland noch darüber diskutiert wird, ob sie zur polizeilichen Fahndung o.Ä. eingesetzt werden soll, gibt es tiefgreifendere Probleme der Technologie. Mit der Schaffung einer Infrastruktur für solche Systeme wird ein weiterer Grundstein für einen Überwachungsstaat gelegt. Was heute eine Verkehrskamera ist, kann schon morgen zur Dauerüberwachung von Individuen genutzt werden. Mit derselben Technologie können potentielle Kunden erkannt und Menschen von Orten ausgeschlossen werden.
Es ist weitreichend erforscht, dass Menschen, die davon ausgehen, dass sie überwacht werden, sich grundlegend anders verhalten.
China ist in der Hinsicht schon „weiter“, dort sind Systeme im Einsatz oder Test, die eine umfassende Echtzeitüberwachung und Bewertung des Verhaltens signifikanter Teile der Bevölkerung ermöglichen. Auch hier gilt es, dass dem jetzt entgegengetreten werden muss. Das heißt, es muss heute auf gesellschaftlicher Ebene darüber gesprochen und sichergestellt werden, wie damit umzugehen ist. Die Meinungen darüber, wie restriktiv Gesetzgebung in diesem Bereich sein sollte gehen auseinander. Das Wichtigste ist aber, diese Diskussion nicht zu vertagen. Da die technischen Möglichkeiten zunehmend geschaffen sind, ist der inflationäre Einsatz durch Unternehmen und Regierungen nur eine Frage der Zeit.
Doch nicht alle Probleme, die sich ergeben, kommen von den neuen technischen Möglichkeiten. Ein weitere große Herausforderung ist die Konzentration des Wissens und der Fachkräfte in diesem Bereich in amerikanischen und chinesischen Unternehmen. In den USA zeigt sich dies unter anderem an der Patentwut der Unternehmen. Während Google, Facebook und Co. durchaus Quellcode und Werkzeuge veröffentlichen, patentieren sie im Hintergrund diverse Methoden im Bereich ML. Die Nachfrage nach Fachkräften und ForscherInnen in dem Bereich ist weiterhin explosiv gestiegen, weshalb in der Industrie häufig hohe Gehälter geboten werden, während insbesondere die Universitäten nicht mithalten können. Die Geldströme in dem Bereich sind auch vor allem in China und den USA enorm, weshalb eine Vielzahl renommierter europäischer ForscherInnen kürzlich in einem offenen Brief
zu einer europäischen KI-Initiative aufriefen. Gerade aufgrund der offenen ethischen Fragen ist es beunruhigend, wenn große Teile der führenden ForscherInnen und der state-of-the-art Technologie bei Unternehmen landen. Ihre Forschung wird damit häufig für die Öffentlichkeit unzugänglich und Motivation ist dann am Ende des Tages zwangsläufig kommerzielle Verwertbarkeit, nicht gesellschaftlicher Nutzen.
Die letzte Gefahr, auf die ich hier eingehen möchte, sind die gesellschaftlichen Auswirkungen, die diese Technologien haben können. Hier gibt es eine ganze Reihe von Anzeichen dafür, dass ein regulatorischer Rahmen dringend nötig ist. Beginnend damit, dass Software dazu neigt, die vorhandenen Vorurteile abzubilden. Datensätze müssen speziell untersucht werden, um einer systematischen Diskriminierung vorzubeugen. Dafür gibt es bereits etliche Beispiele. Etwa ein System in den USA, das Schwarze vor Gericht benachteiligte, oder Gesichtserkennungssysteme, die schlechter bei Frauen und Menschen mit dunklerer Hautfarbe funktionieren.
In den USA untersucht mittlerweile das staatliche NIST die Fehlerraten
verschiedener Systeme in dieser Hinsicht. Das ist ein erster, wichtiger Schritt, aber hier bleibt viel zu tun. Ein weiteres Anzeichen liegt im zunehmenden Trend der algorithmischen Bewertung von Individuen. Zuletzt ging das Beispiel des sogenannten „social scorings“ in China durch die Presse, doch bei genauerem Blick zeigt sich: Diese Systeme sind schon länger im Kommen und werden in subtilerer Variante auch im Westen eingesetzt. Es zeigt sich auch, dass sie insbesondere Minderheiten und ärmere Menschen benachteiligen. Auch hier herrscht Handlungsbedarf.
Persönlich glaube ich, dass eine der größten Bedrohungen, die sich abzeichnet, jedoch ist, was sich in der Verwandlung der Werbewelt in den letzten Jahren und jetzt auch bei Nachrichten und politischer Werbung gezeigt hat. Personalisierte Werbung im Internet ist ein Riesengeschäft und mit Methoden der Automatisierung, der sogenannten „information warfare“ und ML öffnen sich erschreckende Abgründe: Systeme, die uns gezielt bestimmte Informationen zeigen, damit wir länger einen Dienst nutzen (z.B. YouTube, Facebook); Systeme, die unsere Meinung und unseren Geisteszustand evaluieren und uns potentiell manipulieren. Das ist eine grundlegende Gefahr für unsere Demokratie. Bereits seit einigen Jahren ist bekannt, dass PR Firmen gezielt Onlinemedien wie Reddit manipulieren und dass die technischen Notwendigkeiten für eine solche Manipulation relativ gering sind. Seit dem amerikanischen Wahlkampf 2016 wird auch immer wieder über Twitter Bots berichtet. Noch ist nicht abzusehen, in welchem Ausmaß diese Technologien gemeinsam eingesetzt werden können, aber auch hier sind eine grundlegende Aufklärung der BürgerInnen und die Schaffung eines rechtlichen Rahmens dringend geboten, um die Legitimation der Demokratie vor Angriffen und Manipulation zu schützen.
4. Und nun?
Sowohl in der Wissenschaft,in der Wirtschaft als auch in der öffentlichen Wahrnehmung gibt es derzeit großen Aufruhr um KI. Manche sehen Chancen, andere eher Gefahren. Dieser Artikel hat einige der Beispiele genannt, wo sich Türen öffnen, um ungeahnte, technologische Fortschritte zu verwirklichen, aber auch solche Beispiele, bei denen mit außerordentlicher Vorsicht über das weitere Vorgehen nachgedacht werden muss.
Insgesamt fehlt es der Auseinandersetzung mit dem Thema aber oft an Sachlichkeit. Wie bei einer neuen Technologie zu erwarten ist, sind nicht allen GesprächsteilnehmerInnen die Hintergründe gleichermaßen klar. Das gilt sowohl für die technischen Möglichkeiten als auch für die gesellschaftlichen Auswirkungen und Gefahren. An erster Stelle muss also ein ausführlicher Austausch über das Thema stehen. In diese Kerbe soll auch dieser Artikel schlagen. Es gilt, ein Bewusstsein dafür zu schaffen, was technisch möglich ist und ob es wünschenswert ist. Dafür ist es enorm wichtig, den Menschen das Bild der KI-Apokalypse per Terminator zu nehmen und nicht mit der nächsten „KI jetzt schlauer als Mensch“-Schlagzeile zu ersetzen. Dies ist einerseits eine Aufgabe sowohl für WissenschaftlerInnen, die die Aufmerksamkeit der Medien und Menschen natürlich freut, aber die dabei auch differenziert, selbstkritisch und ihren ethischen Prinzipien gerecht agieren müssen. Gleichermaßen gilt das für die Medien. Über KI zu schreiben, generiert derzeit sicherlich Klicks. Das Thema ist allerdings zu wichtig, um darüber weiter so zu berichten, als wäre es nur der nächste Mensch-gegen-Maschine-Schaukampf, um den es geht.
Eine Auseinandersetzung und Aufklärung muss allerdings dringend auch auf politischer Ebene stattfinden. Im europäischen Kontext, aber auch in Deutschland ist das nötig. Heute gibt es die Situation, dass die Anbieter der meisten in Deutschland genutzten großen Internetdienste in den USA sitzen, weil das Thema in Europa lange Zeit verschlafen wurde. Auch für gesellschaftlichen Fragen hinsichtlich der Privatsphäre und der Gefahren der Kommerzialisierung von privaten Informationen und Metadaten gibt es heute ein größere Bewusstsein, doch in vielerlei Hinsicht ist das Kind bereits in den Brunnen gefallen. Es wäre ausgesprochen wünschenswert, das beim Thema KI zu vermeiden und jetzt darüber zu reden, was wie zu regulieren ist und welche Wege es nicht einzuschlagen gilt. Die Technologie ist da, sie wird nicht wieder verschwinden. Jetzt muss Klarheit darüber geschaffen werden, wofür sie eingesetzt wird.
P.S. Da das Thema sehr umfassend ist, kann ich Interessierten die Lektüre der verlinkten Inhalte nur ans Herz legen.
Kommentare (50)