Vor kurzem wurde am Koreanischen KAIST, einer Universität von Weltrang in Daejeon, in Kollaboration mit dem Rüstungskonzern Hanwha das Research Center for the Convergence of National Defense and Artificial Intelligence gegründet. Verschiedene Medien berichteten, dass das Ziel die Entwicklung autonomer Waffensysteme sei, oft beschrieben als Killerroboter. Ausgelöst wurde der Medienrummel nicht so sehr von der Meldung selbst, sondern durch den anschließenden offenen Brief von Wissenschaftlern aus der ganzen Welt, die zum Boycott der Forschungseinrichtung aufrufen, weil deren Ziel sei
die Technologie für künstliche Intelligenz zu entwickeln, die in militärischen Waffen eingesetzt werden kann, um dem weltweiten Wettbewerb um die Entwicklung autonomer Waffensysteme beizutreten. (Original: to “develop artificial intelligence (AI) technologies to be applied to military weapons, joining the global competition to develop autonomous arms.”)
insbesondere
KI-basierte Kommando- und Systeme zur Entscheidungsfindung, Navigationsalgorithmen für große unbemannte Unterseefahrzeuge, KI-basierte intelligente Flugsimulatoren und KI-basierte intelligente Erfassungs- und Erkennungstechnologie. (Original: AI-based command and decision systems, composite navigation algorithms for mega-scale unmanned undersea vehicles, AI-based smart aircraft training systems, and AI-based smart object tracking and recognition Technology.)
Toby Walsh, Initiator des Briefes, fasst seine Beweggründe folgendermaßen zusammen:
Mit KI kann man viele großartige Dinge tun, die leben retten, auch in einem militärischen Kontext, aber offen zu erklären, das Ziel sei die Entwicklung autonomer Waffen und das in Verbindung mit einem solchen Partner ist eminent besorgniserregend (Original: There are plenty of great things you can do with AI that save lives, including in a military context, but to openly declare the goal is to develop autonomous weapons and have a partner like this sparks huge concern)
Sung-Chul Shin, Präsident der KAIST antwortete auf den Brief:
Ich möchte sie nochmals versichern, dass KAIST nicht die Absicht hat, in die Entwicklung von tödlichen autonomen Waffensystemen und Killerrobotern einzusteigen… Als universitäre Einrichtung schätzen wir die Menschenrechte und halten sehr hohe ethische Standards ein. I versichere Sie nochmals, dass KAIST keinerlei Forschungsaktivitäten unternehmen wird, die der menschlichen Würde zuwiderlaufen, wie autonome Waffen ohne sinnvolle menschliche Kontrolle. (Original: I would like to reaffirm that KAIST does not have any intention to engage in development of lethal autonomous weapons systems and killer robots… As an academic institution, we value human rights and ethical standards to a very high degree. I reaffirm once again that KAIST will not conduct any research activities counter to human dignity including autonomous weapons lacking meaningful human control.”)
Hervorhebung durch mich. Denn in diesen paar Wörtern steckt in meinen Augen Sprengstoff. meaningful human control – sinnvolle menschliche Kontrolle. Was ist das? Nicht die akademische Antwort aus dem Lehrbuch, was bedeutet es für die Menschen auf beiden Seiten des autonomen militärischen Waffensystems? Dazu vieleicht einige Gedanken, wie schon heute und seit vielen Jahren maschinelle Kriegsführung aussieht.
Seit etwa zehn Jahren werden durch die USA in Ländern wie Pakistan, Afghanistan und dem Irak Menschen gezielt durch Drohnenangriffe getötet. Die USA rechtfertigen ihre Angriffe im Rahmen des Krieges gegen den Terror als zulässiges Mittel, obwohl schon die durch das US-amerikanische Verteidigungsministerium veröffentlichten (und damit aller Erfahrung mit Nachrichten aus Kriegsgebieten geschönten) Zahlen vermuten lassen, dass etwa 20 % der getöteten definitiv Unbeteiligte sind. Diese Drohnen verfügen über hochentwickelte Navigationssysteme, können selbsttätig ihre Zielgebiete anfliegen und dort patrouillieren. Der Drohnenpilot kann sich so auf die Aufgabe konzentrieren, Ziele zu bekämpfen. Unterstützt wird er dabei durch automatisierte Systeme zur Zielallokation, Freund-Feind-Erkennung und Feuerleitung. Das ganz sieht von außen aus wie ein Computerspiel, aber so einfach ist es nicht.
Viele Drohnenpiloten entwickeln mehr oder minder schwere Formen der Posttraumatischen Belastungsstörung (PTBS). Von einem klimatisierten Raum am anderen Ende der Welt per Knopfdruck zu töten belastet Menschen. Die Technisierung der Tat und die Anonymisierung der Getöteten kann die Empathie und das ethische Dilemma nicht völlig verwischen. Was aussieht, wie ein Computerspiel wird von den Piloten sehr wohl als real erkannt. Die wenigsten Menschen töten gerne und die Hemmschwelle steigt je kleiner das Gefühl ist, selbst in Gefahr zu sein. Per Drohe zu töten ist für alle praktischen Belange ein Attentat, kein Kampf und für viele Menschen ist das aus verständlichen Gründen ein ernstes psychologisches Problem.
Schon heute macht das Interface des Kampfpiloten ihm die Entscheidung leicht, indem Gegenstände automatisch identifiziert werden. Wenn jemand in einem Kriegsgebiet jemand in einer Gruppe Menschen augenscheinlich Waffen trägt, während nicht weit weg die eigenen Soldaten in Feuergefechte verwickelt sind, ist es vermutlich ein feindlicher Kämpfer, die Entscheidung zum Angriff wird in kurzer Zeit getroffen, der Drohnenpilot steht dabei unter großem Stress. “Sinnvolle menschliche Kontrolle” ist eine Illusion.
Um Missverständnisse zu vermeiden: Mein Mitleid mit Drohnenpiloten hält sich in Grenzen, weil ich diese ganze Art der Kriegführung für ethisch verwerflich und obendrein schädlich für die Beziehung der involvierten Staaten untereinander, sowie nicht nur nicht zielführend bei der Bekämpfung der Ursachen des Terrors, sogar geradezu förderlich für dessen Fortbestehen halte. Ich mache mir auch weniger Sorgen um die Fähigkeiten der Maschinen als um die Kaltblütigkeit der Menschen, die über ihren Einsatz entscheiden. Das sind nur in zweite Linie die Piloten.
Die Befehlshaber, die selbst nicht töten, sondern es anordnen und in den praktischen Ablauf weder so oft noch so intensiv involviert sind, haben viel weniger Gelegenheit und gute Gründe, das eigene Handeln im Lichte des konkreten Angriffs zu bedenken. Reflexivität oder gar Skrupel entwickeln sich da deutlich schlechter. Wenn die Algorithmen zur Freund-Feind-Erkennung, zur Navigation und zur Lageeinschätzung tatsächlich immer besser werden, dann rechne ich damit, dass sich die Kommandeure auch immer mehr auf deren Einschätzung verlassen und das an ihre Untergebenen weiterreichen. Völlig autonome Drohnen, die zu Beginn der Mission ihre Befehle erhalten und keine Funkverbindung mehr brauchen, wären auch weniger anfällig für elektronische Gegenmaßnahmen – ein weiterer Vorteil. Menschliches Eingreifen wird für alle praktischen Belange schnell zur Formsache, ist es ja zum Teil schon heute, auch wenn gelehrte Köpfe lange über die Frage nach Schuld und Verantwortung streiten mögen.
Spielen wir an dieser Stelle ruhig mal ein bisschen Anwalt des Teufels: Menschen machen Fehler und Friendly-Fire gehört zum Krieg genauso wie falsch ausgewählte Ziele, Fehleinschätzung der Lage und ungewollte Konsequenzen. Man kann also genauso gut die Frage stellen: Wie viel besser oder schlechter ist die KI im Vergelich zum Menschen? Wenn sie tatsächlich weniger oft falsch entscheidet, hat sie das Potential, Kollateralschäden zu reduzieren. Wäre das nicht erstrebenswert?
Ich vermute, dass Drohnen auf allen Gebieten der Kriegsführung Einzug halten werden, auch in den Marinen. Dem oben verlinkten Artikel folgend zum Beispiel in Form relativ kleiner Unterseeboote, die mit außenluft-unabhängigen konventionellen Antrieben eine Seeausdauer im Bereich von Wochen erreichen können. Die Entwicklung des praktisch einsetzbaren Langstreckentorpedos mit großer Geschwindigkeit zusätzlich zum seit Jahrzehnten im Einsatz stehenden U-Bootgestützten Seezielflugkörper auf einer relativ kleinen, beweglichen und in großer Zahl produzierbaren Waffenplattform bedeutet auch für superleise strategische U-Boote eine Gefahr. Von großen Überwasserschiffen gar nicht zu reden.
Ineratiale Navigationssysteme sind heute so gut, dass sie ohne Rückgriff auf GPS oder Landpeilung Standortbestimmungen im Bereich weniger Hundert Meter über lange Zeiträume erlauben. Automatische Mustererkennung erlaubt sehr schnelle Erfassung von Küstenlinien und Landzeichen oder bei guten Sichtverhältnissen gar Astronavigation. Auch ohne Satellitennavigation kann so lange auf See navigiert werden. An welcher Stelle sitzt das sinnvolle menschliche Kontrollorgan? Wann ist der Moment, ab dem die Maschine ihr Ziel selbstständig verfolgt? Wieder: Nicht die Antwort aus dem Lehrbuch, sondern die konkrete Praxis.
Vielleicht unke ich ja auch zu früh: Wenn der zunehmende Einsatz von Drohnen in Verbindung mit hochentwickelter künstlicher Intelligenz dazu führt, dass zukünftig vor allem Roboter andere Roboter bekämpfen und menschliches Leid dadurch gemindert wird, wäre das in meinen Augen eine begrüßenswerte Entwicklung. Die Welt sähe dann aus, wie in der deutschen Version von Command&Conquer: Die Zivilisten sind einigermaßen geschützt, weil sich Kampfroboter in besonderen Gefechtszonen bekämpfen.
Daran zu glauben fällt mir allerdings schwer. Jahrtausende lang wurden Kriege geführt und gewonnen, indem jede Partei versucht hat, so viele Menschen auf der Gegenseite wie möglich zu vernichten. Wenn in einem zukünftigen Konflikt eine Seite alle ihre Kampfroboter aufgebraucht, aber noch eine große wehrfähige Bevölkerung zur Verfügung hat, welches Szenario ist dann plausibler: Dass sie sich geschlagen gibt, weil keine Maschinen mehr da sind oder, dass sie vor der Kapitulation wieder Menschen mit Waffen an die Front schickt?
Ich glaube nicht, dass es sich aufhalten lässt.
Ingenieure bauen gerne Sachen und ethische Probleme oder gesellschaftliche Konsequenzen sind selbst in meiner kleinen Welt den meisten ziemlich egal. Das Militär bezahlt gerne Ingenieure dafür, dass sie tolle Sachen bauen, weil die anderen Militärs überall dasselbe machen und man nicht ins Hintertreffen geraten will. Konkurrenz belebt bekanntlich das Geschäft. Das mag ein harsches Urteil sein und sicher kann man mir mit guten Argumenten widersprechen. Aber am Ende des Tages werden sich schon die richtigen Leute finden. Techniker neigen nicht dazu, Philosophen zu sein. Vielleicht aus Patriotismus, wegen dem Geld oder des Geldes wegen, aus Gründen von Machismo, weil sie’s dem Killeroboter der Konkurrenzuni zeigen wollen oder was weiss ich warum – begabte junge Leute werden im Laufe der Zeit militärisch nutzbare Kampfmaschinen entwickeln.
Und wenn nicht und ich mich völlig irre? Dann schlägt leider die Janusköpfigkeit der modernen Technik zu: Die automatisierte Suchdrohne der Universität A kann vielleicht ein Gebiet, in dem ein Flugzeug abgestürzt ist, schneller absuchen und die Unfallstelle sicherer bestimmen als die der Universität B. Die Rettungsdrohne der Universität B schafft es dafür schneller und sicherer als die andere, die auf dem Meer treibenden Menschen, die sie retten soll, von den ähnlich großen und ähnlich geformten Flugzeugteilen zu unterscheiden, die um sie herumschwimmen. So ergänzen sich beide Systeme und haben das Potential, Menschenleben zu retten. Wer könnte dagegen etwas sagen? Ich ganz sicher nicht. Oder gegen autonome Prospektionsdrohnen für die Rohstoffsuche? In der Tat nutzen wir heute eine Menge ursprünglich militärische Technologie zu friedlichen Zwecken.
Die Erfahrung lehrt, dass alles, was entwickelt werden kann, entwickelt werden wird. Das gilt besonders für Waffen. Und natürlich ist die Ankündigung des KAIST nicht die erste Ihrer Art. Hier ein Beispiel von vor ein paar Monaten. Sieht sogar eigentlich ganz lustig aus – aber je nachdem, wie man die Technologie einsetzt, wird es ziemlich schnell ernst. Deswegen wird die Zukunft umso mehr wieder davon bestimmt werden, wie wir als Gesellschaft Technik einsetzen wollen. Entscheiden sich ausreichend viele Menschen dagegen und äußern diese Meinung in Form von Demonstrationen, Wahlen, etc. oder auf politischer Ebene internationaler Abkommen (Immerhin haben wir 70 Jahre ohne Einsatz von Kern- oder Biowaffen überstanden, was zeigt, dass multilaterale Abkommen tatsächlich greifen können), werden wir die Entwicklung wahrscheinlich auch nicht aufhalten, aber ändern, anpassen und gestalten können. Entscheiden sich ausreichend viele dafür oder interessieren sich schlicht und ergreifend nicht, dann werden wir auch jede Einflussnahme verlieren.
Kommentare (12)