Vor kurzem wurde am Koreanischen KAIST, einer Universität von Weltrang in Daejeon, in Kollaboration mit dem Rüstungskonzern Hanwha das Research Center for the Convergence of National Defense and Artificial Intelligence gegründet. Verschiedene Medien berichteten, dass das Ziel die Entwicklung autonomer Waffensysteme sei, oft beschrieben als Killerroboter. Ausgelöst wurde der Medienrummel nicht so sehr von der Meldung selbst, sondern durch den anschließenden offenen Brief von Wissenschaftlern aus der ganzen Welt, die zum Boycott der Forschungseinrichtung aufrufen, weil deren Ziel sei
die Technologie für künstliche Intelligenz zu entwickeln, die in militärischen Waffen eingesetzt werden kann, um dem weltweiten Wettbewerb um die Entwicklung autonomer Waffensysteme beizutreten. (Original: to “develop artificial intelligence (AI) technologies to be applied to military weapons, joining the global competition to develop autonomous arms.”)
insbesondere
KI-basierte Kommando- und Systeme zur Entscheidungsfindung, Navigationsalgorithmen für große unbemannte Unterseefahrzeuge, KI-basierte intelligente Flugsimulatoren und KI-basierte intelligente Erfassungs- und Erkennungstechnologie. (Original: AI-based command and decision systems, composite navigation algorithms for mega-scale unmanned undersea vehicles, AI-based smart aircraft training systems, and AI-based smart object tracking and recognition Technology.)
Toby Walsh, Initiator des Briefes, fasst seine Beweggründe folgendermaßen zusammen:
Mit KI kann man viele großartige Dinge tun, die leben retten, auch in einem militärischen Kontext, aber offen zu erklären, das Ziel sei die Entwicklung autonomer Waffen und das in Verbindung mit einem solchen Partner ist eminent besorgniserregend (Original: There are plenty of great things you can do with AI that save lives, including in a military context, but to openly declare the goal is to develop autonomous weapons and have a partner like this sparks huge concern)
Sung-Chul Shin, Präsident der KAIST antwortete auf den Brief:
Ich möchte sie nochmals versichern, dass KAIST nicht die Absicht hat, in die Entwicklung von tödlichen autonomen Waffensystemen und Killerrobotern einzusteigen… Als universitäre Einrichtung schätzen wir die Menschenrechte und halten sehr hohe ethische Standards ein. I versichere Sie nochmals, dass KAIST keinerlei Forschungsaktivitäten unternehmen wird, die der menschlichen Würde zuwiderlaufen, wie autonome Waffen ohne sinnvolle menschliche Kontrolle. (Original: I would like to reaffirm that KAIST does not have any intention to engage in development of lethal autonomous weapons systems and killer robots… As an academic institution, we value human rights and ethical standards to a very high degree. I reaffirm once again that KAIST will not conduct any research activities counter to human dignity including autonomous weapons lacking meaningful human control.”)
Hervorhebung durch mich. Denn in diesen paar Wörtern steckt in meinen Augen Sprengstoff. meaningful human control – sinnvolle menschliche Kontrolle. Was ist das? Nicht die akademische Antwort aus dem Lehrbuch, was bedeutet es für die Menschen auf beiden Seiten des autonomen militärischen Waffensystems? Dazu vieleicht einige Gedanken, wie schon heute und seit vielen Jahren maschinelle Kriegsführung aussieht.
Seit etwa zehn Jahren werden durch die USA in Ländern wie Pakistan, Afghanistan und dem Irak Menschen gezielt durch Drohnenangriffe getötet. Die USA rechtfertigen ihre Angriffe im Rahmen des Krieges gegen den Terror als zulässiges Mittel, obwohl schon die durch das US-amerikanische Verteidigungsministerium veröffentlichten (und damit aller Erfahrung mit Nachrichten aus Kriegsgebieten geschönten) Zahlen vermuten lassen, dass etwa 20 % der getöteten definitiv Unbeteiligte sind. Diese Drohnen verfügen über hochentwickelte Navigationssysteme, können selbsttätig ihre Zielgebiete anfliegen und dort patrouillieren. Der Drohnenpilot kann sich so auf die Aufgabe konzentrieren, Ziele zu bekämpfen. Unterstützt wird er dabei durch automatisierte Systeme zur Zielallokation, Freund-Feind-Erkennung und Feuerleitung. Das ganz sieht von außen aus wie ein Computerspiel, aber so einfach ist es nicht.
Viele Drohnenpiloten entwickeln mehr oder minder schwere Formen der Posttraumatischen Belastungsstörung (PTBS). Von einem klimatisierten Raum am anderen Ende der Welt per Knopfdruck zu töten belastet Menschen. Die Technisierung der Tat und die Anonymisierung der Getöteten kann die Empathie und das ethische Dilemma nicht völlig verwischen. Was aussieht, wie ein Computerspiel wird von den Piloten sehr wohl als real erkannt. Die wenigsten Menschen töten gerne und die Hemmschwelle steigt je kleiner das Gefühl ist, selbst in Gefahr zu sein. Per Drohe zu töten ist für alle praktischen Belange ein Attentat, kein Kampf und für viele Menschen ist das aus verständlichen Gründen ein ernstes psychologisches Problem.
Kommentare (12)