Vor kurzem wurde am Koreanischen KAIST, einer Universität von Weltrang in Daejeon, in Kollaboration mit dem Rüstungskonzern Hanwha das Research Center for the Convergence of National Defense and Artificial Intelligence gegründet. Verschiedene Medien berichteten, dass das Ziel die Entwicklung autonomer Waffensysteme sei, oft beschrieben als Killerroboter. Ausgelöst wurde der Medienrummel nicht so sehr von der Meldung selbst, sondern durch den anschließenden offenen Brief von Wissenschaftlern aus der ganzen Welt, die zum Boycott der Forschungseinrichtung aufrufen, weil deren Ziel sei

die Technologie für künstliche Intelligenz zu entwickeln, die in militärischen Waffen eingesetzt werden kann, um dem weltweiten Wettbewerb um die Entwicklung autonomer Waffensysteme beizutreten. (Original: to “develop artificial intelligence (AI) technologies to be applied to military weapons, joining the global competition to develop autonomous arms.”)

insbesondere

KI-basierte Kommando- und Systeme zur Entscheidungsfindung, Navigationsalgorithmen für große unbemannte Unterseefahrzeuge, KI-basierte intelligente Flugsimulatoren und KI-basierte intelligente Erfassungs- und Erkennungstechnologie. (Original: AI-based command and decision systems, composite navigation algorithms for mega-scale unmanned undersea vehicles, AI-based smart aircraft training systems, and AI-based smart object tracking and recognition Technology.)

Toby Walsh, Initiator des Briefes, fasst seine Beweggründe folgendermaßen zusammen:

Mit KI kann man viele großartige Dinge tun, die leben retten, auch in einem militärischen Kontext, aber offen zu erklären, das Ziel sei die Entwicklung autonomer Waffen und das in Verbindung mit einem solchen Partner ist eminent besorgniserregend (Original: There are plenty of great things you can do with AI that save lives, including in a military context, but to openly declare the goal is to develop autonomous weapons and have a partner like this sparks huge concern)

Sung-Chul Shin, Präsident der KAIST antwortete auf den Brief:

Ich möchte sie nochmals versichern, dass KAIST nicht die Absicht hat, in die Entwicklung von tödlichen autonomen Waffensystemen und Killerrobotern einzusteigen… Als universitäre Einrichtung schätzen wir die Menschenrechte und halten sehr hohe ethische Standards ein. I versichere Sie nochmals, dass KAIST keinerlei Forschungsaktivitäten unternehmen wird, die der menschlichen Würde zuwiderlaufen, wie autonome Waffen ohne sinnvolle menschliche Kontrolle. (Original: I would like to reaffirm that KAIST does not have any intention to engage in development of lethal autonomous weapons systems and killer robots… As an academic institution, we value human rights and ethical standards to a very high degree. I reaffirm once again that KAIST will not conduct any research activities counter to human dignity including autonomous weapons lacking meaningful human control.”)

Hervorhebung durch mich. Denn in diesen paar Wörtern steckt in meinen Augen Sprengstoff. meaningful human control – sinnvolle menschliche Kontrolle. Was ist das? Nicht die akademische Antwort aus dem Lehrbuch, was bedeutet es für die Menschen auf beiden Seiten des autonomen militärischen Waffensystems? Dazu vieleicht einige Gedanken, wie schon heute und seit vielen Jahren maschinelle Kriegsführung aussieht.

Seit etwa zehn Jahren werden durch die USA in Ländern wie Pakistan, Afghanistan und dem Irak Menschen gezielt durch Drohnenangriffe getötet. Die USA rechtfertigen ihre Angriffe im Rahmen des Krieges gegen den Terror als zulässiges Mittel, obwohl schon die durch das US-amerikanische Verteidigungsministerium veröffentlichten (und damit aller Erfahrung mit Nachrichten aus Kriegsgebieten geschönten) Zahlen vermuten lassen, dass etwa 20 % der getöteten definitiv Unbeteiligte sind. Diese Drohnen verfügen über hochentwickelte Navigationssysteme, können selbsttätig ihre Zielgebiete anfliegen und dort patrouillieren. Der Drohnenpilot kann sich so auf die Aufgabe konzentrieren, Ziele zu bekämpfen. Unterstützt wird er dabei durch automatisierte Systeme zur Zielallokation, Freund-Feind-Erkennung und Feuerleitung. Das ganz sieht von außen aus wie ein Computerspiel, aber so einfach ist es nicht.

Viele Drohnenpiloten entwickeln mehr oder minder schwere Formen der Posttraumatischen Belastungsstörung (PTBS). Von einem klimatisierten Raum am anderen Ende der Welt per Knopfdruck zu töten belastet Menschen. Die Technisierung der Tat und die Anonymisierung der Getöteten kann die Empathie und das ethische Dilemma nicht völlig verwischen. Was aussieht, wie ein Computerspiel wird von den Piloten sehr wohl als real erkannt. Die wenigsten Menschen töten gerne und die Hemmschwelle steigt je kleiner das Gefühl ist, selbst in Gefahr zu sein. Per Drohe zu töten ist für alle praktischen Belange ein Attentat, kein Kampf und für viele Menschen ist das aus verständlichen Gründen ein ernstes psychologisches Problem.

1 / 2 / 3 / Auf einer Seite lesen

Kommentare (12)

  1. #1 Roland B.
    9. April 2018

    “Entscheiden sich ausreichend viele Menschen dagegen und äußern diese Meinung in Form von Demonstrationen, Wahlen, etc. oder auf politischer Ebene internationaler Abkommen (Immerhin haben wir 70 Jahre ohne Einsatz von Kern- oder Biowaffen überstanden, was zeigt, dass multilaterale Abkommen tatsächlich greifen können), werden wir die Entwicklung wahrscheinlich auch nicht aufhalten, aber ändern, anpassen und gestalten können. ”
    Ob da wirklich die demonstrierenden Menschen der Anlaß waren? C-Waffen-Einsatz wurde ja nicht verhindert.

  2. #2 Dr. Webbaer
    9. April 2018

    Die aufklärerischen Gesellschaften, also diejenigen. die die individuelle Ratio lösen konnten (“Schwarnintelligent”), leben sozusagen, auch heute noch, vom sinnhaften Gebrauch der guten alten Waffe.

    Hier – ‘Mein Mitleid mit Drohnenpiloten hält sich in Grenzen, weil ich diese ganze Art der Kriegführung für ethisch verwerflich und obendrein schädlich für die Beziehung der involvierten Staaten untereinander, sowie nicht nur nicht zielführend bei der Bekämpfung der Ursachen des Terrors, sogar geradezu förderlich für dessen Fortbestehen halte.’ – setzt es also einen Minuspunkt, insbesondere auch islamisch motivierter Terror(ismus) ist unabhängig von seiner Bearbeitung, sondern existiert aus sich heraus.
    Die dbzgl, Ideen- und Wertemengen der jeweiligen Kollektivismen, es handelt sich idR um Kollektivismen, Ausnahme : der Anarchismus, könnten umfangreich politologisch erklärt werden, sollen das dankenswerterweise bereit gestellte Kommentariat an dieser Stelle zumindest abär nicht belasten.

    MFG + schöne Woche,
    Dr. Webbaer

  3. #3 Hobbes
    10. April 2018

    “Jahrtausende lang wurden Kriege geführt und gewonnen, indem jede Partei versucht hat, so viele Menschen auf der Gegenseite wie möglich zu vernichten”
    Das ist ein weit verbreiteter Irrglaube. Das wirkliche Auslöschen der Gegenseite war eher eine Seltenheit. Die Mortalitätsraten bei den meisten Schlachten lagen irgendwo so um 10%. Das schleifen von Städten oder säubern von Regionen waren auch eher Ausnahmen. Krieg wurde meistens als “Diplomatie mit anderen Mitteln” gesehen. Insbesondere wenn sich Ähnliche Gesellschaften gegenüber standen gab es oft viele Regeln die meistens auch befolgt wurden. Und das Ziel war so gut wie immer den Kampfgeist des Gegners zu brechen und nicht möglichst viele zu töten. Anders sah es oft aus, wenn es um unterschiedliche Religionen geht. Aber auch da gab es fast immer die Möglichkeit zu konvertieren um nach der Schlacht nicht getötet zu werden. Die miesen Verbrechen (Säuberungen) waren meistens Reaktionen auf politische Ereignisse (Aufstände etc.) oder aufgrund von Grausamkeiten während einer Besatzung.
    Natürlich wurde immer alles was Möglich war auch irgendwann mal probiert aber es ist nur sehr selten in einem “totalen Krieg” geendet.
    Ich stehe autonomen Waffen eigentlich sehr aufgeschlossen gegenüber da ich eine Drohne nicht als fundamental anders ansehe als ein Flugzeug. Das größte Problem liegt meiner Meinung nach darin, dass es kleineren Gruppen einfacher Möglich wird große zu unterdrücken. Somit werden Kriege wieder lohnenswerter da die Besatzungskosten (insbesondere die politischen Kosten) verringert werden.

    • #4 Oliver Gabath
      11. April 2018

      10 % pro Schlacht finde ich schon eine Ansage, wenn man bedenkt, dass in einem Krieg für gewöhnlich viele stattfinden – ein halbes Duzend und das Heer hat nur noch halb so viel Leute, überspitzt ausgedrückt. Für jeden Toten gab es auch schon immer einen oder mehrere Verwundete (die in früheren Zeiten allerdings auch oft starben) und die Unterstellung, dass jede Seite versucht so viele Gegner zu töten wie möglich, halte ich in einem Kampf auf Leben und Tot nicht für unplausibel. Womöglich war aber damals den Kommandeuren schon bewusst, dass ein Verwundeter mehr gegnerische Ressourcen bindet als ein Toter.

      Gerade die Kriege von weltgeschichtlicher Bedeutung – Die Schlachten der punischen Kriege waren extrem blutig, auch abseits von Cannae. Die Eroberung Galliens ebenso. Oder der Hundertjährige Krieg. Und so weiter. Das waren keine primär religiösen Konflikte. Sicher, auch Napoleon hat so manche Schlacht geschlagen, in der keine Seite viel verlor, aber gerade die Entscheidungsschlachten hatten oft hohe Verluste und die Feldzüge unterm Strich sowieso.

      Früher waren die Soldaten mangels weitreichender Waffen auch gar nicht in der Lage, mehr als ihre unmittelbare Umgebung zu bekämpfen bzw. bedrohen. Wirkungsvolle, in großer Zahl verfügbare Feldartillerie findet sich in wenigen Fällen bei den Römern, dann erst wieder mit Aufkommen der Rohrwaffen in der Renaissance, sonst nur im Zuge von Belagerungen, die, sofern erfolgreich, auch nicht eben gut für die Menschen ausgingen. Das gegnerische Hinterland musste lange Zeit, wenn überhaupt, direkt mit Soldaten angegriffen werden. Wie sehr die Größe der Schlachtfelder von der Reichweite der Waffen abhängt, hat meiner Meinung nach die Entwicklung der weitreichenden Artillerie in der zweiten Hälfte des 19. Jahrhunderts und des Bombers seit dem ersten Weltkrieg gezeigt. Die Möglichkeit, den Gegner möglichst tief im eigenen Land zu treffen haben alle schnell ausgenutzt, sobald dafür brauchbare Waffen zur Verfügung standen. War das Hinterland in fürheren Zeiten noch verhältnismäßig sicher, wenn nicht gerade der gegnerische Schlachtzug hindurchrollte, ist es schon seit langer Zeit de facto Schlachtfeld. Und auch damals, so meine Vermutung, hätten die Kommandeure nicht gezögert, wären andere, bessere oder schlicht mehr Mittel verfügbar gewesen.

      So total muss der Krieg dabei gar nicht werden – ich bezweifle einfach, dass selbst in einem idealen Konflikt, den beide Seite mit großen Drohnenflotten starten, wenn eine Seite keine Roboter mehr hat, nicht doch wieder Menschen in Uniform gesteckt werden.

  4. #5 tomtoo
    11. April 2018

    Mienen waren, sind auch autonome Waffen.

  5. #6 Hobbes
    12. April 2018

    Und Mienen wären das beste Beispiel auf autonome Waffen zu verzichten. Wobei man da zwischen Panzerminen und Personenminen unterscheiden muss wenn man eine moralische Wertung vornimmmt.

    Ansonsten habe ich mich oben etwas missverständlich ausgedrückt. Ich wollte eher deutlich machen, dass das Massenmorden nicht dreikt im Krieg sondern mehr in der Besatzungszeit stattfindet. Bereits Tsun Tzu erwähnt schon das man Gegner nie komplett umzingeln soll sondern immer einen Fluchtweg offen lässt da die Leute sonst bis zum Tod kämpfen. Und es ist eben nicht das Ziel die Menschen im Kampf zu töten sondern sie nur zu zerstreuen. Die Menschen sind danach viel einfacher und Günstiger zu töten. Deshalb sehe ich halt auch keine größeren gefahren durch autonome Waffen. Zumindest bei weitem keine größere als Besipielsweise bei Giftgas. Wir haben die Eigenschaft zu sehr auf die Schlachten an sich zu schauen weil diese einfach am interessantesten sind. Das wirklich schlimme waren jedoch meist politische Entscheidungen die nichts damit zu tun hatten eine militärische Überlegenheit zu sichern. Ich sehe autonome Überwachungssysteme deshalb als weit gefährlicher an als das “schwere” Kriegsgrät.

  6. #7 Alderamin
    12. April 2018

    @Hobbes

    Deshalb sehe ich halt auch keine größeren gefahren durch autonome Waffen.

    Mir mangelt es an Vorstellungsvermögen, wie eine autonome Waffe zuverlässig Freund und Feind, Zivilist und Soldat auseinander halten soll. Und wie man sicherstellen will, dass sie nicht durch Software-Fehler großen Mist anstellt.

    Grundsätzlich gilt ähnliches für das autonome Fahren, wo die Maschine sich gleichfalls in einer komplexen Umgebung zurecht finden muss. Der Unterschied ist allerdings, dass es sich beim Straßenverkehr um eine Kooperationssituation mit einfachen Regeln handelt, d.h. es ist im Interesse aller, wenn alle sich an die Regeln halten (selbst wenn einzelne das nicht tun).

    Im Krieg wird man sich hingegen nach Kräften zu täuschen, stören und zu überlisten versuchen und es gibt eigentlich keine Regeln, was es der Maschine ungleich schwerer machen dürfte. Und schon für den innerstädtischen Straßenverkehr sagen Experten voraus, dass es noch lange dauern wird, bis autonome Fahrzeuge damit vollkommen klar kommen werden.

    Ich sehe aber auch, dass autonome Waffensysteme unweigerlich kommen werden. Manchmal bin ich froh, nicht noch 50 Jahre älter zu werden.

  7. #8 Hobbes
    13. April 2018

    Die Freund/Feinderkennung wird in der Tat der Knackpunkt sein. Mir fällt dadurch auch wieder eine selten genutzte Strategie ein. Und zwar das nutzen von Attrappen.
    Meistens wurden diese benutzt um feindliche Kräfte zu binden. Wenn in zukunft jedoch Software bestimmte entscheidungen trifft könnte man jedoch auch Attrappen benutzen um wirtschaftliche ressourcen zu binden. Da Guerilla Kriege immer wichtiger werden könnte das ausnutzen der Erkennung zu massiver Verschwendung führen. Schon jetzt kostet ein Luftangriff meist viel mehr als das Ziel wert ist. Wenn man es schafft eine Metallplatte in den Augen der Software als Panzer aussehen zu lassen kann man für 50$ Luftschläge provozieren die 500.000$ kosten. Es gibt natürlich noch miesere Möglichkeiten die Software auszunutzen aber die Lücken dürften weit schwerer zu erkennen sein ohne Zugriff auf die Software zu haben.

  8. #9 Alderamin
    13. April 2018

    @Hobbes

    Mir fällt dadurch auch wieder eine selten genutzte Strategie ein. Und zwar das nutzen von Attrappen.

    Wieso, Attrappen sind doch Standard bei Atomraketen mit Mehrfachsprengköpfen oder beim Abwurf von Täuschkörpern durch Flugzeuge, um Flugabwehrraketen abzulenken (Chaff und Flares). An den Attrappen scheiterte einst schon SDI (unter anderem) (wer sich noch daran und an den alten Ronny Reagan erinnert).

  9. #10 Hobbes
    13. April 2018

    Täuschkörper bei Flugzeugen sind ja sogar einer der Fälle in dem eine Lücke in einem “autonomen” (nach abfeuern) Waffensystem ausgenutzt wird. An diese hatte ich noch nicht einmal gedacht (Obwohl offensichtlich). Ich hatte an die Schlepptäuschkörper der Alliierten als Abwehr gegen die deutschen Torpedos (Zaunkönig) gedacht.

  10. #11 tomtoo
    14. April 2018

    Bin ja froh das ich nie als autonome Waffe eingesetzt werden musste. Nur so als Täuschmittel. Egal was man tut , ist das Rad erfunden, wird es benutzt, für den oder den Zweck.
    Und wie will man Autonome Waffen begrenzen? Politisch deprimiert wie ich heute bin, frage ich, wer und warum soll jemand sowas tun ?

  11. #12 Uli Schoppe
    16. April 2018

    Also ehrlich, Minen oder LL Raketen sind nicht autonom. Die sind automatisch.

    @Alderamin ich finds schade das ich schon 50 bin ^^ ;}