Schon heute macht das Interface des Kampfpiloten ihm die Entscheidung leicht, indem Gegenstände automatisch identifiziert werden. Wenn jemand in einem Kriegsgebiet jemand in einer Gruppe Menschen augenscheinlich Waffen trägt, während nicht weit weg die eigenen Soldaten in Feuergefechte verwickelt sind, ist es vermutlich ein feindlicher Kämpfer, die Entscheidung zum Angriff wird in kurzer Zeit getroffen, der Drohnenpilot steht dabei unter großem Stress. “Sinnvolle menschliche Kontrolle” ist eine Illusion.

Um Missverständnisse zu vermeiden: Mein Mitleid mit Drohnenpiloten hält sich in Grenzen, weil ich diese ganze Art der Kriegführung für ethisch verwerflich und obendrein schädlich für die Beziehung der involvierten Staaten untereinander, sowie nicht nur nicht zielführend bei der Bekämpfung der Ursachen des Terrors, sogar geradezu förderlich für dessen Fortbestehen halte. Ich mache mir auch weniger Sorgen um die Fähigkeiten der Maschinen als um die Kaltblütigkeit der Menschen, die über ihren Einsatz entscheiden. Das sind nur in zweite Linie die Piloten.

Die Befehlshaber, die selbst nicht töten, sondern es anordnen und in den praktischen Ablauf weder so oft noch so intensiv involviert sind, haben viel weniger Gelegenheit und gute Gründe, das eigene Handeln im Lichte des konkreten Angriffs zu bedenken. Reflexivität oder gar Skrupel entwickeln sich da deutlich schlechter. Wenn die Algorithmen zur Freund-Feind-Erkennung, zur Navigation und zur Lageeinschätzung tatsächlich immer besser werden, dann rechne ich damit, dass sich die Kommandeure auch immer mehr auf deren Einschätzung verlassen und das an ihre Untergebenen weiterreichen. Völlig autonome Drohnen, die zu Beginn der Mission ihre Befehle erhalten und keine Funkverbindung mehr brauchen, wären auch weniger anfällig für elektronische Gegenmaßnahmen – ein weiterer Vorteil. Menschliches Eingreifen wird für alle praktischen Belange schnell zur Formsache, ist es ja zum Teil schon heute, auch wenn gelehrte Köpfe lange über die Frage nach Schuld und Verantwortung streiten mögen.

Spielen wir an dieser Stelle ruhig mal ein bisschen Anwalt des Teufels: Menschen machen Fehler und Friendly-Fire gehört zum Krieg genauso wie falsch ausgewählte Ziele, Fehleinschätzung der Lage und ungewollte Konsequenzen. Man kann also genauso gut die Frage stellen: Wie viel besser oder schlechter ist die KI im Vergelich zum Menschen? Wenn sie tatsächlich weniger oft falsch entscheidet, hat sie das Potential, Kollateralschäden zu reduzieren. Wäre das nicht erstrebenswert?

Ich vermute, dass Drohnen auf allen Gebieten der Kriegsführung Einzug halten werden, auch in den Marinen. Dem oben verlinkten Artikel folgend zum Beispiel in Form relativ kleiner Unterseeboote, die mit außenluft-unabhängigen konventionellen Antrieben eine Seeausdauer im Bereich von Wochen erreichen können. Die Entwicklung des praktisch einsetzbaren Langstreckentorpedos mit großer Geschwindigkeit zusätzlich zum seit Jahrzehnten im Einsatz stehenden U-Bootgestützten Seezielflugkörper auf einer relativ kleinen, beweglichen und in großer Zahl produzierbaren Waffenplattform bedeutet auch für superleise strategische U-Boote eine Gefahr. Von großen Überwasserschiffen gar nicht zu reden.

Ineratiale Navigationssysteme sind heute so gut, dass sie ohne Rückgriff auf GPS oder Landpeilung Standortbestimmungen im Bereich weniger Hundert Meter über lange Zeiträume erlauben. Automatische Mustererkennung erlaubt sehr schnelle Erfassung von Küstenlinien und Landzeichen oder bei guten Sichtverhältnissen gar Astronavigation. Auch ohne Satellitennavigation kann so lange auf See navigiert werden. An welcher Stelle sitzt das sinnvolle menschliche Kontrollorgan? Wann ist der Moment, ab dem die Maschine ihr Ziel selbstständig verfolgt? Wieder: Nicht die Antwort aus dem Lehrbuch, sondern die konkrete Praxis.

Vielleicht unke ich ja auch zu früh: Wenn der zunehmende Einsatz von Drohnen in Verbindung mit hochentwickelter künstlicher Intelligenz dazu führt, dass zukünftig vor allem Roboter andere Roboter bekämpfen und menschliches Leid dadurch gemindert wird, wäre das in meinen Augen eine begrüßenswerte Entwicklung. Die Welt sähe dann aus, wie in der deutschen Version von Command&Conquer: Die Zivilisten sind einigermaßen geschützt, weil sich Kampfroboter in besonderen Gefechtszonen bekämpfen.

Daran zu glauben fällt mir allerdings schwer. Jahrtausende lang wurden Kriege geführt und gewonnen, indem jede Partei versucht hat, so viele Menschen auf der Gegenseite wie möglich zu vernichten. Wenn in einem zukünftigen Konflikt eine Seite alle ihre Kampfroboter aufgebraucht, aber noch eine große wehrfähige Bevölkerung zur Verfügung hat, welches Szenario ist dann plausibler: Dass sie sich geschlagen gibt, weil keine Maschinen mehr da sind oder, dass sie vor der Kapitulation wieder Menschen mit Waffen an die Front schickt?

1 / 2 / 3

Kommentare (12)

  1. #1 Roland B.
    9. April 2018

    “Entscheiden sich ausreichend viele Menschen dagegen und äußern diese Meinung in Form von Demonstrationen, Wahlen, etc. oder auf politischer Ebene internationaler Abkommen (Immerhin haben wir 70 Jahre ohne Einsatz von Kern- oder Biowaffen überstanden, was zeigt, dass multilaterale Abkommen tatsächlich greifen können), werden wir die Entwicklung wahrscheinlich auch nicht aufhalten, aber ändern, anpassen und gestalten können. ”
    Ob da wirklich die demonstrierenden Menschen der Anlaß waren? C-Waffen-Einsatz wurde ja nicht verhindert.

  2. #2 Dr. Webbaer
    9. April 2018

    Die aufklärerischen Gesellschaften, also diejenigen. die die individuelle Ratio lösen konnten (“Schwarnintelligent”), leben sozusagen, auch heute noch, vom sinnhaften Gebrauch der guten alten Waffe.

    Hier – ‘Mein Mitleid mit Drohnenpiloten hält sich in Grenzen, weil ich diese ganze Art der Kriegführung für ethisch verwerflich und obendrein schädlich für die Beziehung der involvierten Staaten untereinander, sowie nicht nur nicht zielführend bei der Bekämpfung der Ursachen des Terrors, sogar geradezu förderlich für dessen Fortbestehen halte.’ – setzt es also einen Minuspunkt, insbesondere auch islamisch motivierter Terror(ismus) ist unabhängig von seiner Bearbeitung, sondern existiert aus sich heraus.
    Die dbzgl, Ideen- und Wertemengen der jeweiligen Kollektivismen, es handelt sich idR um Kollektivismen, Ausnahme : der Anarchismus, könnten umfangreich politologisch erklärt werden, sollen das dankenswerterweise bereit gestellte Kommentariat an dieser Stelle zumindest abär nicht belasten.

    MFG + schöne Woche,
    Dr. Webbaer

  3. #3 Hobbes
    10. April 2018

    “Jahrtausende lang wurden Kriege geführt und gewonnen, indem jede Partei versucht hat, so viele Menschen auf der Gegenseite wie möglich zu vernichten”
    Das ist ein weit verbreiteter Irrglaube. Das wirkliche Auslöschen der Gegenseite war eher eine Seltenheit. Die Mortalitätsraten bei den meisten Schlachten lagen irgendwo so um 10%. Das schleifen von Städten oder säubern von Regionen waren auch eher Ausnahmen. Krieg wurde meistens als “Diplomatie mit anderen Mitteln” gesehen. Insbesondere wenn sich Ähnliche Gesellschaften gegenüber standen gab es oft viele Regeln die meistens auch befolgt wurden. Und das Ziel war so gut wie immer den Kampfgeist des Gegners zu brechen und nicht möglichst viele zu töten. Anders sah es oft aus, wenn es um unterschiedliche Religionen geht. Aber auch da gab es fast immer die Möglichkeit zu konvertieren um nach der Schlacht nicht getötet zu werden. Die miesen Verbrechen (Säuberungen) waren meistens Reaktionen auf politische Ereignisse (Aufstände etc.) oder aufgrund von Grausamkeiten während einer Besatzung.
    Natürlich wurde immer alles was Möglich war auch irgendwann mal probiert aber es ist nur sehr selten in einem “totalen Krieg” geendet.
    Ich stehe autonomen Waffen eigentlich sehr aufgeschlossen gegenüber da ich eine Drohne nicht als fundamental anders ansehe als ein Flugzeug. Das größte Problem liegt meiner Meinung nach darin, dass es kleineren Gruppen einfacher Möglich wird große zu unterdrücken. Somit werden Kriege wieder lohnenswerter da die Besatzungskosten (insbesondere die politischen Kosten) verringert werden.

    • #4 Oliver Gabath
      11. April 2018

      10 % pro Schlacht finde ich schon eine Ansage, wenn man bedenkt, dass in einem Krieg für gewöhnlich viele stattfinden – ein halbes Duzend und das Heer hat nur noch halb so viel Leute, überspitzt ausgedrückt. Für jeden Toten gab es auch schon immer einen oder mehrere Verwundete (die in früheren Zeiten allerdings auch oft starben) und die Unterstellung, dass jede Seite versucht so viele Gegner zu töten wie möglich, halte ich in einem Kampf auf Leben und Tot nicht für unplausibel. Womöglich war aber damals den Kommandeuren schon bewusst, dass ein Verwundeter mehr gegnerische Ressourcen bindet als ein Toter.

      Gerade die Kriege von weltgeschichtlicher Bedeutung – Die Schlachten der punischen Kriege waren extrem blutig, auch abseits von Cannae. Die Eroberung Galliens ebenso. Oder der Hundertjährige Krieg. Und so weiter. Das waren keine primär religiösen Konflikte. Sicher, auch Napoleon hat so manche Schlacht geschlagen, in der keine Seite viel verlor, aber gerade die Entscheidungsschlachten hatten oft hohe Verluste und die Feldzüge unterm Strich sowieso.

      Früher waren die Soldaten mangels weitreichender Waffen auch gar nicht in der Lage, mehr als ihre unmittelbare Umgebung zu bekämpfen bzw. bedrohen. Wirkungsvolle, in großer Zahl verfügbare Feldartillerie findet sich in wenigen Fällen bei den Römern, dann erst wieder mit Aufkommen der Rohrwaffen in der Renaissance, sonst nur im Zuge von Belagerungen, die, sofern erfolgreich, auch nicht eben gut für die Menschen ausgingen. Das gegnerische Hinterland musste lange Zeit, wenn überhaupt, direkt mit Soldaten angegriffen werden. Wie sehr die Größe der Schlachtfelder von der Reichweite der Waffen abhängt, hat meiner Meinung nach die Entwicklung der weitreichenden Artillerie in der zweiten Hälfte des 19. Jahrhunderts und des Bombers seit dem ersten Weltkrieg gezeigt. Die Möglichkeit, den Gegner möglichst tief im eigenen Land zu treffen haben alle schnell ausgenutzt, sobald dafür brauchbare Waffen zur Verfügung standen. War das Hinterland in fürheren Zeiten noch verhältnismäßig sicher, wenn nicht gerade der gegnerische Schlachtzug hindurchrollte, ist es schon seit langer Zeit de facto Schlachtfeld. Und auch damals, so meine Vermutung, hätten die Kommandeure nicht gezögert, wären andere, bessere oder schlicht mehr Mittel verfügbar gewesen.

      So total muss der Krieg dabei gar nicht werden – ich bezweifle einfach, dass selbst in einem idealen Konflikt, den beide Seite mit großen Drohnenflotten starten, wenn eine Seite keine Roboter mehr hat, nicht doch wieder Menschen in Uniform gesteckt werden.

  4. #5 tomtoo
    11. April 2018

    Mienen waren, sind auch autonome Waffen.

  5. #6 Hobbes
    12. April 2018

    Und Mienen wären das beste Beispiel auf autonome Waffen zu verzichten. Wobei man da zwischen Panzerminen und Personenminen unterscheiden muss wenn man eine moralische Wertung vornimmmt.

    Ansonsten habe ich mich oben etwas missverständlich ausgedrückt. Ich wollte eher deutlich machen, dass das Massenmorden nicht dreikt im Krieg sondern mehr in der Besatzungszeit stattfindet. Bereits Tsun Tzu erwähnt schon das man Gegner nie komplett umzingeln soll sondern immer einen Fluchtweg offen lässt da die Leute sonst bis zum Tod kämpfen. Und es ist eben nicht das Ziel die Menschen im Kampf zu töten sondern sie nur zu zerstreuen. Die Menschen sind danach viel einfacher und Günstiger zu töten. Deshalb sehe ich halt auch keine größeren gefahren durch autonome Waffen. Zumindest bei weitem keine größere als Besipielsweise bei Giftgas. Wir haben die Eigenschaft zu sehr auf die Schlachten an sich zu schauen weil diese einfach am interessantesten sind. Das wirklich schlimme waren jedoch meist politische Entscheidungen die nichts damit zu tun hatten eine militärische Überlegenheit zu sichern. Ich sehe autonome Überwachungssysteme deshalb als weit gefährlicher an als das “schwere” Kriegsgrät.

  6. #7 Alderamin
    12. April 2018

    @Hobbes

    Deshalb sehe ich halt auch keine größeren gefahren durch autonome Waffen.

    Mir mangelt es an Vorstellungsvermögen, wie eine autonome Waffe zuverlässig Freund und Feind, Zivilist und Soldat auseinander halten soll. Und wie man sicherstellen will, dass sie nicht durch Software-Fehler großen Mist anstellt.

    Grundsätzlich gilt ähnliches für das autonome Fahren, wo die Maschine sich gleichfalls in einer komplexen Umgebung zurecht finden muss. Der Unterschied ist allerdings, dass es sich beim Straßenverkehr um eine Kooperationssituation mit einfachen Regeln handelt, d.h. es ist im Interesse aller, wenn alle sich an die Regeln halten (selbst wenn einzelne das nicht tun).

    Im Krieg wird man sich hingegen nach Kräften zu täuschen, stören und zu überlisten versuchen und es gibt eigentlich keine Regeln, was es der Maschine ungleich schwerer machen dürfte. Und schon für den innerstädtischen Straßenverkehr sagen Experten voraus, dass es noch lange dauern wird, bis autonome Fahrzeuge damit vollkommen klar kommen werden.

    Ich sehe aber auch, dass autonome Waffensysteme unweigerlich kommen werden. Manchmal bin ich froh, nicht noch 50 Jahre älter zu werden.

  7. #8 Hobbes
    13. April 2018

    Die Freund/Feinderkennung wird in der Tat der Knackpunkt sein. Mir fällt dadurch auch wieder eine selten genutzte Strategie ein. Und zwar das nutzen von Attrappen.
    Meistens wurden diese benutzt um feindliche Kräfte zu binden. Wenn in zukunft jedoch Software bestimmte entscheidungen trifft könnte man jedoch auch Attrappen benutzen um wirtschaftliche ressourcen zu binden. Da Guerilla Kriege immer wichtiger werden könnte das ausnutzen der Erkennung zu massiver Verschwendung führen. Schon jetzt kostet ein Luftangriff meist viel mehr als das Ziel wert ist. Wenn man es schafft eine Metallplatte in den Augen der Software als Panzer aussehen zu lassen kann man für 50$ Luftschläge provozieren die 500.000$ kosten. Es gibt natürlich noch miesere Möglichkeiten die Software auszunutzen aber die Lücken dürften weit schwerer zu erkennen sein ohne Zugriff auf die Software zu haben.

  8. #9 Alderamin
    13. April 2018

    @Hobbes

    Mir fällt dadurch auch wieder eine selten genutzte Strategie ein. Und zwar das nutzen von Attrappen.

    Wieso, Attrappen sind doch Standard bei Atomraketen mit Mehrfachsprengköpfen oder beim Abwurf von Täuschkörpern durch Flugzeuge, um Flugabwehrraketen abzulenken (Chaff und Flares). An den Attrappen scheiterte einst schon SDI (unter anderem) (wer sich noch daran und an den alten Ronny Reagan erinnert).

  9. #10 Hobbes
    13. April 2018

    Täuschkörper bei Flugzeugen sind ja sogar einer der Fälle in dem eine Lücke in einem “autonomen” (nach abfeuern) Waffensystem ausgenutzt wird. An diese hatte ich noch nicht einmal gedacht (Obwohl offensichtlich). Ich hatte an die Schlepptäuschkörper der Alliierten als Abwehr gegen die deutschen Torpedos (Zaunkönig) gedacht.

  10. #11 tomtoo
    14. April 2018

    Bin ja froh das ich nie als autonome Waffe eingesetzt werden musste. Nur so als Täuschmittel. Egal was man tut , ist das Rad erfunden, wird es benutzt, für den oder den Zweck.
    Und wie will man Autonome Waffen begrenzen? Politisch deprimiert wie ich heute bin, frage ich, wer und warum soll jemand sowas tun ?

  11. #12 Uli Schoppe
    16. April 2018

    Also ehrlich, Minen oder LL Raketen sind nicht autonom. Die sind automatisch.

    @Alderamin ich finds schade das ich schon 50 bin ^^ ;}