Schon heute macht das Interface des Kampfpiloten ihm die Entscheidung leicht, indem Gegenstände automatisch identifiziert werden. Wenn jemand in einem Kriegsgebiet jemand in einer Gruppe Menschen augenscheinlich Waffen trägt, während nicht weit weg die eigenen Soldaten in Feuergefechte verwickelt sind, ist es vermutlich ein feindlicher Kämpfer, die Entscheidung zum Angriff wird in kurzer Zeit getroffen, der Drohnenpilot steht dabei unter großem Stress. “Sinnvolle menschliche Kontrolle” ist eine Illusion.
Um Missverständnisse zu vermeiden: Mein Mitleid mit Drohnenpiloten hält sich in Grenzen, weil ich diese ganze Art der Kriegführung für ethisch verwerflich und obendrein schädlich für die Beziehung der involvierten Staaten untereinander, sowie nicht nur nicht zielführend bei der Bekämpfung der Ursachen des Terrors, sogar geradezu förderlich für dessen Fortbestehen halte. Ich mache mir auch weniger Sorgen um die Fähigkeiten der Maschinen als um die Kaltblütigkeit der Menschen, die über ihren Einsatz entscheiden. Das sind nur in zweite Linie die Piloten.
Die Befehlshaber, die selbst nicht töten, sondern es anordnen und in den praktischen Ablauf weder so oft noch so intensiv involviert sind, haben viel weniger Gelegenheit und gute Gründe, das eigene Handeln im Lichte des konkreten Angriffs zu bedenken. Reflexivität oder gar Skrupel entwickeln sich da deutlich schlechter. Wenn die Algorithmen zur Freund-Feind-Erkennung, zur Navigation und zur Lageeinschätzung tatsächlich immer besser werden, dann rechne ich damit, dass sich die Kommandeure auch immer mehr auf deren Einschätzung verlassen und das an ihre Untergebenen weiterreichen. Völlig autonome Drohnen, die zu Beginn der Mission ihre Befehle erhalten und keine Funkverbindung mehr brauchen, wären auch weniger anfällig für elektronische Gegenmaßnahmen – ein weiterer Vorteil. Menschliches Eingreifen wird für alle praktischen Belange schnell zur Formsache, ist es ja zum Teil schon heute, auch wenn gelehrte Köpfe lange über die Frage nach Schuld und Verantwortung streiten mögen.
Spielen wir an dieser Stelle ruhig mal ein bisschen Anwalt des Teufels: Menschen machen Fehler und Friendly-Fire gehört zum Krieg genauso wie falsch ausgewählte Ziele, Fehleinschätzung der Lage und ungewollte Konsequenzen. Man kann also genauso gut die Frage stellen: Wie viel besser oder schlechter ist die KI im Vergelich zum Menschen? Wenn sie tatsächlich weniger oft falsch entscheidet, hat sie das Potential, Kollateralschäden zu reduzieren. Wäre das nicht erstrebenswert?
Ich vermute, dass Drohnen auf allen Gebieten der Kriegsführung Einzug halten werden, auch in den Marinen. Dem oben verlinkten Artikel folgend zum Beispiel in Form relativ kleiner Unterseeboote, die mit außenluft-unabhängigen konventionellen Antrieben eine Seeausdauer im Bereich von Wochen erreichen können. Die Entwicklung des praktisch einsetzbaren Langstreckentorpedos mit großer Geschwindigkeit zusätzlich zum seit Jahrzehnten im Einsatz stehenden U-Bootgestützten Seezielflugkörper auf einer relativ kleinen, beweglichen und in großer Zahl produzierbaren Waffenplattform bedeutet auch für superleise strategische U-Boote eine Gefahr. Von großen Überwasserschiffen gar nicht zu reden.
Ineratiale Navigationssysteme sind heute so gut, dass sie ohne Rückgriff auf GPS oder Landpeilung Standortbestimmungen im Bereich weniger Hundert Meter über lange Zeiträume erlauben. Automatische Mustererkennung erlaubt sehr schnelle Erfassung von Küstenlinien und Landzeichen oder bei guten Sichtverhältnissen gar Astronavigation. Auch ohne Satellitennavigation kann so lange auf See navigiert werden. An welcher Stelle sitzt das sinnvolle menschliche Kontrollorgan? Wann ist der Moment, ab dem die Maschine ihr Ziel selbstständig verfolgt? Wieder: Nicht die Antwort aus dem Lehrbuch, sondern die konkrete Praxis.
Vielleicht unke ich ja auch zu früh: Wenn der zunehmende Einsatz von Drohnen in Verbindung mit hochentwickelter künstlicher Intelligenz dazu führt, dass zukünftig vor allem Roboter andere Roboter bekämpfen und menschliches Leid dadurch gemindert wird, wäre das in meinen Augen eine begrüßenswerte Entwicklung. Die Welt sähe dann aus, wie in der deutschen Version von Command&Conquer: Die Zivilisten sind einigermaßen geschützt, weil sich Kampfroboter in besonderen Gefechtszonen bekämpfen.
Daran zu glauben fällt mir allerdings schwer. Jahrtausende lang wurden Kriege geführt und gewonnen, indem jede Partei versucht hat, so viele Menschen auf der Gegenseite wie möglich zu vernichten. Wenn in einem zukünftigen Konflikt eine Seite alle ihre Kampfroboter aufgebraucht, aber noch eine große wehrfähige Bevölkerung zur Verfügung hat, welches Szenario ist dann plausibler: Dass sie sich geschlagen gibt, weil keine Maschinen mehr da sind oder, dass sie vor der Kapitulation wieder Menschen mit Waffen an die Front schickt?
Kommentare (12)