Vor kurzem hatte ich hier anlässlich der von Trump befohlenen Tötung des iranischen Generals Soleimani zum einen die Frage nach der Verantwortung für die Folgen unseres Handelns gestellt, wenn diese Folgen nur bedingt absehbar sind, zum anderen, inwieweit ein utilitaristisches Aufrechnen von Toten Trumps Handeln legitimieren könnte. Ob viele Leben mehr wiegen als eines, der Maxime folgend, dass das größte Wohl für die größte Anzahl von Menschen der Maßstab für richtig und falsch ist (Jeremy Bentham), oder ob man die Auffassung vertritt, dass man nie einen Menschen nur als Mittel, z.B. für das Wohl anderer, betrachten darf (Immanuel Kant), sind Grundfragen der philosophischen Ethik. Kant hat konsequenterweise auch den Tyrannenmord abgelehnt.

Ein wichtiger Diskussionsstrang, und zwar gerade mit Blick auf absehbare Folgen des eigenen Handelns, intendierte wie nichtintendierte, aber bewusst in Kauf genommene, rankt sich dabei um das sogenannte „Trolley-Problem“. Sein Kern: Man sieht einen Zug auf mehrere Personen zurollen und könnte das verhindern, indem man den Zug dadurch stoppt, einen dicken Mann vor den Zug zu werfen. Dieses Gedankenexperiment wird in der Literatur in verschiedenen Varianten durchgespielt, um herauszufinden, wie unsere ethische Intuition funktioniert, was wir als richtig empfinden und was als falsch. In jüngster Zeit ist es hochaktuell geworden, weil es unmittelbare Konsequenzen für die Programmierung selbstfahrender Autos in hypothetischen Unfallszenarios hat.

Hier im Blog ist weder der Raum, um das Trolley-Problem in seiner ganzen Komplexität zu entfalten, noch überschaue ich diese Diskussion in Gänze, daher will ich dazu eigentlich nur ein tolles Buch von David Edmonds empfehlen: „Würden Sie den dicken Mann töten?“, Reclam, Stuttgart 2015. Von David Edmonds gibt es übrigens auch noch ein anderes sehr lesenswertes und auf Deutsch erschienenes Buch, das er zusammen mit John Eidinow geschrieben hat: „Wie Ludwig Wittgenstein Karl Popper mit dem Feuerhaken drohte“. Da geht es aber um ganz andere Themen.

Beim Stichwort „dicker Mann“ könnte man natürlich auf die Idee kommen, diese Rolle probehalber einmal mit Trump zu besetzen, aber die Geschichte verschiebt sich dadurch in Richtung des Tyrannenmordes. Ebenso, wenn man die Rolle mit Soleimani besetzt. Im Trolley-Problem nimmt aus guten Gründen eine unbeteiligte und unschuldige Person die Rolle des „dicken Mannes“ ein, d.h. zwischen ihr und den durch ihr „Opfer“ zu rettenden Menschen gibt keine Verbindung, keine direkten und keine indirekten. Das grenzt die utilitaristische Frage klar von der Frage der Prävention oder Vergeltung ab.

Falls gelernte Philosophen hier mitlesen und ihnen jetzt die Haare zu Berge stehen: zumindest dieses Problem habe ich nicht.

Kommentare (22)

  1. #1 Mars
    19. Januar 2020

    dieses Problem wird derzeit in vielen Laboren unserer Autoindustrie geführt, denn zum selbst fahrenden Auto kommt dann irgendwann diese Frage auf:
    wie reagiert der Algorithmus wenn ein Mensch – mehrere Menschen – alte – junge ….
    im Weg stehen und man nicht ausweichen kann.
    Wen fährt das Auto dann über den Haufen.

    ist also gar nicht so weit weg diese ‘Problem’ und wird uns alle noch beschäftigen – nicht nur in der Literatur.
    grüssle

  2. #2 Gerald Fix
    19. Januar 2020

    #1
    Das habe ich noch nie verstanden: Wenn die Maschine nicht mehr reagieren kann – also weder bremsen noch kontrolliert ausweichen, wenn sie also die Kontrolle über das Fahrzeug verloren hat – wie kann sie dann gezielt in eine von zwei Gruppen reinfahren? Und wie könnte das ein Mensch, der viel langsamer reagiert?
    Mir scheint das eine Pseudo-Moral-Frage ohne jede praktische Relevanz zu sein.

  3. #3 Mars
    19. Januar 2020

    genau darum geht es doch: die Maschine muss reagieren, sie kann nicht einfach die augen zumachen und durch … sie wird darauf programmiert.
    du kannst dich s.o. am Bahnsteig aus der Verantwortung stehlen – weil du nicht davon betroffen bist und dich nicht entscheiden willst.

    es geht genau darum, der mensch reagiert in dem Moment nicht, oder nicht schnell genug.
    das Fahrzeug muss entweder den Fahrer schützen – überfährt dann besser einen anderen bevor die betonwand oder der gegenverkehr oder die frau mit kinderwagen ‘gekillt’ wird.

    das ist doch die Fragestellung des beitrags. was wird als besser oder wertvoller erachtet. moralisches dilemma
    grüssle

  4. #4 Joseph Kuhn
    19. Januar 2020

    @ Gerald Fix:

    Wenn die Maschine nicht mehr reagieren kann, ist es egal, wie sie programmiert ist. Es geht darum, was sie ihrem Programm nach tun soll, wenn sie das Steuer in einer Gefahrensituation übernimmt. Den Algorithmus so anzulegen, dass möglichst wenig Menschen zu Schaden kommen, ist eine Option. Dass möglichst wenig Kinder zu Schaden kommen, wäre eine andere. Dass sie im Hinblick auf Personenmerkmale gar nichts tut und z.B. nur die Aufprallwirkung minimiert, wieder eine andere.

    Dabei gehen nicht alle Fachleute davon aus, dass das Trolley-Problem für die Programmierung wirklich hilfreich ist, siehe z.B. das Statement von Armin Grunwald gegenüber dem Science Media Center.

    Menschen können in einer akuten Gefahrensituation oft nicht reflektieren, was ethisch richtig oder falsch ist: Reflexion ist “langsames Denken”. Sie reagieren einfach. Maschinen können (zumindest bisher) grundsätzlich nicht ethisch reflektieren, sie folgen ihrer Programmierung.

    Zum Weiterlesen vielleicht von Interesse: Bericht der vom Verkehrsministerium eingesetzten Ethik-Kommission “Automatisiertes und vernetztes Fahren”.

  5. #5 Dietmar Hilsebein
    19. Januar 2020

    “Man sieht einen Zug auf mehrere Personen zurollen und könnte das verhindern, indem man den Zug dadurch stoppt, einen dicken Mann vor den Zug zu werfen.”

    Interessant, daß Sie den “dicken Mann” bemühen. In Wikipedia gibt es drei Versionen, die ohne den Dicken auskommen. Irgendwie versuchen Sie eine Verbindung zu Trump herzustellen, den Sie vor den Zug werfen wollen und dann wieder doch nicht, da es ja nur ein Tyrannenmord wäre. Ok.
    Ich denke, daß Sie hier eine Verbindung zu den vorausgegangen Beiträgen herstellen wollen, daher kann das, was ich jetzt schreibe, auch schiefgehen. Denn irgendwie geht es ja doch um den Tyrannenmord, sonst ist es nur konstruiert, da würde ich mich auf @ Gerald Fix Seite schlagen. Die Programmierung selbstgesteuerter Automobile kann es wohl nicht sein, da diese Näherungssensoren haben und auf Abstand gehen würden. Ich bin aber kein Techniker und setze das mal in Klammern.
    Trump lassen wir mal außen vor, denn Hitler tut es auch. Dürfen wir Hitler töten, um Millionen Unschuldiger zu schützen? Zudem, was ich schon schrieb, setze ich noch ein weiteres: ich komme immer wieder auf etwas zurück, was sich der bloßen Vernunft zu entziehen scheint. Ich würde es die kontrafaktische Spekulation nennen. Sie mündet in einer Frage: hatten wir durch Hitler etwas zu lernen? Hätte ein Tyrannenmord dazu geführt, einen wichtigen Lernprozeß nicht zu machen? Kurz: wären wir ohne Hitler schon in einem Atomblitz verglüht? Kurzgedacht würde man natürlich sagen, daß Los Alamos ohne die Angst vor Hitler nicht möglich gewesen wäre. Ich hingegen denke, ohne Hitler wäre die Atombombe nur später entwickelt worden. Noch einmal: hatten wir Hitler nötig? Brauchte die Menschheit diese Erfahrung, um Schlimmeres zu verhindern? Sind wir nicht heute auf Tyrannen besonders sensibilisiert, gerade weil wir die Erfahrung “Hitler” in uns tragen? Hätte man ihn also umgebracht, was wäre uns entgangen? Können wir in die Zukunft blicken, um alle Eventualitäten zu überblicken? Es hilft hier schon weiter, sich vorzustellen, in die Vergangenheit zu reisen, um Hitler zu töten. Wie sähe dann die Gegenwart aus?

    • #6 Joseph Kuhn
      20. Januar 2020

      @ Dietmar Hilsebein:

      “Interessant, daß Sie den “dicken Mann” bemühen.”

      Das ist die Ursprungsversion. Es kommt darauf an, dass dieser Mensch genug Gewicht aufbringt, damit die Option ausscheidet, dass die andere Person, die den dicken Menschen schubst, selbst springt.

      “In Wikipedia gibt es drei Versionen, die ohne den Dicken auskommen.”

      In dem empfohlenen Buch kann man nachlesen, wie später politisch korrekte Versionen, z.B. ein Mann mit Rucksack, ins Spiel kamen.

      “Irgendwie versuchen Sie eine Verbindung zu Trump herzustellen”

      Nur assoziativ, über den “Dicken”, von der Sache her gerade nicht, das steht doch ganz ausdrücklich da.

      “Denn irgendwie geht es ja doch um den Tyrannenmord”

      Wie gesagt, gerade nicht. Mehr als explizit hinschreiben kann ich es nicht.

      “Die Programmierung selbstgesteuerter Automobile kann es wohl nicht sein”

      Doch. Auch das steht unmissverständlich da und bevor Sie voreilig “kann nicht sein” schreiben, klicken Sie mal einen der Links dazu an, dann sehen Sie, warum. “Auf Abstand gehen” könnte eine Programmieroption ohne Berücksichtigung von Personenmerkmalen sein.

  6. #7 Dietmar Hilsebein
    20. Januar 2020

    @ Joseph Kuhn

    “Auch das steht unmissverständlich da…”

    Ok. Mir war als stünde da etwas “zwischen den Zeilen”. Mein Beitrag ist dann also doch -wie befürchtet-schiefgegangen und kann als in die Tonne getreten betrachtet werden.

  7. #8 gedankenknick
    20. Januar 2020

    Das Auto-KI-Unfall-Moral-Ethik-Problem ist hinreichend bearbeitet. Mark-Uwe Kling hat das Ergenbnis in seinem Buch “Quality Land” zusammengefasst, und es gibt von dem fraglichen Kapitel auch eine Lesung durch ihn selbst bei Youtube zu sehen – hier:https://www.youtube.com/watch?v=gElB1uWcMFM Sehr sehenswert, geht so 6 Minuten.

    (Um den Anfang des Textes zu verstehen: “Niemand” ist der “Persönliche Digitale Assistent” – von Douglas Adams in “Raumschiff Titanic” wurde das Ding auch “PET” = “Persönliches elektronisches Teil” benannt – des Protagonisten “Peter Arbeitsloser”. “Niemand” ist eine teilweise KI und entscheidet Dinge für Peter bzw. macht im alternativlose Vorschläge, wie sein Leben kurzfristig weitergehen soll, auch ungefragt.)

  8. #9 libertador
    20. Januar 2020

    Automobile:

    @Gerald Fix
    Ich würde beim derzeitigen Stand der Technik auch bezweifeln, dass tatsächlich Menschen hinreichend genau für manche utilitaristische Abwägungen erkannt werden. Zum Beispiel das Alter der Personen ist schwer, wenn man schon damit beschäftigt ist überhaupt Menschen zu erkennen. Aber vielleicht wird die Bilderkennung ja noch besser oder jeder hat implantierte Funkchips und vielleicht kennt das Auto sogar deren elektronische Gesundheitsakte (wo wir beim eigentlichen Blogthema wären).

    Bei derzeitiger Technik können aber Insassen vs andere Verkehrsteilnehmer durchaus in Konflikt kommen. Solle das selbstfahrende Auto lieber gegen ein seitliches Hindernis fahren als den plötzlich auf die Straße stürmenden Menschen oder anderes Auto. Auch ein selbstfahrendes Auto kann Situationen ausgesetzt sein, in denen es noch etwas tun kann aber nicht alle Schäden durch Bremsung vermeiden.

  9. #10 knorke
    20. Januar 2020

    Die Sache mit dem dicken Mann und dem Zug voller Menschen hat ein Problem an sich, das nicht, bzw. nicht in erster Linie philosophisch oder ethisch, sondern psychologisch ist.
    Es gibt Untersuchungen die Zeigen, dass Menschen dazu tendieren, lieber etwas zu unterlassen statt etwas zu tun – im Sinne einer aktiven Handlung. d.h. es gibt einen gewisses Bedürfnis, niemanden auf Gleise zu schubsen auch wenn man damit noch mehr Menschen retten könnte. Vermutlich hat das damit zu tun, dass man das eine Menschenleben dann auf eigenes Handeln attribuieren muss, das der vielen anderen aber nicht, womit man diese Situation vermeiden will.
    Ich will keinesfalls sagen, dass das immer so ist. Aber was es doch mit sich bringt, dass vor so eine Frage gestellt eben nicht rein ethisch-moralische Überlegungen die Diskussion leiten könnten sondern psychologisch geprägte, die man vielleicht nicht als solche erkennt, womit natürlich die Diskussion darüber verkompliziert wird.

    In jedem Falle ist das aber nicht isoliert zu betrachten. Es gibt natürlich allerlei Moderatorgrößen, die diesen Impuls aussetzen oder sogar umkehren könnten: Der Tyrannenmord würde einen von persönlich empfundener Schuld entlasten, die eigene Familie im Zug würde die Handlungsbereitschaft erhöhen und eine attraktive 19 jährige Blondine würde man wohl (als Mann jedenfalls) weniger wahrscheinlich auf die Gleise schubsen als einen fetten Mann.

    Aber das nur als Randnotiz.

    • #11 Joseph Kuhn
      20. Januar 2020

      @ knorke:

      Das Thema Unterlassen versus aktiv handeln wird in den verschiedenen Varianten des Trolley-Problems durchgespielt.

      Die Aspekte Tyrann, Blondine etc. werden in diesem Gedankenexperiment bewusst ausgeklammert. Solche psychologischen Einflüsse sollen keine Rolle spielen. Wie in einem echten Experiment ist es ein Verlauf unter kontrollierten Bedingungen.

  10. #12 gedankenknick
    20. Januar 2020

    @knorke #10
    “In jedem Falle ist das aber nicht isoliert zu betrachten.”

    Dies gilt nicht nur für Menschen. Isaac Asimov mit seinen 3 Gesetzes hat es ja schon vorexerziert. Das Endergebnis ist dann im Buch “Ich, der Robot” und desses Hollywood-Nachfolgefilm “I, Robot” zu bestaunen: Wenn man die KI beauftragt, die Menschheit um jeden Preis zu beschützen, wird sie logisch zum Schluss kommen, die Menschheit vor SICH SELBST beschützen zu müssen, auch unter Opferung von Menschenleben.

    [Spoiler] In QualityLand löst man dieses Problem pragmatischer – jeder Mensch hat einen dynamischen “Social Score”, und so kann man ganz leicht beurteilen, wie man diverse Menschenleben gegeneinander aufgerechnet. (Das Buch erschien übrigends kurz vor der Heise-Meldung, dass genau so ein Social-Score-System in einigen Ecken Chinas gerade umgesetzt wird. Der Autor entschuldigte sich dann auch bei einer Lesung beim 34C3, China auf die Idee gebracht zu haben, da er ja nicht ahnen hätte können, dass sowas wirklich umgesetzt wird.)

  11. #13 knorke
    20. Januar 2020

    @11 JK
    Ja, hab ich jetzt auch gelesen. Wie schon geschrieben war das auch eher als Randnotiz gedacht. Trotzdem finde ich es schon interessant, dass die Moderatorvariablen so eine große Rolle spielen. Das heißt ja, dass es in der Praxis unsinnig ist, sie auszublenden weil das dazu führt, dass man Vorhersagen erhält, die regelmäßig völlig falsch sein werden, sobald die Moderatorvariablen eintreten. Aber Vorhersagekraft ist wohl auch nicht der Sinn eines Gedankenexperiments. Jaja, es bleibt dabei ich habe meine liebe Mühe mit philosophischen Diskussionen.

    @gedankenknick
    Wobei ja die Gewichtung mit Social Score – so dystopisch er auch sein mag (und letztlich zynisch der Umgang in China damit ist), die Grundfrage unberührt lässt, ob so ein Aufrechnen überhaupt aus ethischen Gesichtspunkten vertreten werden kann. Schon pervers sowas.

  12. #14 Ferl
    20. Januar 2020

    XXX

    [Edit: Kommentar gelöscht. Sie verwenden so viel Zeit auf gehässige Kommentare, Kommentare, die das System automatisch aussortiert. Warum? Gibt es nichts Schönes in Ihrem Leben? Irgendwas?]

  13. #15 jemand
    21. Januar 2020

    Auch eine Maschine hat die Zeit nicht, um über die moralischen Implikationen nachzudenken. Ihr wird diese Moral einprogrammiert, sodass sie in ihrer Programmierung den Ernstfall des Zusammenstoßes vorher auswählt, bevor die Situation sichtbar und Handliungsüflichtig wird.

    Was heiist, dass die Maschine schon beim Scannen der Umgebung festlegt, welchers Hindernis oder welcher Mensch am wenigsten Lebenswert ist.

    Dieses Szenario der “moralischen programmierung” kann man sogar noch weiter treiben:
    Man verteilt (oder lässt die “unwerten Lebewesen kaufen) Geräte für das Armband, das automatisch die Entscheidung des herranrollenden Maschinen-Autos mitteilt. Das kann es ja, weil es die Entscheidung schon getroffen hat (eben bevor es zu einer Notsituation kommt).

    Ich finde, das wäre nur fair, wenn man das so machen würde. Oder?

  14. #16 jemand
    21. Januar 2020

    Ach ja, dann kommt es aber zu “unvorhersehbaren” Reaktionen des beim “Denken” eher nicht so vorhersagbaren Menschen.
    Der muß dann ja erahnen, von wo die potenzielle Gefahr wohl herkäme, was zu weiteren Folgeproblemen führt, weil das dann ja kaum verlässlich vorherdagend in die Software des Maschinen-Autos einprogrammiert werden kann.

    Vom Regen in die Traufe…

    Diese erweiterte Szenerie ist natürlich purer Sarkasmus und, obwohl schlüssig weitergedacht, nicht ernst gemeint.
    Der Vorteil der Maschine wäre, dass sie schneller reagieren kann, als ein womöglich auch noch unaufmerksamer Fahrer aus Fleisch und Blut.

    Wer deratige moralische Probleme lösen will, will das aus moralisch (eigendlich ethisch) absolut nicht erlaubten Gründen und Ursachen.

    Und wer darüber nachdenkt, ob man Hitler hätte verhindern könne, muß auch darübe rnachdenken, wer dafür verantwortlich sein kann, das Hitler überhaupt solchen Lebenswegs in solch erfolgreicher Weise gehen konnte.
    Und wenn er dann Gott dafür verantwortlich macht, ist es immer noch besser, als sich aus dieser “Erfahrung” herraus dazu überreden zu lassen, das es besser wäre, moralische Imperative a priori derart in Ursache/wirkungs-Systemen integrieren zu wollen.

    Ausserdem ist diese künstliche Intelligenz viel mehr korrumpierbar, als man reinen Gewissens zu glauben vermag. Das ist ein Idealistenproblem, das immer auftreten wird: Die Wirklichkeit ist anders, als man denkt.

    In der Wissnschaft hat man doch diesen Imperativ, das die Lösung einfach und schön sein muß, oder?

    Also wozu der Aufwand, sich mit diesen überkomplexen Panik-Assoziationen herumschlagen?

    Das derartig überkomplexe Programmierungen den Strassenverkehr letztlich vollkommen undurchschaubar und unberechnenbar machen würde, sodass man ja geradezu lebensmüde sei, wenn man noch daran teilnehmen würde, scheint auch niemandem klar zu sein.

  15. #17 Richard
    22. Januar 2020

    Zum “Trolley-Problem” soeben gelesen:
    “Wer würde einen Menschen opfern, um fünf zu retten? – Weltweite Unterschiede in moralischen Entscheidungen”
    https://www.mpib-berlin.mpg.de/944423/pm-2020-january

  16. #18 Alisier
    22. Januar 2020

    Vielen Dank für das Verlinken der Zusammenfassung der Studie, Richard!
    Sehr interessante Resultate……aber bei der Interpretation sollte man sehr vorsichtig sein, denke ich.

  17. #19 knorke
    22. Januar 2020

    @Alisier
    Die formulieren die Interpreation ja auch eher Richtung Hypothese. Temndenziell ist das auch gar nicht mal so unplausibel, aber es steht ja auch drin dass es zu früh wäre, solche Schlüsse zu ziehen.
    Was jedenfalls sicher so sein dürfte ist dass manche ethischen und moralischen Ansichten kuturell geprägt sind. Man sieht das ja auch in ganz anderen Kontexten: z.B. dem Wert den eine Gesellschaft tierischem Leben beimisst. Das ist in Deutschland.heute auch anders als vor 100 oder 150 Jahren.

  18. #20 Dr. Webbaer
    24. Januar 2020

    Ob viele Leben mehr wiegen als eines, der Maxime folgend, dass das größte Wohl für die größte Anzahl von Menschen der Maßstab für richtig und falsch ist (Jeremy Bentham), oder ob man die Auffassung vertritt, dass man nie einen Menschen nur als Mittel, z.B. für das Wohl anderer, betrachten darf (Immanuel Kant), sind Grundfragen der philosophischen Ethik.

    Brodkorb trägt hierzu wie folgt bei :

    -> http://www.georg-elser-arbeitskreis.de/texts/brodkorbfritze.htm

    Baum wie folgt :

    -> https://www.derwesten.de/kultur/fernsehen/ex-minister-baum-kritisiert-ard-film-terror-ihr-urteil-id12283916.html (K-Probe : ‘Ein todgeweihtes Leben ist genauso viel wert wie ein Leben mit Zukunft, fünf Leben sind genauso wertvoll wie 50 oder 5.000. Das ist unsere Verfassung, so, wie sie von Anfang an interpretiert worden ist.’)

    Brodkorb mag Dr. Webbaer eigentlich, wobei ‘Brodkorb’ hier Akkusativ ist, nicht Nominativ, mit Gerhart Rudolf Baum ist er dagegen nie gut ausgekommen.

    Mit freundlichen Grüßen
    Dr. Webbaer (der es begrüßt, wenn einige dahin gehen, wo es kompliziert wird und weh tun kann)

  19. #21 jemand
    31. Januar 2020

    Dieser Click-Bait-Mann hier:
    https://www.welt.de/politik/deutschland/article205466017/Klima-Holocaust-Tom-Radtke-Linke-rechtfertigt-seinen-Tweet.html

    … hat unoffensichtlich auch eine Art moralisches Dilemma auf die massenmediale Welt losgelassen.

    Denn endweder man leugnet den Holocaust, oder man leugnet den Klimawandel – und den endweder als nicht menschgemacht oder die Auswirkungen des “menschgemachten” Klimawandels.

    So oder so: Wie man sich entscheidet – man tritt jeweils in eine populistische Mine, die einem den Kragen kosten kann.

    Ich bin der Auffassung, das man die Erstellung und emittierung solcher Dilemmas verbieten solle, damit man nicht in solche Fallen gelockt wird.

  20. #22 jemand
    9. Februar 2020

    @ knorke
    22. Januar 2020

    Zitat:
    …aber es steht ja auch drin dass es zu früh wäre, solche Schlüsse zu ziehen.
    (https://www.mpib-berlin.mpg.de/944423/pm-2020-january)

    -> Na, irgendwie kommt es mir vor, als ob es völlig egal ist,w as das “Volk” denkt. Denn man macht ja inzwischen (oder immer schon?) konsequent Nägel mit Köpfen…und stößt “dicke Brocken” vom Thron (aus dem Leben):
    Beispiele:
    Iranischer General, Al quaida-Front-geads (jüngst), Terroristen-Anführer….

    Die Schlagzeilen sind regelmäßig voll davon.

    Und alles vorgeblich mit dem suggerierten Argument/Rechtfertigung, dies seien Menschen, die Anschläge planten….und vor allem auch im “Westen”.

    Fällt diese Hürde, dass man Menschen nicht opfert, um unbekannt viele andere Menschen zu retten, kommt es sehr wahrscheinlich zu katastrophalen Verhältnissen und niemand kann sich sicher sein, ob nicht auch er irgendwann auf der Abschußliste steht.

    Man kann sich eben nicht sicher sein, ob man sich damit nicht sein eigenes Grab schaufelt, wenn man leichtertig solchen “Hypothesen” zustimmen würde, deren Fragestellung schon alle ethische Imperative bricht und nie gestellt werden sollten.