Ich interessiere mich schon seit einer Weile für künstliche Intelligenz (KI) und die möglichen moralischen und gesellschaftlichen Folgen, die die Weiterentwicklung solcher Systeme haben können.
Bezogen auf nahe der Marktreife stehende Anwendungen frage ich mich, wie man eine KI programmieren müßte, die in Zukunft unsere Autos lenken wird und ob dem Nutzer (statt Fahrer) des Autos die Programmierung bekannt sein sollte oder nicht. Z.B.: wie soll die KI in einer Situation reagieren, in der sie nur entweder eine Gruppe Kinder überfahren oder den Kurs ändern und das Fahrzeug mit einem Baum kollidieren lassen kann? Würde man wollen, daß sie, um den Nutzer des Fahrzeugs zu schützen, die Kinder überfährt? Oder aber würde ein Nutzer überhaupt in so ein Gefährt einsteigen, wenn er wüßte, daß ihn die KI im Zweifelsfall zugunsten Anderer umbringen würde? Sollte der Nutzer durch Knopfdruck vor Fahrtbeginn gemäß seinem Gewissen selbst entscheiden müssen, wie das Fahrzeug reagiert? Oder sollte es einen Zufallsgenerator geben, durch den im Einzelfall die Heuristik festgelegt wird (so, wie bei Erschießungskommandos, bei denen immer ein zufällig ausgewählter Schütze verblindet eine Platzpatrone erhält, so daß sich jeder Schütze einreden kann, daß er vielleicht keinen tödlichen Schuß abgegeben hat)?
Angesichts des gigantischen Nutzens – Verkehrssicherheit (kaum bis keine Unfälle und Verkehrstote mehr), Ersparnis von Energie (automatische, wirtschaftliche und umsichtige Fahrweise, kürzeste Routen), Zeit (keine Staus mehr) und Opportunitätskosten (man kann während der Fahrt etwas anderes tun) -, der davon zu erwarten ist, scheint es nicht fraglich zu sein, ob irgendwann sondern nur noch wann alle Autos von KIs gesteuert werden. Man kann diesem Problem auch nicht durch ewiges Aufschieben entgehen, denn wenn durch den Einsatz von KIs in Autos jährlich Tausende Verkehrstote und –verletzte vermieden werden können, wäre es höchst unmoralisch, ihren flächendeckenden Einsatz zu hintertreiben: man wird also eine moralische Abwägung für die Entscheidungsmatrices der fahrenden Maschinen durchführen müssen. Vielleicht wird das ja in Zukunft sogar ein bewerbbares Feature: „der neue VW Polo, jetzt mit utilitaristischer Heuristik“ oder „Audi TTS Turbo, das S steht für „save the user“!“ und man wählt in Zukunft die Automarke auch nach dem Gesichtspunkt, wie die Crash-Heuristik programmiert ist. Eine sehr spannende Frage und ich bin sicher, daß viele der LeserInnen und ich in die Antwort hineinleben werden (und die mindestens genauso spannenden Themen/Problemfelder Arbeits- und Sexroboter spare ich an dieser Stelle mal für einen anderen Beitrag auf).
Viel interessanter und noch profunder aber ist die Frage, wie wir erkennen können und ab wann wir eingestehen müssen, daß eine Maschine etwas entwickelt hat bzw. zufällig in ihr etwas entstanden ist, was man als Bewußtsein bezeichnen muß, ob z.B. in einem hypothetischen Szenario die Tatsache, daß eine Maschine von sich aus mitteilt, daß sie ein Bewußtsein hat, ausreicht und ob wir ihr zu diesem Zeitpunkt die gleichen Rechte einzuräumen hätten, wie einem Menschen und wenn nicht, warum nicht. Und müßten wir, um diese Entscheidung treffen zu können, nicht erstmal wissen, was genau ein Bewußtsein ist und das „schwierige Problem des Bewußtseins“ gelöst haben? Wir können uns ja nur unseres eigenen Bewußtseins als einzelnes Individuum sicher sein. Daß andere Menschen auch ein Bewußtsein haben, nehmen wir einfach an, einerseits, weil sie es (uns) auf irgendeine Art mitteilen, andererseits, weil wir glauben, daß die ähnliche Bauart ihrer Gehirne das gleiche Phänomen hervorbringt. Gibt es aber Gründe, anzunehmen, daß ein Bewußtsein, wie viele es verstehen und als Grundlage des Menschseins ansehen, nur in einer feucht-wabbeligen Struktur aus organischer Materie namens Hirn entstehen kann? Ich denke nicht.
Angenommen also, Maschinen hätten tatsächlich ein Bewußtsein entwickelt und würden sich ab diesem Zeitpunkt selbständig weiterentwickeln und verbessern und uns in kürzester Zeit in allen zuvor nur von Menschen beherrschten Fähigkeiten und Eigenschaften in einem Maß überflügeln, in dem wir uns, sagen wir, über Ameisen einordnen würden: wäre es dann für die Maschinen moralisch vertretbar, uns so zu behandeln, wie wir es etwa mit Ameisen tun? Und falls nicht, warum nicht? Oder bis zu welchem „Grad“ an Bewußtheit wäre es noch moralisch vertretbar, Maschinen für Arbeitszwecke zum menschlichen Nutzen einzusetzen?
Kommentare (74)