Mit dem Problem, dass wir mit menschlichem Versagen wesentlich nachsichtiger umgehen als mit dem Versagen eines Computerprogramms, und welche Folgen dies beispielsweise für autonome Fahrzeuge haben wird, hatte ich mich hier schon einmal beschäftigt. Das Problem ist aber nicht nur, wem wir welche Fehler vergeben – wirklich kritisch wird es, wenn es um Dilemmas geht, also um Situationen, in denen es keine “richtige” Lösung gibt. Und auch hier sind autonome Fahrzeuge, respektive die algorithmischen Entscheidungen, die sie zwangsläufig treffen müssen, ein sehr anschauliches Beispiel: Nehmen wir an, die Verkehrssituation lässt nur noch zwei Alternativen zu: das eigene Fahrzeug crasht in eine Gruppe von Menschen und könnte damit potenziell mehrere Menschenleben fordern, oder das eigene Fahrzeug weicht der Gruppe aus und rast dabei gegen, sagen wir mal, eine massive Mauer – was potenziell alle Insassen das Leben kosten könnte. Wie würden wir in so einer Situation entscheiden? Aber viel kritischer ist: Wie sollte der Algorithmus im Steuercomputer des autonomen Fahrzeugs entscheiden?
Die Antwort darauf hängt – was nicht weiter überraschen dürfte, obwohl dies der aktuellen Ausgabe von science einen Artikel wert war – natürlich davon ab, ob man im Auto sitzt oder nicht. Diese Studie (deren Inhalt ich primär dieser MIT-Pressemitteilung entnehmen musste, da mein science-Abo ausgelaufen ist und einer Verlängerung ziemlich teuer gewesen wäre) fand heraus, dass eine klare Mehrheit – 76 Prozent – der Befragten (via Amazons Mechanical Turk) befürwortete, dass der Algorithmus eher einen Fahrzeuginsassen als zehn Passanten töten sollte – doch nur ein Drittel der Befragten würde so ein Auto kaufen. Mit anderen Worten: Sie wissen zwar, was moralisch korrekt wäre – aber wenn sie darunter leiden müssten, dann ist ihnen diese moralische Korrektheit ziemlich egal.
Instinktiv kann ich das nachvollziehen – ich denke, ein Automat hat keine Moral. Selbst wenn er/sie (bei Automaten weiß man ja nie, welches Geschlecht sie haben) sich durch Maschinenlernen diese moralischen Standards erarbeitet hat, sie also nicht das Resultat der Ansicht eines individuellen Programmierers/einer individuellen Programmiererin sind – irgendwie kann eine automatisch, quasi-mechanische Entscheidung nicht wirklich menschlich sein, und damit auch nicht wirklich moralisch. Und dies wurde inzwischen sogar wiederholt bewiesen: Algorithmen (oder, in etwas allgemeinverständlicherer Schreibweise: Computerprogramme) sind potenziell ebenso vorurteilsbeladen und beispielsweise rassistisch wie Menschen sein können. Es ist sogar vergleichsweise schwierig, sie nicht zu genau jenen vorurteilsbeladenen A…löchern zu machen, vor denen sie uns eigentlich bewahren sollten. (Den Artikel hatte ich hier schon einmal verlinkt.)
Kommentare (22)