Vor einigen Tagen war ich aus beruflichen Gründen auf der Verbraucherelektronikshow CES in Las Vegas, und eines der großen Themen dort war das selbstfahrende Auto. Mal davon abgesehen, dass ich es einigermaßen amüsant fand, wie praktisch alle Automananager eifrig versicherten, dass das Auto der Zukunft – oder auch das Modell, dass sie gerade vorstellten, was natürlich zukunftsweisend sein sollte – eine Art rollendes Smartphone sein werde: Wenn ich bedenke, dass bei meinem Smartphone so ziemlich die unzuverlässigste Funktion die des Telefonierens ist (obwohl dies doch eigentlich die Hauptaufgabe dieses Geräts sein sollte), dann finde ich diese Metapher aus der Sicht des Autofahrenden eher beunruhigend…
Aber ich hatte Zeit, mich umzusehen, und habe daher in die Pressekonferenz von Gill Pratt reingehört, der als neuer Chef des Toyota Research Institute in den nächsten fünf Jahren ein Budget von einer Milliarde Dollar aufwenden kann. Ein paar Anregungen sind bei mir hängen geblieben. Zum Beispiel, dass die Sache mit den selbstfahrenden Autos noch längst nicht so weit ist, wie man uns glauben machen will. Ohne Zweifel gab es enorme Fortschritte in der autonomen Automobiltechnik, aber die seien, wie Pratt sagt, damit zu erklären, dass Autofahren die meiste Zeit ziemlich simpel ist. Kniffelig wird’s, wenn eine unvorhersehbare Situation eintritt (und die kommt irgendwann, irgendwo ganz unausweichlich) – die lässt sich eben wegen ihrer Nicht-Vorhersehbarkeit auch nicht einfach programmieren.
Nun ist es keine Frage, dass Menschen in solchen un- oder zumindest relativ schwer vorhersehbaren Situationen – das Kind, das plötzlich zwischen zwei geparkten Autos auf die Straße rennt, ein Stück Schrott, das von einem Laster gefallen ist, eine Ölspur oder ähnliches – auch nicht besonders zuverlässig reagieren; wir bauen ja sogar jede Menge Fehler, die ziemlich leicht zu vermeiden wären, und das ziemlich oft. Aber wir haben, wie Pratt erklärte (und wir wissen’s ja auch) eine viel höhere Toleranzschwelle, wenn es um menschliches Versagen geht, als wenn es um Versagen der Technik geht. Irren – und das generelle Verständnis, das wir den Irrenden entgegenbringen – bleibt nun mal den Menschen vorbehalten.
Das hat natürlich vielschichtige Gründe. Da ist zum Beispiel das Problem der Verantwortlichkeit – Menschen können Verantwortung übernehmen und werden bei Auto- und sonstigen Unfällen auch regelmäßig zur Verantwortung gezogen. Natürlich kann man auch bei technischem Versagen die Betreiber oder Hersteller zur Rechenschaft ziehen – aber was ist, wenn die Technik nicht versagt hat, weil sie nun mal nur eine 95-prozentige (um mal eine Zahl zu nennen – meinetwegen kann’s auch 99,95-prozentig sein) Fehlerfreiheit garantiert hat? Und daraus resultiert wiederum das Problem der Haftung: Liegt die beim Besitzer/der Besitzerin des Selbstfahrautos, beim Hersteller, oder bei der Firma, die das Programm geschrieben hat? Das ist keine triviale Frage und genau darüber wird schon heute bei Autounfällen durch technische Probleme in erbitterten Prozessen gefochten. Ich vermute mal, das es vor allem dieses Problem der Grund ist, warum die Einführung völlig autonomer (wodurch das Automobil ja eigentlich erst wirklich auto-mobil wird) Pkw noch lange auf sich warten lässt. Oder, was auch möglich ist, dass es eine vollkommene Autonomie nie geben wird, weil eine menschliche Kontrolle und Endverantwortung immer vorgeschrieben bleiben wird.
Ob es wirklich viele Menschen geben wird, die sich das Steuer aus der Hand nehmen lassen wollen, ist nochmal eine ganz andere Frage – der Erwerb des Führerscheins, die Berechtigung, ein Auto fahren zu dürfen, ist eines der wenigen Rituale, die (be)greifbar den Eintritt ins Erwachsenenalter markieren. Egal, wie gut das Auto selbst fahren kann – es ist wahrscheinlich nicht das Fahren, auf das viele Menschen verzichten wollen, sondern das unerwartete, abrupte und manchmal tödliche Ende des Fahrens. Oder, wie Pratt das Endziel seiner Forschung beschrieb: ein Auto, das unfähig ist, einen Unfall zu verursachen. Sozusagen eine Neufassung des 1. Robotergesetzes. Aber ist das überhaupt plausibel? Kann es so etwas wie eine nullprozentige Fehlerwahrscheinlichkeit geben? Eure Meinung dazu würde mich interessieren…
Kommentare (25)