Eigener Inhalt Auf Leben und Tod …

Wolfgang Plank
 Quelle: Unbekannt

Man kann nicht sagen, dass man von Andreas Scheuer in jüngster Zeit nichts gehört hätte. Erst öffnete er die Gehsteige für Elektro-Roller - nur um die hippen Gefährte Tage später doch lieber auf Radwege und Straßen zu verbannen; dann legte er großen Wert auf die Feststellung, dass es mangels Anträgen auf Zulassung - wie von ihm selbstverständlich erwartet - wohl eher schlecht stehe um die Hardware-Nachrüstungen von Diesel-Autos. Und zu schlechter Letzt beharrt er entgegen allem wissenschaftlichen Sachverstand darauf, die Stickoxid-Grenzwerte auf europäischer Ebene neu bewerten zu lassen.

 
Schließen

Diesen Artikel teilen

Wozu Andreas Scheuer dagegen kein Sterbenswörtchen gesagt hat, ist sein Gesetzentwurf zum autonomen Fahren. Dabei hatte er den noch im alten Jahr lautstark für dieses Frühjahr angekündigt. Womöglich richtet er sich dabei streng nach dem kalendarischen Sommeranfang zum Tag der Sonnenwende am 21. Juni. Dann blieben ihm in der Tat noch knapp drei Wochen.

Womöglich ist aber auch gerade kein wirklich guter Zeitpunkt. Ein erster Unfallbericht zu einem tödlichen Tesla-Crash im März wirft im Zusammenhang mit dem Assistenzsystem "Autopilot" nämlich jede Menge Fragen zu selbststeuernden Fahrzeugen auf. Umso mehr als sich dabei nahezu identisch die Umstände aus einem tödlichen Zusammenstoß im Mai 2016 wiederholten: Der Tesla fuhr ungebremst unter den Anhänger eines Lastwagens, der die Straße querte. Weder die Software noch der Fahrer hatten versucht auszuweichen.

Nun ist auch der "Autopilot", anders als der Name vermuten lässt, lediglich ein Fahrassistenz-System. Tesla weist ausdrücklich darauf hin, dass der Mensch am Steuer immer Überblick und Kontrolle behalten muss. Und doch offenbart sich ein Dilemma: Was, wenn es eben trotz sorgfältigster Programmierung und bester Sensoren kracht?

Zugegeben: Angesichts von mehr als 3000 Verkehrstoten jährlich und zusätzlichen knapp 400 000 Verletzten hier zu Lande muss jeder Automat wie ein Segen erscheinen. Schließlich ist der Mensch der mit Abstand größte Unsicherheitsfaktor am Steuer. Und natürlich reagiert ein modernes Auto schneller und zuverlässiger als der Mensch. Aber reagiert es auch richtig? Und was ist, im jeweils speziellen Moment, richtig?

Rechner handeln nicht intuitiv. Sie tun, was ihnen aufgegeben wurde. In Millionen Zeilen Programmcode steht, ob wir vollgebremst ins Stauende knallen, in den Wagen auf der Nebenspur gelenkt werden oder nach rechts in die Leitplanke. Doch was hat überhaupt Vorrang? Der preiswertere Crash oder die besseren Überlebenschancen? Und falls b: Wiegt das Wohl der Passagiere schwerer oder das möglicher Opfer? Immerhin entscheidet ein Algorithmus in letzter Konsequenz über Leben und Tod.

Aber ist das im Einzelfall auch gerecht oder wenigstens angemessen? Genügt das Ergebnis einem Mindestmaß an Moral? Wenn nicht, was wäre die Alternative? Wie bisher der Mensch mit all seinem Unvermögen. Er reagiert instinktiv. Er bremst und lenkt – im Normalfall ohne jede Kalkulation. Aber ist ein solches Verhalten nur deshalb besser, weil es menschlicher ist? Muss man einen zufälligen Verkehrstoten anders bewerten als einen wie auch immer ausgewählten? Und fühlt sich der Fahrer am Ende besser, weil statt seiner ein Chip gerichtet hat?

Ein internationales Forscherteam hat analysiert, welche Kriterien für solch ein Urteil am ehesten akzeptiert würden. Die Wissenschaftler haben dafür eine internationale Umfrage mit mehr als 40 Millionen Teilnehmern ausgewertet, berichtet das Fachblatt "Nature".

Das Ergebnis ist trotz der hohen Beteiligung nicht repräsentativ, macht aber Tendenzen deutlich. So werden im Schnitt eher Frauen gerettet als Männer, eher Kinder als Alte und eher Gruppen als Einzelne. Doch schon wer bei Rot über die Ampel geht, muss mit weniger Mitleid rechnen, und den Tod von Obdachlosen oder Dieben nehmen Probanden deutlich häufiger in Kauf als den von Ärzten oder Feuerwehrleuten. Spätestens hier zeigt sich, dass auch menschliche Entscheidungen keineswegs über jeden Zweifel erhaben sind.

Die deutsche Ethik-Kommission "Automatisiertes und vernetztes Fahren" hat 2017 in ihrem Bericht festgehalten, dass bei unausweichlichen Unfallsituationen "jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt" ist. Was auch sonst. Schließlich würde eine Abwägung über den Wert von Menschenleben schon gegen das Grundgesetz verstoßen. Irgendetwas aber müssen die Programmierer dem autonomen Auto ja eingeben.

Zu diesem Dilemma dürfte sich Herr Scheuer durchaus äußern . . .