Autonomes fahren philosphische fragen wer ist schuld

Maschinenethik

"Soll ich sterben, damit zwei andere gerettet werden?"

Der Maschinenethiker Oliver Bendel untersucht brennende Fragen der Robotik abseits der Technologie. Ein Gespräch über autonomes Fahren in der Stadt, Roboter mit Moral, leere Verantwortung und totale Kontrolle.

Autonomes fahren philosphische fragen wer ist schuld

ELO: Herr Bendel, kann eine Maschine eine Moral haben oder moralische Entscheidungen treffen?

Willkommen bei DER STANDARD

Sie entscheiden darüber, wie Sie unsere Inhalte nutzen wollen. Ihr Gerät erlaubt uns derzeit leider nicht, die entsprechenden Optionen anzuzeigen.

Bitte deaktivieren Sie sämtliche Hard- und Software-Komponenten, die in der Lage sind Teile unserer Website zu blockieren. Z.B. Browser-AddOns wie Adblocker oder auch netzwerktechnische Filter.

Sie haben ein PUR-Abo?

Autonomes fahren philosphische fragen wer ist schuld

Trends der Automobilbranche

Schon in ein paar Jahren werden teilautonome Fahrzeuge auf unseren Straßen zum Alltag gehören. Damit sind jene Autos gemeint, die zwar auf Autobahnen und Landstraßen weitestgehend autonom fahren, bei denen aber dennoch ein Fahrer hinter dem Lenkrad sitzen muss. Ihm kommt die Aufgabe zu, im Notfall manuell einzugreifen, beispielsweise wenn der Computer von einer bestimmten Situation überfordert ist. In diesem Szenario trägt der menschliche Fahrer zumindest noch einen Teil der Verantwortung.

Autos, die vollautonom von A nach B fahren, werden indes frühestens ab 2050 in größerer Zahl im Straßenverkehr anzutreffen sein. Solche Fahrzeuge kommen ohne Lenkrad aus und nehmen von ihren menschlichen Mitfahrern nur noch Befehle (Zieleingabe, etc.) entgegen. Das heißt aber auch, dass die Verantwortung für alle Entscheidungen komplett beim Fahrzeug liegt – auch wenn es um Leben und Tod geht. Ist ein Computer dazu überhaupt in der Lage?

Autonomes fahren philosphische fragen wer ist schuld

Autonomes Fahren: Welches Leben ist mehr wert?

Um ein Gefühl dafür zu bekommen, mit welchen moralischen Dilemmata wir uns im Straßenverkehr konfrontiert sehen können, empfiehlt sich ein Besuch der Website Moral Machine. Das Projekt wurde vom Media Lab des Massachusetts Institute of Technology (MIT) ins Leben gerufen. Im Prinzip geht es bei dem Experiment um nichts anderes, als Kriterien zu evaluieren, anhand derer die moralischen Entscheidungen selbstfahrender Autos festgemacht werden können.

Die Ausgangssituation ist stets dieselbe: bei einem selbstfahrenden Auto versagen die Bremsen. Vor ihm befinden sich jeweils zwei Hindernisse in Form von Menschen oder Betonsperren. Der Computer hat nur die Wahl in Hindernis 1 oder Hindernis 2 zu fahren. Die Teilnehmer des Experiments müssen nun in insgesamt 13 Szenarien entscheiden, wie sich das autonome Fahrzeug verhalten soll. Soll es gegen die Betonsperre fahren und den Insassen töten, oder die junge Frau auf dem Zebrastreifen überfahren? Soll es den Rentner treffen, oder das Baby? Arzt oder Obdachloser? Hund oder Mensch?

Diese Fragen haben sich bereits Millionen von Menschen gestellt. Im Ergebnis zeigt sich, dass die meisten Teilnehmer versuchen, möglichst viele Leben zu retten. Wenn es gar nicht anders geht, werden Frauen allerdings häufiger gerettet als Männer. Kinder werden den Alten vorgezogen. Und tatsächlich wird beispielsweise der Tod eines Obdachlosen eher toleriert, als der eines Arztes. Zudem gibt es regionale Unterschiede. In Südamerika beispielsweise, wo ältere Mitbürger besonders geachtet werden, verschonen die Teilnehmer junge Menschen seltener.

Autonomes fahren philosphische fragen wer ist schuld

Autonomes Fahren: Eine Frage der Ethik

In all den gerade beschriebenen Situationen, hätte ein menschlicher Fahrer nur wenige Sekunden Zeit, um eine Entscheidung zu treffen. Ein echtes Abwägen von Menschenleben wäre kaum möglich. Tatsächlich wären die meisten noch nicht einmal dazu in der Lage, zu realisieren, ob da gerade eine junge Frau oder ein alter Mann über die Straße läuft.

Ganz anders verhält es sich bei einem selbstfahrenden Auto. Ein vollautonomes Fahrzeug hat genug Rechenleistung, um selbst komplexe Situationen in Millisekunden zu erfassen und eine Entscheidung zu treffen. Durch die Vernetzung und den Zugriff auf Milliarden von Daten im Internet, wäre es sogar denkbar, dass soziale Komponenten in die Entscheidung einfließen.

Dass das moralisch nicht vertretbar ist, ist offensichtlich – und dennoch muss es objektiv nachvollziehbare Kriterien für das autonome Fahren geben. Die einst von dem damaligen Verkehrsminister Alexander Dobrindt eingesetzte Ethik-Kommission, traf folgende Kernaussagen:

  • Ethisch sind autonome Fahrzeuge nur dann vertretbar, wenn sie eine positive Risikobilanz aufweisen, also weniger Unfälle verursachen, als menschliche Fahrer.
  • Der Schutz des menschlichen Lebens muss höchste Priorität haben. Tier- und Sachschäden sind hinzunehmen, wenn dadurch Personenschäden vermieden werden.
  • Sowohl eine Aufrechnung von Menschenleben als auch eine Qualifizierung nach persönlichen Merkmalen ist unzulässig.
  • Autonome Fahrzeuge müssen so programmiert werden, dass sie defensiv fahren.
  • Es muss dokumentiert werden, wer in welcher Situation für die Fahraufgabe zuständig war: Mensch oder Computer.
  • Der Fahrer muss selbst für die Verwendung und Weitergabe seiner Daten entscheiden können (Datensouveränität).
  • Der Einsatz selbstlernender Systeme ist denkbar, allerdings nur, wenn dabei nicht die Regeln der Kommission ausgehebelt werden.

Werden wir uns mit autonomen Fahrzeug arrangieren?

All das klingt auf den ersten Blick nachvollziehbar. Gleichzeitig ergeben sich daraus aber weitere Fragen. Beispielsweise würden die meisten Autofahrer im Fall der Fälle intuitiv versuchen, ihr eigenes Leben zu retten. Der Computer jedoch ist in seiner Entscheidung neutral. Wer aber würde ein Auto kaufen, das die Insassen im Zweifelsfall „opfert“? Oder gibt es dann illegale Software, die dem Leben der Insassen die höchste Priorität beimisst?

Bis all diese Fragen geklärt sind, ist es noch ein langer Weg – falls sie sich überhaupt klären lassen.

Autonomes fahren philosphische fragen wer ist schuld

Genießen Sie exklusive Vorteile

R+V-Newsletter Mobilität

  • regelmäßige Infos zu aktuellen Mobilitäts-Themen
  • laufende Gewinnspiele mit attraktiven Preisen
  • kostenlose Checklisten zum Download
  • und vieles mehr

Welche ethischen Probleme bringt das autonome Fahren mit sich?

Ethisch sind autonome Fahrzeuge nur dann vertretbar, wenn sie eine positive Risikobilanz aufweisen, also weniger Unfälle verursachen, als menschliche Fahrer. Der Schutz des menschlichen Lebens muss höchste Priorität haben. Tier- und Sachschäden sind hinzunehmen, wenn dadurch Personenschäden vermieden werden.

Welche Probleme gibt es beim autonomen Fahren?

Ein weiteres Problem beim autonomen Fahren ist das Wetter und der oftmals unkoordinierte Straßenverkehr. Autonome Fahrzeuge müssen nicht nur bei Sonne einwandfrei funktionieren, sondern auch bei Starkregen, Nebel und Schnee. Ebenso auf asphaltierten Straßen mit und ohne Markierung.

Welche Vorteile hat das autonome Fahren?

6 Vorteile von selbstfahrenden Autos.
Persönlicher Begleiter für den Fahrer. ... .
Auf Knopfdruck Fahrer oder Passagier. ... .
Zeit für Entspannung. ... .
Sichere Fahrt ohne Ablenkung. ... .
Unterwegs vieles erledigen. ... .
Mehr Sicherheit auch beim manuellen Fahren..

Was versteht man unter autonomen Fahren?

Autonomes Fahren: Autos sind mit Sensoren ausgestattet, die das Umfeld wahrnehmen. Autonomes Fahren (englisch: autonomous driving oder self driving) bezeichnet laut einer Definition vollständig automatisiertes Fahren eines Fahrzeugs ohne Fahrer.