Philipp Burk
Wenn wir uns über das autonome Fahren unterhalten, steht der technologische Fortschritt und die künstliche Intelligenz meist im Vordergrund. Nur selten wird das autonome Fahren hinsichtlich der Ethik diskutiert. Dabei stellt genau dieser Diskurs eine der wichtigsten Grundlagen für die Realisierung des autonomen Fahrens. Die Ethik fragt schließlich nach der moralischen Verantwortung intelligenter Systeme.
Die Vision von Autoherstellern und Unternehmen, wie jene von Tesla-Chef Elon Musk, klingen utopisch und zeichnen meist eine futuristische Idylle. Autohersteller und Visionäre zeichnen ein Leben in einer perfekt vernetzten Welt mit smarten Ampeln und selbstständig fahrenden Fahrzeugen. Das alles ohne Staus, Verspätungen und Unfällen. Das autonome Fahren zeigt dabei ein unglaubliches Potenzial.
Tatsächlich ist die Technik nicht mehr so weit von dieser Zukunft entfernt. Fahrassistenzsysteme und autonom fahrende Autos können heute schon mit Hilfe von LiDAR-Sensoren ein ziemlich genaues digitales Abbild der Umgebung inklusive Fußgängererkennung erschaffen und bewerten. Nach einer aktuellen Studie des Unternehmens Waymo, das Technologien für autonome Fahrzeuge erforscht und entwickelt, könnten durch den Einsatz von autonomen Fahrzeugen bis zu 90 Prozent der tödlichen Unfälle vermieden werden. In unserem Blogartikel „Was bedeutet ADAS – Teil 2“ (LINK) haben wir bereits über LiDAR-Sensoren als Schlüsseltechnologie bei der Entwicklung autonom fahrender Autos und die Sicherheit von Fahrerassistenzsystemen berichtet.
Obwohl Fahrzeuge heute durch eine Kombination von Kameras, Radars und Sensoren die Situation inklusive aller potenziellen Gefahrenquellen analysieren und auswerten können, wird die wichtige Frage nach der digitalen Ethik kontrovers diskutiert.
Das moralische Dilemma der Entwickler
Eine künstliche Intelligenz ist in der Lage situativ eigenständige Entscheidungen zu treffen. Doch bei einigen Entscheidungen, die über Leben oder Tod entscheiden können, sind die Programmierer:innen des Autos in einem moralischen Dilemma.
Im Zentrum dieses Dilemma steht die Frage, wie sich ein autonomes Fahrzeug entscheiden soll, wenn ein Unfall nicht mehr zu verhindern ist. Sitzt ein Mensch am Steuer geschieht diese Entscheidung individuell und intuitiv im Bruchteil einer Sekunde. Beim autonomen Fahren muss bei der Programmierung des Fahrzeugs entschieden werden, wie die KI die Situation, auf Grundlage der erfassten Daten, bewerten soll. Solche Daten können das Alter und die mögliche Überlebenschance der am Unfall beteiligten Personen umfassen.
Erfordert eine Situation beispielsweise die Entscheidung, ob das Fahrzeug das Leben eines alten Ehepaars oder das einer jungen Mutter mit Kinderwagen in Gefahr bringen sollte, liegt die moralische Frage zu Grunde, welches Leben mehr wert ist. Darüber hinaus muss entschieden werden, ob diese schwierige ethische Frage vorprogrammiert werden darf oder dem Zufall überlassen werden muss.
Denkbare Szenarien gibt es unzählige und keine Entscheidung ist einfach und einspruchsfrei zu entscheiden. Aus ethischer Perspektive ist jedes Leben unantastbar und das eine Menschenleben, darf nicht gegen ein anderes aufgewogen werden. Aus dieser Perspektive ist es egal, ob der Mensch alt oder jung, krank oder gesund, beteiligt oder unbeteiligt oder schuldig oder unschuldig ist.
Situation in Deutschland und der Welt
Auch wenn die Frage schwierig zu beantworten ist, muss zeitnah eine Entscheidung getroffen werden. Die Programmierer:innen und Entwickler:innen der autonom fahrenden Autos brauchen diese Vorgaben. Das Ignorieren dieses Dilemmas ist keine Option, denn diese Entscheidungen werden Teil von Verkehrssituationen bleiben.
Forscherinnen und Forscher des Massachusetts Institute of Technology (MIT) haben im Zuge des Online-Spiels „Moral Machine“ ca. 40 Millionen dieser schwierigen moralischen Entscheidungen aus aller Welt gesammelt und ausgewertet. Da die Teilnehmer:innen der Umfrage überwiegend junge Männer waren, gilt sie jedoch als nicht repräsentativ. Das Ergebnis zeigte jedoch eine klare Tendenz. Die Teilnehmenden priorisierten das Überleben von Kindern vor dem der Älteren.
In Deutschland spricht sich die Ethikkommission für Automatisiertes und Vernetztes Fahren gegen eine Priorisierung nach Merkmalen wie Alter, Gesundheit oder Geschlecht aus.
Zwischen Menschen darf die Software also auf keinen Fall unterscheiden. Merkmale wie Alter, Geschlecht, körperliche oder geistige Konstitution dürfen in einer Dilemma-Situation keine Rolle spielen. Und ganz grundsätzlich muss gelten: „Ein Menschenleben darf nie gegen ein anderes aufgewogen, niemals ein Menschenleben für das Leben mehrerer anderer geopfert werden“, heißt es in der im Bericht der Ethik-Kommission.
Auch im Notstand dürfen Menschenleben daher nicht gegeneinander „aufgerechnet“ werden.
Kommt es zukünftig nicht zu einer weltweiten oder europaweiten Einigung in dieser Frage, müsste ein autonom fahrendes Fahrzeug, beim Überqueren der Landesgrenze, nach anderen moralischen Richtlinien agieren.
Auch am Max Planck-Institut wird über diese philosophische Fragestellungen diskutiert. Iyad Rahwan hat das Moral Machine Experiment mit auf den Weg gebracht und forscht nun in Berlin im Bereich Mensch und Maschine. Seiner Einschätzung nach wird das Thema von den Entscheidern in der Politik weitestgehend ignoriert. Im Ernstfall ist die Vorschrift, dass das autonom fahrende Auto einfach so schnell wie möglich zum Halten kommen soll.
Eure Meinung zum Thema
Wenn euch das Thema autonomes Fahren und Ethik interessiert, freuen wir uns über eure Meinung. Schreibt uns bei Instagram oder Facebook, wie ihr das moralische Dilemma einschätzt und wie eine Lösung des Problems aussehen könnte. Die besten Ideen und Vorschläge teilen wir dann auf unseren sozialen Kanälen und geben sie zur Diskussion frei.