Ethik für autonomes Fahren: Zwischen Gutmenschen-KI und menschlicher Moral
Autonome Fahrzeuge sollen zur Verkehrssicherheit beitragen, es fehlt jedoch die menschliche Ethik. Amerikanische Forscher beschäftigten sich mit der Frage "Was wäre, wenn...?" und haben vorgeschlagen wie KI ethisches Verhalten "lernen" kann.

Ein Fahrer bei einem Versuch für autonomes Fahren.
Foto: Daniel Naupold/Illustration/dpa
Autonome Fahrzeuge können nur in dem Rahmen entscheiden, den Programmierer ihnen zuvor mit auf den Weg geben. Ein oft verwendetes Beispiel ist folgendes Szenario: Angenommen, es gäbe ein autonomes Fahrzeug ohne Passagiere, das kurz davor steht, in ein Auto mit fünf Personen zu krachen. Es kann den Aufprall vermeiden, indem es auf den Bürgersteig ausweicht, aber dort würde es dann einen Fußgänger treffen.
Die meisten Ethikdiskussionen in diesem Szenario konzentrieren sich auf die Frage, ob die KI des autonomen Fahrzeugs egoistisch (Schutz des Fahrzeugs und seiner Ladung) oder utilitaristisch (Auswahl der Handlung, die die wenigsten Menschen schädigt) sein sollte, auch wenn es dann mitunter seinen eigenen Fahrer schadet. Doch was passiert, wenn jemand das Auto für bösartige Zwecke entführt und Böses beabsichtigt?
Gute schlechte Handlungen und eine autonome Welt voller Gutmenschen
“Die derzeitigen Ansätze zur Ethik und zu autonomen Fahrzeugen sind eine gefährliche Vereinfachung. Die [menschliche] moralische Beurteilung ist komplexer als das”, sagt Veljko Dubljević, Assistenzprofessor an der North Carolina State University. “Was ist zum Beispiel, wenn die fünf Personen im Auto Terroristen sind? Und was, wenn sie die KI-Programmierung absichtlich ausnutzen, um den nahegelegenen Fußgänger zu töten oder andere Menschen zu verletzen?”
“Mit anderen Worten”, so Prof. Dubljević weiter, “der vereinfachende Ansatz, der gegenwärtig verwendet wird, um ethische Überlegungen bei der KI und autonomen Fahrzeugen anzusprechen, berücksichtigt keine böswillige Absicht. Und das sollte sie.”
Als Alternative schlägt er das sogenannte “Agent-Deed-Consequence”-Modell als Rahmen vor. Jeder moralischen Betrachtung liegen in diesem Modell drei Variablen zugrunde, die eine differenzierte Beurteilung einer Handlung ermöglichen:
- Welche Absicht – gut oder schlecht – hat der Handelnde (Agent)?
- Ist die Tat (Deed) selbst gut oder schlecht?
- Ist das Ergebnis (Consequence) gut oder schlecht?
Menschliche Moralvorstellungen sind insbesondere durch zwei Faktoren bestimmt. Während die meisten Menschen Lügen moralisch schlecht beurteilen, sind sie sich dennoch einig, dass Notlügen in einigen Fällen angebracht und gut sind. Künstliche Intelligenz kennt momentan nur die Stabilität (Lügen ist schlecht), nicht aber die Flexibilität (Notlügen sind ok) menschlicher Moralvorstellungen. In den Augen der KI sind Lügen damit immer schlecht – auch wenn sie Leben schützen können.
Mehr Forschung nötig “bevor KI-Ethik und Menschen regelmäßig die Straße teilen”
Bezogen auf autonome Fahrzeuge bedeutet das: Unfälle sind um jeden Preis zu vermeiden. Weil die fünf Terroristen – in den Augen der KI – nichts Böses wollen und in der Überzahl sind, entscheidet sich das Auto für das Ausweichmanöver über den Bürgersteig und nimmt den Tod des Fußgängers in Kauf.
Während das menschliche Verhalten, die Verhinderung des Unfalls mit dem anderen Fahrzeug, als Selbstschutz gewertet wird, müssten sich die Entwickler der KI schlimmstenfalls für Totschlag verantworten. Auf der anderen Seite – und entgegen der menschlichen Natur – könnte die KI (und damit die Programmierer) eine Kollision in Kauf nehmen, denn Airbags, Knautschzone und Sicherheitsgurte schützen die Insassen zusätzlich.
Trotz unzähliger Untersuchungen, wie Philosophen und Laien an moralische Urteile herangehen, sagte Prof. Dubljević, dass das ADC-Modell ein Schritt in die richtige Richtung ist. Es werde aber mehr Forschung benötigt, “bevor vermeintlich ‘ethische’ autonome Fahrzeuge beginnen, die Straße regelmäßig mit Menschen zu teilen“. Weiter sagte er: “Terroranschläge mit Fahrzeugen sind leider immer häufiger geworden. Wir müssen sicher sein, dass autonome Fahrzeuge nicht für ruchlose Zwecke missbraucht werden.”
Die Forschungsergebnisse seiner Studie erschienen Anfang Juli in der Zeitschrift “Science and Engineering Ethics”.
(Mit Material der North Carolina State University)
test test test 3333 test test test test test test
Aktuelle Artikel des Autors
14. Januar 2025
Infraschall aus Sicht eines Physikers: Die unhörbare Gefahr?
10. Januar 2025
Von der Steinzeit bis zum Flug ins Weltall
Kommentare
Noch keine Kommentare – schreiben Sie den ersten Kommentar zu diesem Artikel.
0
Kommentare
Noch keine Kommentare – schreiben Sie den ersten Kommentar zu diesem Artikel.