Können „ethische Algorithmen“ zur Verbesserung der Welt beitragen? Welche Risiken bringen diese Algorithmen mit sich? Dürfen Algorithmen über Leben und Tod eines Menschen entscheiden? Diesen Fragen ist die Wirtschaftsethikerin Franziska Poszler in ihrem Gastvortag an der Hochschule Bonn-Rhein-Sieg nachgegangen. // Sebastian Müller und Lukas Lenz
Als „work in progress“ bezeichnete die Wirtschaftsethikerin ihre Forschung und den Vortrag. Wie sollte es auch anders sein? Es geht schließlich darum, bei ethischen Dilemmata eine Entscheidung zu treffen und diesen Prozess der Entscheidungsfindung dann in einen Algorithmus einbetten, der ganz nebenbei noch ein Fahrzeug von mindestens einer Tonne Gewicht steuert. Außerdem sind wir Menschen als emotionales Wesen nicht bekannt dafür, in einem Dilemma die richtige Entscheidung zu treffen. Das scheitert bei uns nämlich schon am Wort „richtig“.
Ethische Theorien sind Grundlage für Forschung
Was ist überhaupt eine richtige Entscheidung und was eine falsche? Die normativen Ethik gibt darauf Antworten. Die Deskriptive Ethik beschreibt hingegen die Handlungsweise von Menschen. Mit Befragungen zu Dilemmas, versuchen die Forscher, der gelebten Entscheidungsfindung auf den Grund zu gehen. Auch aus diesen Ergebnisse lassen sich Bewertungen ableiten.
Autonomes Fahren erfordert ethische Abwägung
Poszler beschrieb Dilemmata, um zu verdeutlichen, dass autonomes Fahren ständig ethische Abwägungen erfordert: Ein Auto mit Passagieren muss so schnell, wie möglich zum Krankenhaus. Geht das autonome Fahrzeug das Risiko ein, über eine rote Ampel zu fahren, wenn für den Passagier jede Minute zählt, oder birgt das Überfahren der roten Ampel eine zu große Gefahr für andere? In einer anderen Situation muss das autonome Fahrzeug blitzschnell ausweichen. Es kann entweder nach links ausweichen, wo ein kleines Kind steht und vermutlich überfahren wird. Oder nach rechts, wo eine ältere Dame spaziert, die vermutlich nicht mehr rechtzeitig ausweichen kann. In einem weiteren Beispiel muss das autonome Auto zwischen Fahrradfahrer und LKW durchfahren. Sollte das Auto näher am LKW vorbeifahren, um mehr Abstand zum Fahrradfahrer zu halten oder mehr Abstand zum LKW halten, um sich selbst zu schützen?
Gleichheit ist ein wichtiger Wert
Um Fragen, wie diesen, annähernd gerecht zu werden formulierte Franziska Poszler und ihr Team eine eigene Theorie. „Es muss eine Entscheidung getroffen werden, die möglichst wenig Gesetzesbrüche, möglichst wenig personellen und materiellen Schaden entstehen lässt.“ Aber wo ist da die richtige Gewichtung der Dimensionen einer solchen Frage? Wie viel wichtiger ist ein Menschenleben, als ein Gesetzesbruch? Es scheint eine endlose Spirale der Fragen zu sein. Doch bei einem Punkt sind sie sich einig: „Wir wollen, dass jeder Verkehrsteilnehmer gleich gewichtet wird.“ Sie wollen nicht, dass aus ihren Sicherheitsalgorithmen ein Wettkampf entstehe, der die einzelnen Eigentümer der Fahrzeuge mehr schütze, als Verkehrsteilnehmern ohne autonomes Fahrzeug.
Theorien werden in Code überführt
Und jetzt stellen sie sich dieses große Geflecht aus Dilemmata als Code vor“, sagte Frau Poszler gegen Ende der Präsentation und brachte damit den Saal zum Schweigen. Stimmt. Das musste ja irgendjemand programmieren. Poszler präsentierte eine Formel, in der die Prinzipien des Utilitarismus – der Minimierung des Gesamtrisikos – , des Gleichheitsprinzip und das Prinzip der Vermeidung des größtmöglichen Schadens berücksichtigt werden. Die Prinzipien werden mit einem Gewichtungsfaktor versehen, der wiederum aus der relativen Wichtigkeit der Prinzipien abgeleitet wird. Je nach Präferenz eines Prinzips würde das autonome Fahrzeug unterschiedlich reagieren.
Menschen entscheiden, nicht der Algorithmus
Zum Schluss durften die Studierenden der H-BRS Fragen an die Rednerin stellen. Arme schossen quer verteilt im Hörsaal nach oben und hofften ein Mikrofon gereicht zu bekommen. Eine Frage war, wie das Programm oder der Alogrithmus rechnen würde, wenn eine Person joggt oder versucht auszuweichen. „Das System soll, wenn es fertig ist, jede Sekunde den gesamten Entscheidungsprozess berechnen und erneut entscheiden.“ Die Kinnlade des Studierenden ließ sich scheinbar nicht mehr schließen. „Weitere Fragen?“, warf Professorin Keil in den Raum. „Was, wenn autonomes Fahren auf dem Papier sicherer ist, als Fahren durch den Menschen? Wird autonomes Fahren dann Pflicht?“ „Nein“, antwortete Poszler. Der derzeitige Stand der Ethik ist, dass die Freiheit des Menschen vorginge. Dann stand bei den Studierenden nur noch eine große Frage im Raum: „Wie würde ich entscheiden und warum? Wobei…will ich überhaupt eine Entscheidung treffen?“
Interessante Links:
- https://www.youtube.com/watch?v=dWshtBOgCvs (Can we apply human ethics to robots?) Spinnt die Gedanken bezüglich eines tödlichen Unfalls etwas weiter. Was, wenn Roboter im Militär zum Einsatz kommen? Sie können nicht die gleichen ethischen Algorithmen eingebaut bekommen, müssen aber trotzdem unter begrenzt ethischen Bedingungen handeln.
- https://www.youtube.com/watch?v=Izd2qOgOGQI (Artificial intelligence and ist ethics | DW Documentary) Spannende Dokumentation, die ich zufällig einige Wochen zuvor gesehen hatte. Ich erinnere mich an verblüffende Meinungen und Gedanken bezüglich der Zusammenarbeit zwischen Mensch und künstlicher Intelligenz. Und an Fragen wie: „Ist es ethisch vertretbar für eine Maschine, im Namen eines Menschen zu handeln?“ Zusammenfassend: Nützliches Hintergrundwissen zum Thema AI/KI und einigen ethischen Dilemmata, die beim technischen Fortschritt in diese Richtung auftreten.
- https://www.youtube.com/watch?v=3oE88_6jAwc (The ethical dilemma we face on AI and autonomous tech | Christine Fox | TEDxMidAtlantic) Vortrag von Christine Fox (Militärfunktionärin und Politkerin / ex US-Verteidigungsministerin), der aufzeigt, wie groß die Debatte über AI/KI und jegliche Entwicklung in diese Richtung ist. Je mehr man weiß, desto mehr weiß man, was man noch nicht weiß. Passt für mich schön zur endlosen Spirale der Fragen, die auch Franziska Poszler präsentierte.
- https://www.adac.de/rund-ums-fahrzeug/ausstattung-technik-zubehoer/autonomes-fahren/recht/ethische-fragen/Der ADAC-Artikel setzt sich mit dem Thema „Was Maschinen überhaupt entscheiden dürfen und was nicht?“ auseinander und gibt den aktuellen Stand der Diskussion bei autonomen Fahrzeugen wieder und die ethisch-moralischen Herausforderungen, die damit verbunden sind. Der Artikel kommt zum Schluss, dass es keine gesetzliche Verpflichtung zur Nutzung autonomer Verkehrssysteme geben sollte, selbst wenn zu erwartende Sicherheitspotenziale dem gegenüberstehen.
- https://www.bmvi.de/SharedDocs/DE/Pressemitteilungen/2022/008-wissing-verordnung-zum-autonomen-fahren.htmlDiese Pressemitteilung vom Bundesministerium für Digitales und Verkehr behandelt die Vervollständigung des Rechtsrahmens für autonomes Fahren in Deutschland im Februar 2022. Hier werden einige Punkte der Verordnung aufgeführt wie beispielsweise die Prüfung und das Verfahren für die Erteilung einer Betriebserlaubnis für Kraftfahrzeuge mit autonomen Fahrfunktionen. Neben den technischen Verordnungen werden auch die Rechtsverordnungen im Einzelnen aufgeführt wie etwa die Betriebserlaubnis.
- https://www.fh-muenster.de/itb/downloads/lehre-neu/michel-fabian/2021_Broschuere_AutonomeMobilitaet.pdf (Seite 68-75)Die Broschüre „Autonome Mobilität“ beleuchtet im Kapitel „Autonome Mobilität und Ethik“ (Seite 68-75) eingehend die ethischen Herausforderungen bei autonomen Fahrzeugen und deren Kernfragen, beispielsweise wer im Dilemma-Fall geschützt werden soll und welche Entscheidung ein Algorithmus treffen soll oder ob der Faktor Sicherheit und die Vermeidung bzw. Verringerung von Unfällen als ethische Grundlage für die Nutzung der technischen Möglichkeiten ausreicht. Darüber hinaus wird die Haltung der Ethik-Kommission Automatisiertes und Vernetztes Fahren und die durch sie aufgestellten Regeln erläutert und die Chancen und Risiken autonomer Systeme verdeutlicht.
Die gesamte Vorlesung gibt es hier zu sehen: