Towards an Accountability Framework for AI Systems: The Autonomous Vehicle Use Case
Ansprechpartner: Rainer Trauth, M. Sc.
Die Fortschritte im Bereich des autonomen Fahrens sind gewaltig. Neue Technologien durch die Entwicklung der künstlichen Intelligenz machen diesen Fortschritt möglich. Heute fahren die ersten autonomen Fahrzeuge bereits tausende von Kilometern auf Teststrecken, ohne dass ein menschlicher Fahrer wesentlich eingreifen muss. Die Entwicklungen in diesem Bereich werden von immer leistungsfähigeren Algorithmen und Methoden aus dem Bereich des maschinellen Lernens begleitet. Die zunehmende Komplexität der verwendeten Algorithmen geht jedoch mit einem nicht nachvollziehbaren Verhalten einher. Das bedeutet, dass einzelne Entscheidungen des Systems nicht eindeutig identifiziert werden können. Dem Entwickler, dem Benutzer und weiteren Interessensgruppen erscheint das Verhalten undurchsichtig.
Das intransparente Verhalten von KI wird üblicherweise als "Blackbox" bezeichnet, was bedeutet, dass dem Entwickler nur die Eingabe- und Ausgabevariablen bekannt sind. Erklärbare KI-Methoden befassen sich damit, genau diese Undurchsichtigkeit aufzulösen und komplexe KI-Systeme verständlicher und interpretierbar zu machen. Dies steht oft im Konflikt mit der Tatsache, dass Entwickler und Forscher nach schnellen Lösungen für technische Probleme suchen und dabei die Fragen der Transparenz und Verantwortlichkeit außen vor lassen.
Transparenz ist jedoch für eine breite Markteinführung von autonomen Fahrzeugsystemen notwendig, da sie die Grundlage für Vertrauen und eine effektive Umsetzung der Gesetzgebung ist. Ziel des Forschungsprojekts ist es, einen Rahmen für die Rechenschaftspflicht im Bereich des autonomen Fahrens zu entwickeln, der die verschiedenen Interessen der Stakeholder berücksichtigt. Um auf das übergeordnete Forschungsziel hinzuarbeiten, wie erklärbare KI Probleme der Rechenschaftspflicht beim autonomen Fahren lösen kann, werden drei Hauptfragen untersucht:
(1) Wie kann Erklärbarkeit die Akzeptanz und Nutzbarkeit für den Nutzer (intern, extern, technisch) beeinflussen/verbessern?
(2) Wie kann die Verantwortung auf Basis der Implementierung/Integration von Erklärbarkeit verteilt werden?
(3) Wie kann Erklärbarkeit auf der Basis der Nutzeranforderungen in das autonome Fahren integriert werden?
Das Projekt erfolgt in Zusammenarbeit mit dem Lehrstuhl für Wirtschaftsethik
Lehrstuhl für Fahrzeugtechnik:
Lehrstuhl für Wirtschaftsethik:
Wissenschaftlerinnen und Wissenschaftler:
- Auxane Boch, Lehrstuhl für WIrtschaftsethik, TUM
- Ellen Hohma, Lehrstuhl für WIrtschaftsethik, TUM
- Rainer Trauth, Lehrstuhl für Fahrzegtechnik, TUM