Verantwortung nicht in Algorithmen auflösen / ISM-Informatiker Marcus Becker: KI-Black-Box ließe sich öffnen
Dortmund, 13.03.2024. Menschliche Anlageberater können schadensersatzpflichtig werden – prinzipiell gilt das auch für automatisierte Berater. Doch wer steckt dahinter? An diesem Beispiel greift Prof. Dr. Marcus Becker eine zentrale Frage auf, die sich beim Einsatz von künstlicher Intelligenz (KI) immer eindringlicher stellt. Umso mehr, als die auffällige Intransparenz von KI-Prozessen nahelegt, dass dies fast methodischen Charakter hat. Der Experte der International School of Management (ISM) zeigt, wo sich praktisch ansetzen lässt, um KI-Black Boxen zu öffnen.
Mit Methoden des maschinellen Lernens beschäftigt sich Marcus Becker seit mehr als fünf Jahren. Bei der Analyse der Lernmethoden von KI fasziniert den Mathematiker am meisten die Anwendung seiner Disziplin: „Machine Learning Algorithmen verbinden mehrere Teilbereiche der Mathematik auf überaus elegante Weise. Was mich überrascht, wie einfach es heutzutage ist, komplexe Programmier-Codes schnell zu erzeugen – mit Chat GPT sogar ohne die Programmiersprache zu beherrschen.“
Ergebnisse der KI faszinieren Fachwelt wie Öffentlichkeit, die viel Hoffnungen auf diese Methode setzen, mit der vorhandene Sachverhalte herausgesucht und nach dem Wahrscheinlichkeitsprinzip auf verblüffend brauchbare Weise kombiniert werden. Hier hakt Becker ein. Will man diese komplexen Modelle nachvollziehen, kommen ernste Fragen auf: „Künstliche neuronale Netze zählen zu den sogenannten Black Box Algorithmen. Wir können im Vorhinein also nicht genau feststellen, wie das Modell mit gegebenen Input-Informationen umgehen wird.“
Fluch und Segen zugleich?
Deshalb regt Becker an, herauszufinden, nach welchen Kriterien der Algorithmus Informationen als „beste oder passende Sachverhalte“ identifiziert. Zumal es quasi sich selbstverstärkende Algorithmen gibt: „Das geschieht durch kontinuierliche Wechselwirkungen mit ihrer Umwelt. Hier spielt die Einschätzung der Wahrscheinlichkeit, in welcher Art und Weise Algorithmen in Zukunft mit ihrer Umwelt weiter interagieren können, natürlich eine maßgebende Rolle.“
Als Stochastiker freut Becker sich darüber, wie gut die Anwendung von Wahrscheinlichkeitstheorie in der Praxis funktioniert. Aber als Forscher fühlt er sich auch der Wahrheitssuche verpflichtet. Es geht ihm dabei vor allem um das Problem der Überprüfbarkeit. Künstlich erzeugte Vorhersagen durch KI sollte man nicht ungeprüft übernehmen, zumal, wenn es um tragende Entscheidungen geht. Wichtig wäre ein dokumentierter Nachweis für die Richtigkeit der KI-Ergebnisse: „Nur so können Black Box Algorithmen als Hebel der menschlichen Entscheidungskompetenz sinnvoll eingesetzt werden.“
Becker geht der Frage konkret am Fall der automatisierten Anlageberatung nach, die auf KI-Methoden fußt. Ungeklärt sind dabei etwa die Haftbarkeit und die Frage des Verschuldens. Becker verweist darauf, dass das deutsche Haftungsrecht von einer Pflichtverletzung ausgeht, welche zu einem Schaden führt. Doch wie soll das geklärt werden, wenn selbst Entwickler der KI-Methoden oft nicht mehr den Fehler finden können: „Dieses Kausalitätsproblem bereitet große Probleme. Eines davon ist die Beweisbarkeit von Pflichtverletzungen. Daran knüpft sich die Frage, wer in solchen Konstellationen die Beweislast trägt. Da KI-Systeme nicht als eine eigenständige Rechtspersönlichkeit gelten, ist nach aktueller Rechtslage daher auf das Fehlverhalten des Nutzers abzustellen, der sich des Black Box Algorithmus bedient, nach §280 Abs. 1 Bürgerliches Gesetzbuch.“ Anders gesagt: Der Nutzer ist selbst schuld, wenn er Black Box Algorithmen vertraut.
Wenn sich Wissensblasen verfestigen
Gesetzgeber oder Regulierungsstellen sind gefragt. Den kürzlichen Vorstoß der EU zur KI-Regulierung, den sogenannten „EU AI Act“, begrüßt Becker, bleibt aber auch skeptisch: „Der Regulierungsvorstoß zur KI-Haftung weist in die richtige Richtung. Eine einheitliche KI-Regelung ist begrüßenswert. Ob sie jedoch die Risiken beim Einsatz von KI verringern, bleibt offen, zum Beispiel, weil die Frage nach der eigenständigen Rechtspersönlichkeit ungeklärt ist.
Weiterhin führt der Mathematik-Professor vor Augen, wohin sich die Gesellschaft entwickelt, wenn sie sich den Black Box Algorithmen ohne Hinterfragung ergibt. Auch gibt Becker zu bedenken, dass eine Technik, die kontinuierlich das bereits Vorhandene und Erlernte abgreift und zusammenstellt, „Auswirkungen auf unseren Erkenntnisstand im Allgemeinen hat, wenn sich unser Informationsstand nicht mehr erweitern wird. Wir bewegen uns dann in einer Wissensblase. Das dürfte den Fortschritt zumindest verlangsamen.“
Transparenzalgorithmen einsetzen
Dabei liegt ein Ausweg nahe, wie Marcus Becker hinzufügt - die Überhand über die Algorithmen zu behalten: „Ich fordere, Transparenzalgorithmen einzusetzen, sogenannte Explainable AI oder kurz XAI.“ So ließe sich die Black Box von KI-Methoden öffnen. Denn: „Es gibt eine Vielzahl von Erklärungsmodellen (wie z.B. LIME und SHAP), die quasi universal anwendbar sind. Allerdings nutzen die Firmen diese kaum, auch weil sie nicht gesetzlich vorgeschrieben sind. Sie würden allerdings das Nutzervertrauen erhöhen.
KI gesteuerte finanzielle Planungsinstrumente, sogenannte „Robo Advisor“, ließen sich grundsätzlich in Einklang mit Datenschutzbestimmungen bringen. Dennoch gilt: „Ohne zusätzliche Erklärungssysteme kann man die Entscheidungen der Black Boxen nicht interpretieren und auf ihre ökonomische Gültigkeit hin prüfen“.
Bild:
Prof. Dr. Marcus Becker leitet den Studiengang "Business Intelligence & Data Science" M.Sc. und den Fernstudiengang "Applied Business Data Science" M.Sc. an der privaten Businesshochschule ISM.
Wissenschaftlicher Ansprechpartner:
Prof. Dr. Marcus Becker, Marcu.Becker@ism.de
Weitere Informationen:
http://presse@ism.de