DFG-Projekt zu künstlicher Intelligenz: Algorithmen modellieren menschliches Denken
KI-Systeme schlauer zu machen, daran forschen FernUni-Emeriti Prof. Christoph Beierle und Prof. Gabriele Kern-Isberner von der TU Dortmund gemeinsam. Die Deutsche Forschungsgemeinschaft (DFG) fördert das Projekt mit 676.000 €.
Das Thema künstliche Intelligenz (KI) hat für Prof. Christoph Beierle auch nach 30 Jahren nichts an Faszination eingebüßt. Der ehemalige Leiter des Lehrgebiets Wissensbasierte Systeme an der FernUniversität ist als Emeritus auf dem Gebiet weiterhin in der Forschung aktiv und hat bei der Deutschen Forschungsgemeinschaft (DFG) ein neues Projekt zum Thema KI eingeworben: „Plausibles Schlussfolgern und plausible Wissensrevision in der KI entlang zweier Dimensionen: Syntax Splitting und Kinematik“. Daran forscht Beierle gemeinsam mit der Informatikerin Prof. Gabriele Kern-Isberner von der TU Dortmund.
Das Wissen eines KI-Systems
Im Kern des Projektes geht es darum, „KI-Systeme schlauer zu machen – die Art und Weise zu verbessern, wie sie lernen und Schlussfolgerungen ziehen“, erklärt Christoph Beierle. Wie verarbeiten KI-Systeme Informationen und aktualisieren ihr Wissen? „Im Grunde wollen wir das menschliche Denken logisch nachbilden und Algorithmen dafür entwerfen“, beschreibt es Gabriele Kern-Isberner.
„Wir definieren Regeln, plausible Regeln, die unser Wissen erweitern und uns helfen, Entscheidungen zu fällen.“ Plausibilität ist das Stichwort – und gehört zu Christoph Beierles Spezialgebiet, der Wissensrepräsentation und -verarbeitung. „Wir modellieren subjektives Wissen, was wir als plausibel empfinden, und entwickeln Algorithmen, die damit arbeiten.“ Plausibilität braucht keine statistische Wahrscheinlichkeit, es hängt von der menschlichen Einschätzung ab. „Dies ist essenziell für die Modellierung menschlichen Denkens, und hat durchaus viel mit Logik zu tun“, ergänzt Kern-Isberner. „Schon Kinder denken grundsätzlich plausibel und logisch und wenden Wenn-Dann-Regeln an: Wenn man ihnen Gummibärchen versprochen hat, wenn sie brav sind, dann erwarten sie auch welche, wenn es für sie plausibel ist, dass sie brav waren.“
Symbolisch und subsymbolisch
Die Wissensrepräsentation ist das Feld der symbolischen KI, die Verfahren umfasst, um eine vorgegebene Aufgabe mit Hilfe von logischen Schlussfolgerungen zu erfüllen. „Wir möchten effiziente Algorithmen in der symbolischen, auf Plausibilität basierenden KI entwickeln. Was gerade mit Chat GPT und Co boomt, sind die subsymbolischen KI-Systeme“, erläutert Beierle. Diese sind einerseits auf große Datensätze angewiesen, andererseits mangelt es ihnen an Transparenz: Es ist nicht klar, wie Entscheidungen getroffen werden. Das Forschungsduo versucht nun, die sehr guten Erklärungsmöglichkeiten aus der symbolischen für die subsymbolische KI nutzbar zu machen.
Statistische Verfahren wie Deep Learning zeigen gute Lernergebnisse. „Aber warum ist das so? Dafür gibt es noch keine hinreichenden Erklärungen.“ An dieser Stelle kommen die formale Logik und die Methoden der beiden Forschenden ins Spiel. „Wir bringen zwei wichtige Ideen aus der Wahrscheinlichkeitsrechnung in die symbolische KI ein: Syntax Splitting und Kinematik.“ Mit Syntax Splitting werden komplexe Modelle aufgesplittet, um sie besser zu verstehen und leichter handhabbar zu machen. Kinematik ermöglicht es, verschiedene Fälle zu betrachten, um effizienter bessere Entscheidungen zu treffen.
Gewinn für Menschen
„Es hilft am Ende, KI-Systeme klüger im menschlichen Sinne zu machen. Das wird uns helfen, bessere Computerprogramme zu entwickeln, die in vielen Bereichen nützlich sein können“, stellt Beierle in Aussicht. Als Anwendungsszenario sind medizinische Zwecke denkbar, „um optionale Therapieansätze zu finden“. Wenn ein Patient 50 Jahre alt ist, in guter physischer Kondition, die Gen-Marker A positiv und B negativ sind, dann ist folgende Therapie sinnvoll. „Am Ende soll die KI ein Gewinn für Menschen sein“, meint Kern-Isberner.