Sicher Fliegen mit KI – Zertifizierung in der Luftfahrt
Die steigende Anzahl von Passagieren und das damit verbundene Flugaufkommen bringen das zivile Luftverkehrssystem zunehmend an seine Kapazitätsgrenzen. Um den Herausforderungen dieser Entwicklung zu begegnen, könnte der Einsatz Künstlicher Intelligenz (KI) eine wichtige Rolle spielen. Im Rahmen des Projekts KIEZ 4-0 hat fortiss daher gemeinsam mit seinen Projektpartnern aus Luftfahrt und Wissenschaft Konzepte entwickelt, um die Zertifizierung der Sicherheit von KI-gestützten Anwendungen in der Luftfahrt zu ermöglichen. Die Ergebnisse des Projekts wurden bei der Online-Abschlussveranstaltung Anfang Februar 2024 vorgestellt.
Bisher gestaltet sich der Einsatz komplexer KI-Anwendungen in der Luftfahrt als problematisch, da es an entsprechenden Zertifizierungsverfahren fehlt. Damit diese Technologie dort eingesetzt werden kann, müssen Verfahren entwickelt werden, um KI-Systeme zu zertifizieren und damit ihre Sicherheit nachzuweisen. Die Anstrengungen in diese Richtung sind äußerst umfangreich, da Flugzeugkomponenten besonders sicherheitskritisch sind und deshalb sehr hohen Qualitäts- und Sicherheitsstandards unterliegen.
KIEZ 4-0 (Künstliche Intelligenz Europäisch Zertifizieren unter Industrie 4.0) hat einen maßgeblichen Beitrag dazu geleistet, wie KI-Systeme in der Luftfahrt zertifiziert werden können. Im Rahmen dieses Projekts wurde mithilfe von Demonstratoren und Anwendungsfällen eine Methode vorgestellt, die zeigt, wie die Zertifizierung der Zuverlässigkeit von Avionik-Anwendungen erfolgen kann. Zusätzlich wurde analysiert, inwiefern KI für eine Zulassung in der Luftfahrt geeignet ist und welche erforderlichen Anpassungen dabei notwendig sind.
Das Verbundprojekt wurde im Rahmen des Luftfahrtforschungsprogramms (LuFo VI-1) vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) finanziell gefördert und von der Airbus Defence and Space GmbH geleitet. Neben Airbus waren auch das Deutsche Zentrum für Luft- und Raumfahrt (DLR), mehrere Fraunhofer-Institute, die Deutsche Flugsicherung (DFS) und weitere Partner an der dreijährigen Forschungsmaßnahme beteiligt. Um die Zertifizierung auf internationaler Ebene voranzutreiben, arbeitete das Konsortium außerdem mit der Europäischen Agentur für Flugsicherheit (EASA) zusammen.
Einbeziehung von Zertifizierungsanforderungen in frühe Entwicklungsphasen
Dr. Yuanting Liu, Leiterin des fortiss-Kompetenzfelds Human-centered Engineering, leitete das Projekt und koordinierte die Zusammenarbeit mit den Wissenschaftler*innen aus den Kompetenzfeldern Software Dependability und Human-centered Engineering.
Sie erarbeiteten zunächst formale und verifikationsbasierte Lösungen, um die Sicherheit und Zuverlässigkeit von KI-basierten Systemen nachzuweisen. Konkret wurden dazu Techniken der Modellprüfung und des Theorembeweises eingesetzt. Sie finden Anwendung, um die Anforderungen zu erfüllen, die ein zwingender Nachweis bei der Bewertung von Sicherheit und Korrektheit von KI-Systemen in der Avionik mit sich bringt. Auf diese Weise können die Sicherheit von KI-basierten Systemen verifiziert und gleichzeitig die hohen Sicherheitsstandards der Branche gewahrt oder sogar verbessert werden. Anschließend wandten die Expert*innen von fortiss diese Methoden auf die Algorithmen an, welche die Kollisionsvermeidungsfunktion des von Airbus bereitgestellten Temporal Planning Network (TPN) Planer implementieren. Dieses System dient dazu, Flugpläne in der Luftfahrt zu erstellen und zu verwalten, um einen sicheren und effizienten Luftverkehr zu gewährleisten. Unter Verwendung der bereits erwähnten Techniken der Modellprüfung und Theorembeweise verifizierten sie die Schlüsselalgorithmen, die für die Überprüfung von Verstößen gegen statische und dynamische Flugverbotszonen verantwortlich sind, und identifizierten so Designfehler innerhalb des Codes.
Im fortiss Kompetenzfeld Human-centered Engineering wurden schließlich spezifische Richtlinien erarbeitet, die für die Zulassung solcher Systeme nützlich sind. Die aktuelle Zertifizierung von Human-Factors legt den Fokus darauf, menschliche Fehler zu vermeiden. Bei der Anwendung von KI in komplexeren Situationen entsteht jedoch eine neue potenzielle Fehlerquelle. Daher ist es erforderlich, das Potenzial für KI-Fehler bereits während des Entwicklungsprozesses des Systems zu berücksichtigen. Anstatt sich darauf zu konzentrieren, wie die KI ihre Aufgabe optimal erfüllen kann, sollten Entwickler zuerst klären, welche Aufgabe die KI überhaupt erfüllen soll. Diese Frage ist entscheidend und sollte bereits im frühen Stadium durch die Einbeziehung der Nutzer*innen im Rahmen eines menschzentrierten Designs geklärt werden. Exemplarisch wurde dies am Anwendungsfall von Flugumleitungen (Diversions) untersucht, bei denen Flüge aufgrund von schlechtem Wetter, einem medizinischen Notfall oder einem technischen Defekt nicht ihr geplantes Ziel anfliegen können. KI kann Pilot*innen bei der Entscheidung für einen Alternativflughafen unterstützen. Dabei ist es wichtig, die Aufgabe der KI so zu definieren, dass Flugzeugführer*innen voll im Entscheidungsprozess involviert bleiben, um mögliche Fehler der KI erkennen und mit ihrem menschlichen Kontextwissen kompensieren zu können.
Aus dieser Arbeit wurden Empfehlungen für die Zertifizierung von Komponenten, insbesondere mit symbolischer KI und Human-Factors, abgeleitet und mit der EASA ausgetauscht.
KI-Visionen für die Avionik
Die Realisierung zukünftiger Luftfahrtthemen wie Ein-Pilot-Flugzeuge und Flugtaxis stellt besonders im Hinblick auf die Integration von KI-Systemen eine Herausforderung dar. Die Interaktion zwischen der KI und dem menschlichen Piloten oder Passagier spielt dabei eine entscheidende Rolle. Diese Aufgabe erfordert nicht nur eine technologische Weiterentwicklung, sondern auch eine Überprüfung und möglicherweise Anpassung der Zertifizierungsmethoden und -prozesse. Die spezifischen Anforderungen beziehen sich nicht nur auf die Flugzeugtechnik, sondern auch auf die Interaktion mit Flughäfen und Flugsicherungen, um das reibungslose Funktionieren des komplexen Gesamtsystems sicherzustellen.
Wissenschaftlicher Ansprechpartner:
Dr. Yuanting Liu
Head of Competence Field Human-centered Engineering
fortiss GmbH
Landesforschungsinstitut des Freistaats Bayern
für softwareintensive Systeme
An-Institut Technische Universität München
T: +49 (89) 3603522 427
liu@fortiss.org
Weitere Informationen:
https://www.fortiss.org/forschung/projekte/detail/kiez4-0 fortiss Projektseite KIEZ 4-0
https://www.fortiss.org/forschung/forschungsfelder/detail/human-centered-engineering fortiss Kompetenzfeldseite Human-centered Engineering