FORUM ZERTIFIZIERTE KI – Impulsgeber und Vernetzungsplattform für die deutsche KI-Prüflandschaft
»Sicherstellen, dass Künstliche Intelligenz tut, was sie soll«: Fachtagung zeigte Vorteile von KI-Prüfungen für Unternehmen und Gesellschaft auf
Die Entwicklungsgeschwindigkeit von Technologien der Künstlichen Intelligenz (KI) war nie schneller – die Vertrauenswürdigkeit und Sicherheit der intelligenten Systeme nie wichtiger. Doch wie kann die Qualität und Sicherheit von KI-Systemen kontrolliert werden? »Prüfungen stellen sicher, dass eine KI das tut, was sie tun soll: Sie garantieren, dass KI-Dimensionen wie Datenschutz, Fairness oder Verlässlichkeit berücksichtigt werden«, sagte Mona Neubaur, NRW-Ministerin für Wirtschaft, Industrie, Klimaschutz und Energie, in ihrer Grußbotschaft zur Eröffnung des FORUM ZERTIFIZIERTE KI am 13. Juni 2023 in Bonn. Unter dem Motto »Bereit für den AI Act mit marktfähigen KI-Prüfungen« tauschten sich erstmalig rund 100 Expert*innen verschiedener Fachdisziplinen und Unternehmensvertreter*innen rund um das Thema KI-Prüfung und Qualitätssicherung aus. Veranstaltet wurde das Fachevent im Rahmen des Flagship-Projekts »ZERTIFIZIERTE KI« der Kompetenzplattform KI.NRW.
Wir nutzen generative Sprachmodelle wie ChatGPT, vertrauen KI-basierten Vorhersagen in der industriellen Produktion oder intelligenten Assistenzsystemen in unserem Auto. Was wir dabei voraussetzen: dass die Technologie sicher und zuverlässig funktioniert. Abweichungen in den Schlussfolgerungen der KI-Modelle, mögliche Schwächen und Risiken sollten sowohl für Anwender*innen als auch für Entwickler*innen transparent sein. Doch das ist nicht immer sichergestellt: Häufig gibt es Verzerrungen in den Daten, Bias-Effekte oder Unsicherheiten bei den Entscheidungen der KI. Verfahren zur Prüfung und Qualitätssicherung können helfen, KI-Systeme abzusichern und somit Vertrauen und Transparenz zu schaffen.
Aktuell erarbeitet die Europäische Kommission die weltweit erste, umfassende KI-Regulatorik: den AI Act. Die Verordnung sieht einen risikobasierten Ansatz vor, an den verschiedene Informations- und Compliance-Pflichten für KI-Anbieter gekoppelt sind. Unternehmen, die KI-Geschäftsmodelle nutzen oder KI-Produkte anbieten, müssen sich darauf vorbereiten. Evelyn Graß, Referatsleiterin Künstliche Intelligenz, Datenökonomie, Blockchain beim Bundesministerium für Wirtschaft und Klimaschutz, stellte den AI Act und seine Auswirkungen auf die KI-Landschaft in Deutschland vor: »Ich halte den AI Act für entscheidend für die Wettbewerbsfähigkeit der deutschen Wirtschaft. Allerdings müssen wir schnell die Phase der Rechtsunsicherheit verlassen und Klarheit schaffen. Die EU hat einen Vorsprung bei der Regulierung von KI, damit können wir Innovationsanreize schaffen und eine Marke ‚Vertrauenswürdige KI made in Europe‘ aufbauen. Das wird Deutschland einen zusätzlichen Standortvorteil bringen neben der Weltklasse-KI-Forschung und den hervorragenden Industriedaten, die wir hierzulande haben«, sagte sie. Dr. Gerhard Schabhüser, Vizepräsident des Bundesamtes für Sicherheit in der Informationstechnik (BSI), gab ergänzend einen Überblick über die Herausforderungen und Gestaltungsoptionen bei der Prüfung sicherer KI-Systeme.
KI-Spezialist*innen der Allianz SE, Deutsche Telekom AG, Siemens AG und BMW Group präsentierten und diskutierten auf dem FORUM ZERTIFIZIERTE KI, wie sie bereits heute KI-Prüfungen durchführen und welche Chancen sich dadurch ergeben. Zudem berichteten sie, wie sie sich konkret auf regulatorische Vorgaben und die Umsetzung des AI Acts vorbereiten. »Als Industriekonzern sind für uns Produktsicherheit und höchste Qualitätsanforderungen erfolgsentscheidend. Wir begrüßen darum prinzipiell eine KI-Regulierung und stellen uns die Frage: Würden wir derzeit den Anforderungen des AI Act gerecht werden? Die Verhandlungen laufen ja noch, darum ist es wohl zu früh, etwas zu sagen. Gleichzeitig wissen wir aber schon heute, dass es an Technologien, an Dokumentationen und an Standards fehlt – daran arbeiten wir«, sagte Prof. Dr. Sonja Zillner, Lead of Core Company Technology Module Trustworthy AI bei Siemens.
Prüfungen bieten einen Nachweis dafür, dass Unternehmen KI-Anwendungen zuverlässig und sicher einsetzen, was insbesondere dort wichtig ist, wo erhöhte Anforderungen gelten. Dazu gehören beispielsweise sensible Bereiche wie das Personalwesen, in dem vor allem die Diskriminierungsfreiheit eine große Rolle spielt, oder sicherheitskritische Anwendungen, wie das hochautomatisierte Fahren, sowie kritische Infrastrukturen.
KI-Anwendungen im Bereich Mobilität sind vielfältig, nicht alle sind mit hohem Risiko behaftet. »Ziel ist es, mit Unterstützung von KI das Fahren komfortabel und sicher zu gestalten«, betonte Dr. Hans-Jörg Vögel, Manager AI, Robotics, Cognitive Systems bei der BMW Group. Er und sein Team erproben derzeit beispielsweise große KI-Sprachmodelle in einem gemeinsamen Projekt mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und weiteren Partnern, um ein faktentreues Dialogsystem für Autos zu entwickeln. Auf dem FORUM ZERTIFIZIERTE KI präsentierte er den digitalen Assistenten »Car Expert«, der gefüttert mit Daten aus Bordhandbüchern, Pressemitteilungen oder Funktionsbeschreibungen einen fließenden Dialog mit Kund*innen führen kann – beispielsweise darüber, wie der Stau-Assistent funktioniert. Darüber hinaus gibt es für sicherheitsrelevante Funktionen im Fahrzeug bereits weitreichende Qualitäts- und Safety-Standards. »Wichtig ist für uns, dass Regulierung für unsere KI-Anwendungen anschlussfähig ist an die hohe Sicherheitskultur in der Automobilindustrie und die sektorspezifische bestehende Regulierung – und dass Standards und Zertifizierung in diesem Sinne weiterentwickelt werden können«, so Vögel.
Wie technische Prüfverfahren konkret ausgestaltet und eingesetzt werden können, zeigten Fachexpert*innen von PwC, TÜV IT, AI Quality and Testing Hub GmbH sowie CertAI von Munich Re, bei deren KI-Prüfservice das Fraunhofer IAIS als technischer Partner unterstützt. Interdisziplinäre Paneldiskussionen und Vernetzungsmöglichkeiten rundeten das Programm ab und setzten wichtige Impulse für die weitere Arbeit.
Wissenschaft, Unternehmen und Politik vernetzen und Innovationsfähigkeit sichern
Besonders in einem Punkt waren sich alle Teilnehmenden einig: Es gibt bereits viele Aktivitäten und Maßnahmen – von Leitlinien über Governance-Prozesse bis hin zu ganz konkreten Tools und Angeboten zur Prüfung und Absicherung von KI-Systemen. Was es jetzt braucht, sind die passende Infrastruktur und die Rahmenbedingungen, um KI-Prüfung und -Zertifizierung flächendeckend in Deutschland und Europa zu operationalisieren, ohne unsere Innovationsfähigkeit einzuschränken. »Mit dieser Veranstaltung konnten wir zeigen, wie weit wir in Deutschland im Bereich KI-Vertrauenswürdigkeit und KI-Prüfungen bereits sind. Es ist uns gelungen, die wichtigen Akteurinnen und Akteure in diesem Bereich zu vernetzen. KI ist jetzt überall, die Zeit für den Einstieg ist jetzt«, sagte Prof. Dr. Stefan Wrobel, Leiter des Fraunhofer IAIS.
Das Projekt ZERTIFIZIERTE KI – Qualität sichern. Fortschritt gestalten.
Bereits seit 2021 entwickelt das Fraunhofer IAIS gemeinsam mit dem BSI und dem Deutschen Institut für Normung (DIN) sowie weiteren Forschungspartnern im Projekt ZERTIFIZIERTE KI Prüfverfahren für die Zertifizierung von Systemen der Künstlichen Intelligenz. Ziel ist es, die technische Zuverlässigkeit und einen verantwortungsvollen Umgang mit der Technologie zu gewährleisten. Hierbei werden industrielle Bedarfe durch die aktive Einbindung von zahlreichen assoziierten Unternehmen und Organisationen berücksichtigt, welche unterschiedliche Branchen wie etwa Telekommunikation, Banken, Versicherungen, Chemie und Handel repräsentieren.
ZERTIFIZIERTE KI ist eines der KI-Leuchtturmprojekte der Kompetenzplattform KI.NRW und wird vom Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes NRW gefördert.
KI-Prüfkatalog und Whitepaper »KI-Anwendungen systematisch prüfen und absichern«
Mit dem bereits 2021 veröffentlichten »KI-Prüfkatalog« und dem aktuell zur Veranstaltung veröffentlichten Whitepaper »KI-Anwendungen systematisch prüfen und absichern. Prüfwerkzeuge und Prüfplattform zur Gestaltung von vertrauenswürdiger Künstlicher Intelligenz« gibt das Fraunhofer IAIS gemeinsam mit seinen Partnern Unternehmen konkrete Orientierungshilfen und operationalisierbare Ansätze zur Standardisierung und Qualitätssicherung von KI an die Hand. Das neue Whitepaper stellt ein Prüf-Framework vor, das aktuelle technische Herausforderungen der KI-Qualitätskontrolle adressiert und als Plattform zur Integration von KI-Prüfwerkzeugen dient. Außerdem werden ausgewählte KI-Prüfwerkzeuge, die für unterschiedliche Anwendungsbereiche genutzt werden können, sowie ihre Funktionalitäten im Detail erklärt.
Wissenschaftlicher Ansprechpartner:
Dr. Maximilian Poretschkin, Projektleiter ZERTIFIZIERTE KI
Maximilian.Poretschkin@iais.fraunhofer.de
Telefon 02241 14-2260
Weitere Informationen:
https://www.iais.fraunhofer.de/de/presse/presseinformationen/presseinformationen-2023/presseinformation-230615.html Zur Pressemitteilung
http://www.zertifizierte-ki.de/publikationen/ Der KI-Prüfkatalog und das Whitepaper stehen kostenfrei zum Download zur Verfügung
http://www.zertifizierte-ki.de/forum FORUM ZERTIFIZIERTE KI
http://www.zertifizierte-ki.de/forum/#impressionen Fotogalerie