Künstliche Intelligenz regulieren: Die EU-Verordnung im Überblick
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie für die Zukunftsfähigkeit unserer Wirtschaft und Gesellschaft. Doch zugleich bergen KI-Systeme auch Risiken. Die Europäische Union (EU) hat nun mit dem AI Act das weltweit erste transnationale Regelwerk für einen sicheren und vertrauenswürdigen Einsatz von KI verabschiedet. Was genau in der KI-Verordnung ausgeführt ist, welche Chancen und Herausforderungen mit dem Gesetz verbunden sind und wie die Regelungen nun umgesetzt werden, erklärt die Plattform Lernende Systeme knapp und anschaulich in ihrer neuen Ausgabe der Reihe KI Kompakt.
Der Artificial Intelligence Act, kurz AI Act, legt klare Regeln für die Entwicklung und den Einsatz von KI-Systemen fest und schafft damit einen einheitlichen, verbindlichen Rechtsrahmen in Europa. Ziel ist es, die Risiken zu minimieren, die von der Technologie ausgehen können. Gleichzeitig soll die KI-Verordnung Forschung und Entwicklung zu KI innerhalb der EU wettbewerbsfähig halten und Innovationen fördern. KI-Anwendungen mit unannehmbaren Risiken, wie Bewertungen des sozialen Verhaltens (sogenanntes social scoring) oder die biometrische Identifizierung von Menschen in Echtzeit, werden in Europa verboten. KI-Systeme mit hohem Risiko, wie etwa an Schulen, im Personalmanagement oder in der Strafverfolgung, müssen strenge Sicherheitsvorschriften erfüllen, bevor sie auf dem EU-Markt in Verkehr gebracht werden können. Zu diesen Anforderungen zählen unter anderem das Risikomanagement, menschliche Überwachung und Qualität der Trainingsdaten.
Kernpunkte der KI-Verordnung
Grundsätzlich legt die KI-Verordnung fest: Die Nutzung von KI muss transparent gemacht werden. Allen Menschen soll stets ersichtlich sein, wann sie mit KI in Berührung kommen. Das gilt für den Chatbot ebenso wie für KI-generierte Bilder und Texte, die künftig entsprechend gekennzeichnet werden müssen.
Ein weiterer Kernpunkt der Verordnung ist der Umgang mit KI-Basismodellen wie ChatGPT, die die Grundlage für viele generative KI-Anwendungen sind. Die Besonderheit: Für solche Modelle ist zunächst keine bestimmte Nutzung vorgesehen. Sie könnten jedoch später in ein Hochrisiko-System integriert werden. Für sie gelten nun abhängig von ihrer Rechenkapazität unterschiedlich strenge Vorschriften zu Transparenz, Cybersicherheit und Energieeffizienz.
„Die KI-Verordnung ist eine Pionierin: Sie stellt den weltweit ersten Versuch dar, die Sicherheit von KI-Systemen ex ante zu gewährleisten. Die Definition, welche Informationssysteme unter den zentralen Begriff des KI-Systems fallen, ist aber komplex: Es soll sich um Systeme mit unterschiedlichen Ausprägungen von Autonomie handeln, die nicht allein anhand von Menschen erstellten Regeln operieren. Allerdings sollen laut den Erwägungsgründen wissens- oder regelbasierte Expertensysteme durchaus von der Verordnung erfasst sein. Die Konkretisierung und Anwendung auf konkrete Grenzfälle bleiben der Rechtsprechung überlassen“, so Ruth Janal, Professorin für Recht an der Universität Bayreuth und Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.
Neben der Definition von KI gibt die Anwendung des Gesetzes in den Mitgliedsstaaten Anlass für Bedenken. So könnten unterschiedliche Prüfmechanismen, ob ein KI-System dem Gesetz entspricht, den Wettbewerb verzerren. Kritiker bemängeln zudem, dass der AI Act insbesondere in mittelständischen Unternehmen KI-Innovationen hemmen könnte. Grund dafür sind die möglichen hohen Kosten für die Einhaltung der EU-Vorschriften.
Wie geht es weiter?
Der AI Act tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt der EU in Kraft. Während die Verbote bereits nach sechs Monaten gelten, ist die gesamte Verordnung erst in zwei Jahren anwendbar. Aktuell werden harmonisierte europäische Normen erarbeitet, die regeln, wie die Verordnung in verschiedenen Anwendungsfeldern genau umgesetzt werden kann. Sie werden in allen EU-Mitgliedsländern gelten. Zudem richtet jeder Mitgliedsstaat mindestens eine autorisierte Prüfstelle sowie eine Marktüberwachungsbehörde ein, um die Verordnung auf nationaler Ebene umzusetzen.
Zum Format KI Kompakt
KI Kompakt bietet einen knappen, fundierten und wissenschaftlich basierten Überblick über aktuelle Entwicklungen im Bereich Künstliche Intelligenz und zeigt Potenziale, Risiken sowie offene Fragen auf. Die Analysen entstehen mit Unterstützung von Expertinnen und Experten der Plattform Lernende Systeme und werden von der Geschäftsstelle herausgegeben. Die dritte Ausgabe der Reihe thematisiert den „AI Act der Europäischen Union. Regeln für vertrauenswürdige KI“. Sie steht zum kostenfreien Download zur Verfügung.
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme ist ein Netzwerk von Expertinnen und Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt vorhandenes Fachwissen und fördert als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen von KI und benennen Handlungsoptionen für ihre verantwortliche Gestaltung. Damit unterstützen sie den Weg Deutschlands zu einem führenden Anbieter von vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in Wirtschaft und Gesellschaft. Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung von acatech – Deutsche Akademie der Technikwissenschaften gegründet und wird von einem Lenkungskreis gesteuert. Die Leitung der Plattform liegt bei Bundesministerin Bettina Stark-Watzinger (BMBF) und Jan Wörner (acatech).
Weitere Informationen:
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/KI_Kompakt/KI_Kompakt_AI_Act_Plattform_Lernende_Systeme_2024.pdf Download des KI Kompakt