Jenseits einfacher Lösungen: Leopoldina-Diskussionspapier zur verantwortungsvollen Entwicklung generativer KI
Seit der allgemeinen Verfügbarkeit von Programmen wie ChatGPT oder Dall-E werden Risiken und Chancen generativer künstlicher Intelligenz (KI) intensiv diskutiert. Inzwischen gibt es erste Ansätze, der Intransparenz oder der Nichtobjektivität (Bias) generativer KI entgegenzuwirken. Allerdings warnen die Autorinnen des heute veröffentlichten Diskussionspapiers der Nationalen Akademie der Wissenschaften Leopoldina vor überzogenen Erwartungen an diese Ansätze. Mit der Publikation „Generative KI – jenseits von Euphorie und einfachen Lösungen“ werfen sie einen realistischen Blick auf die Möglichkeiten und Herausforderungen bei der Entwicklung und Anwendung generativer KI.
In dem Diskussionspapier plädieren die Autorinnen für einen nüchternen und abwägenden Blick auf Technologien und Tools, die die Transparenz generativer KI erhöhen und Verzerrungen aufdecken oder minimieren sollen. Als Beispiel nennen sie den Umgang mit Bias: Ohne aktives Gegensteuern spiegeln KI-Systeme die jeweiligen gesellschaftlichen und kulturellen Verhältnisse ihrer Datenbasis und die darin enthaltenen Wertvorstellungen und Ungleichheiten wider. Ob und auf welche Weise diesem Bias in der Programmierung aktiv entgegengewirkt werden soll, ist jedoch keine triviale Entscheidung, so die Autorinnen. Sie erfordert sowohl technisch-mathematische als auch politisch-ethische Expertise und sollte nicht allein den Entwicklerinnen und Entwicklern überlassen werden.
Auch die bisherigen Ansätze, der Intransparenz generativer KI entgegenzuwirken, sind nur oberflächlich betrachtet eine Lösung: Für die Nutzerinnen und Nutzer ist oft nicht nachvollziehbar, wie generative KI arbeitet. Ein noch junges Forschungsfeld ist die sogenannte erklärbare KI: Hier werden Verfahren entwickelt, die KI-generierte Vorschläge oder Entscheidungen im Nachhinein begreiflich machen sollen. Die Autorinnen weisen jedoch darauf hin, dass die so zustande kommenden Erklärungen ebenfalls nicht verlässlich sind, auch wenn sie schlüssig klingen können. Erklärbare KI-Systeme können sogar bewusst manipuliert werden. Die Autorinnen betonen deshalb, dass generative KI dort, wo Transparenz unverzichtbar ist (beispielsweise im juristischen Kontext), nur mit äußerster Vorsicht eingesetzt und entwickelt werden sollte.
Die Autorinnen erläutern außerdem, welche vielfältigen Täuschungspotenziale im Zusammenhang mit generativer KI bestehen, z. B. wenn Nutzerinnen und Nutzern nicht bewusst ist, dass sie mit einer KI kommunizieren, aber auch wenn sie nicht wissen, was eine KI leisten kann und was nicht. Oft neigen Nutzerinnen und Nutzer dazu, der KI menschliche Fähigkeiten wie Bewusstsein oder Verständnis zuzuschreiben. Die Qualität, Einfachheit und Geschwindigkeit, mit der heute Texte, Bilder und Videos generiert werden können, eröffnen neue Dimensionen des möglichen Missbrauchs, z. B. wenn generative KI für Propaganda oder kriminelle Zwecke eingesetzt wird.
Das Diskussionspapier widmet sich zudem Fragen des Datenschutzes. Der Erfolg generativer KI basiert zum Teil auch darauf, dass personenbezogene Daten der Nutzerinnen und Nutzer erfasst und verwertet werden. Es gibt bisher jedoch kein überzeugendes Konzept, wie die Entscheidungshoheit der Nutzerseite über die Weitergabe und Verwendung ihrer Daten gewahrt werden kann, so die Autorinnen. Das Diskussionspapier ist auf der Website der Leopoldina veröffentlicht: https://www.leopoldina.org/generative-ki
Publikationen in der Reihe „Leopoldina-Diskussion“ sind Beiträge der genannten Autorinnen und Autoren. Mit den Diskussionspapieren bietet die Akademie Wissenschaftlerinnen und Wissenschaftlern die Möglichkeit, flexibel und ohne einen formellen Arbeitsgruppen-Prozess Denkanstöße zu geben oder Diskurse anzuregen und hierfür auch Empfehlungen zu formulieren.
Das Diskussionspapier wurde von der Philosophin Prof. Dr. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, der Rechtswissenschaftlerin Prof. Dr. Indra Spiecker gen. Döhmann, Professorin für das Recht der Digitalisierung an der Universität zu Köln, und Leopoldina-Mitglied Prof. Dr. Ulrike von Luxburg, Informatikerin und Professorin für Theorie des Maschinellen Lernens an der Eberhard Karls Universität Tübingen, erarbeitet. Die drei Wissenschaftlerinnen sind Mitglieder der Leopoldina-Fokusgruppe „Digitalisierung“. Zur Fokusgruppe: https://www.leopoldina.org/politikberatung/fokusgruppen/digitalisierung/
Die Leopoldina auf X: https://www.twitter.com/leopoldina
Die Leopoldina auf YouTube: https://www.youtube.com/@nationalakademieleopoldina
Über die Nationale Akademie der Wissenschaften Leopoldina:
Als Nationale Akademie der Wissenschaften leistet die Leopoldina unabhängige wissenschaftsbasierte Politikberatung zu gesellschaftlich relevanten Fragen. Dazu erarbeitet die Akademie interdisziplinäre Stellungnahmen auf der Grundlage wissenschaftlicher Erkenntnisse. In diesen Veröffentlichungen werden Handlungsoptionen aufgezeigt, zu entscheiden ist Aufgabe der demokratisch legitimierten Politik. Die Expertinnen und Experten, die Stellungnahmen verfassen, arbeiten ehrenamtlich und ergebnisoffen. Die Leopoldina vertritt die deutsche Wissenschaft in internationalen Gremien, unter anderem bei der wissenschaftsbasierten Beratung der jährlichen G7- und G20-Gipfel. Sie hat rund 1.700 Mitglieder aus mehr als 30 Ländern und vereinigt Expertise aus nahezu allen Forschungsbereichen. Sie wurde 1652 gegründet und 2008 zur Nationalen Akademie der Wissenschaften Deutschlands ernannt. Die Leopoldina ist als unabhängige Wissenschaftsakademie dem Gemeinwohl verpflichtet.
Medienkontakt:
Julia Klabuhn
Kommissarische Leiterin der Abteilung Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)345 472 39-800
E-Mail: presse@leopoldina.org
Weitere Informationen:
https://www.leopoldina.org/leopoldina-home/