Die Verantwortung der Wissenschaft: Expert*innen ermutigen proaktiven Einsatz von ChatGPT mit ethischen Standards
Berlin, 19. Juni 2023 – Large Language Models (LLMs) haben das Potenzial, das Wissenschaftssystem zu revolutionieren. Das ist das Ergebnis einer Delphi-Umfrage des Alexander von Humboldt Instituts für Internet und Gesellschaft (HIIG). Für die Studie wurden weltweit 72 internationale Expert*innen aus den Bereichen Künstliche Intelligenz (KI) und Digitalisierungsforschung befragt.
Mit Blick auf die wissenschaftliche Praxis kommen sie zu dem Schluss, dass die positiven Auswirkungen die negativen deutlich überwiegen werden. Zugleich betonen sie die dringende Aufgabe von Wissenschaft und Politik, mögliche Desinformation durch große Sprachmodelle aktiv zu bekämpfen. Sie fordern strengere rechtliche Regulierungen, mehr Transparenz und ethische Standards beim Einsatz generativer KI, um die Glaubwürdigkeit wissenschaftlicher Forschung zu wahren. Die Studie „Friend or Foe? Exploring the Implications of Large Language Models on the Science System” ist ab sofort als Preprint verfügbar.
Link: https://arxiv.org/abs/2306.09928
Die durchgeführte Studie konzentriert sich konkret auf die Anwendungen von großen Sprachmodellen, ihre Auswirkungen auf die wissenschaftliche Praxis, ethische und rechtliche Überlegungen sowie die erforderlichen Kompetenzen für ihre effektive Nutzung. Den befragten Expert*innen zufolge machen sich die positiven Effekte am stärksten im textuellen Bereich der wissenschaftlichen Arbeit bemerkbar. Sie steigern die Effizienz von Forschungsprozessen, indem sie verschiedene Aufgaben beim Verfassen und Veröffentlichen von wissenschaftlichen Ergebnissen automatisieren. Zudem ermöglichen sie eine große Entlastung für administrative Berichts- und Antragsverfahren, die in den letzten Jahren im Arbeitsalltag von Wissenschaftler*innen stark zugenommen haben. Die Studienteilnehmenden sind der Meinung, dass Forschende so wieder mehr Zeit haben, sich auf ihre Untersuchungsinhalte zu konzentrieren und ihre Ergebnisse einem breiteren Publikum effektiv zu vermitteln. Somit schaffen große Sprachmodelle zukünftig mehr Raum für kritisches Denken, neue Innovationen und eine breitere Kommunikation von Ergebnissen.
Neben den unbestreitbaren Vorteilen unterstreicht die Studie aber auch die Notwendigkeit, sich mit möglichen negativen Folgen für das Wissenschaftssystem auseinanderzusetzen. Große Sprachmodelle können missbraucht werden, um falsche, irreführende und scheinbar wissenschaftliche Behauptungen aufzustellen. Diese sind auf den ersten Blick oft schwer von echten Forschungsergebnissen zu unterscheiden. Den Befragten zufolge können mit ihnen Fehlinformationen in der öffentlichen Debatte verbreitet und politische Entscheidungen beeinflusst werden. Ein weiteres Problem sehen sie in fehlerhaften Trainingsdaten von großen Sprachmodellen, durch die beispielsweise diskriminierende Stereotypen in die von ihnen produzierten Texte eingebettet werden. Diese Fehler könnten unbemerkt in wissenschaftliche Debatten eindringen, wenn Forschende LLM-generierte Inhalte ohne gründliche Überprüfung in ihre tägliche Arbeit einbeziehen.
Um diese Herausforderungen zukünftig zu bewältigen, müssen sich Wissenschaftler*innen neue Kompetenzen aneignen. Dazu gehört beispielsweise die Fähigkeit, Ergebnisse von großen Sprachmodellen kritisch zu kontextualisieren. In Zeiten, in denen die Verbreitung von Desinformationen in der Gesellschaft zunimmt, braucht es Forschende, die mit ihrer Expertise, Autorität und Reputation für die Versachlichung des öffentlichen Diskurses eintreten. Die Befragten fordern deswegen strengere gesetzliche Regelungen, eine erhöhte Transparenz der Trainingsdaten sowie verantwortungsvolle und ethische Praktiken beim Einsatz generativer KI.
Dr. Benedikt Fecher, Forschungsleiter am HIIG und Geschäftsführer von Wissenschaft im Dialog, kommentiert: „Die Ergebnisse verdeutlichen das transformative Potenzial großer Sprachmodelle in der wissenschaftlichen Forschung. Obwohl ihr enormer Nutzen die Risiken überwiegt, zeigen die Expert*innenmeinungen aus den Bereichen KI und Digitalisierung, wie wichtig es ist, die Herausforderungen im Zusammenhang mit Fehlinformationen und dem Verlust des Vertrauens in die Wissenschaft konkret anzugehen. Wenn wir LLMs verantwortungsvoll einsetzen und uns an ethische Richtlinien halten, können wir mit ihnen die positiven Auswirkungen maximieren und den potenziellen Schaden minimieren.“
Kontakte für Presse und Fragen zur Studie
Frederik Efferenn | Tel. +49 30 200 760 82 | presse@hiig.de
Das Alexander von Humboldt Institut für Internet und Gesellschaft
Das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) erforscht die Entwicklung des Internets aus einer gesellschaftlichen Perspektive, um die damit einhergehende Digitalisierung aller Lebensbereiche besser zu verstehen. Als erstes Forschungsinstitut in Deutschland mit einem Fokus auf Internet und Gesellschaft hat das HIIG ein Verständnis erarbeitet, das die Einbettung digitaler Innovationen in gesellschaftliche Prozesse betont. Basierend auf dieser transdisziplinären Expertise und als Teil des Global Network of Interdisciplinary Internet & Society Research Centers will das HIIG eine europäische Antwort auf den digitalen Strukturwandel entwickeln.
Link: https://www.hiig.de/
Wissenschaftlicher Ansprechpartner:
Dr. Benedikt Fecher: benedikt.fecher@hiig.de
Originalpublikation:
https://doi.org/10.48550/arXiv.2306.09928
Weitere Informationen:
https://www.hiig.de/einsatz-von-chatgpt-in-der-wissenschaft/ - Pressemitteilung