Wie können wir große Sprachmodelle optimal nutzen, um eine intelligentere und integrativere Gesellschaft zu schaffen?
Ein kürzlich im Journal Nature Human Behaviour veröffentlichter Artikel erläutert die Chancen und Risiken, die sich durch den Einsatz von großen Sprachmodellen (LLMs) für unsere Fähigkeit ergeben, kollektiv zu beraten, Entscheidungen zu treffen und Probleme zu lösen. Unter der Leitung von Forschenden der Copenhagen Business School und des Max-Planck-Instituts für Bildungsforschung (MPIB) in Berlin gibt das interdisziplinäre Team von 28 Wissenschaftler*innen Empfehlungen für Forschende und politische Entscheidungsträger*innen, um sicherzustellen, dass LLMs die Vorteile kollektiver Intelligenz ergänzen und nicht beeinträchtigen.
Was machen Sie, wenn Sie einen Begriff wie "LLM" nicht kennen? Vermutlich "googeln" Sie ihn schnell oder fragen Ihr Team. Wir nutzen das Wissen von Gruppen, die sogenannte kollektive Intelligenz, ganz selbstverständlich im Alltag. Durch die Kombination individueller Fähigkeiten und Kenntnisse kann unsere kollektive Intelligenz Ergebnisse erzielen, die die Fähigkeiten jedes Einzelnen, selbst die von Experten, übersteigen. Diese kollektive Intelligenz ist der Motor für den Erfolg aller Arten von Gruppen, von kleinen Teams am Arbeitsplatz bis zu großen Online-Communities wie Wikipedia und sogar Gesellschaften im Allgemeinen.
LLMs sind Systeme der künstlichen Intelligenz (KI), die mithilfe großer Datensätze und Deep-Learning-Techniken Texte analysieren und generieren. Der Artikel erklärt, wie LLMs die kollektive Intelligenz verbessern können und erörtert ihre möglichen Auswirkungen auf Teams und die Gesellschaft. „Da große Sprachmodelle zunehmend die Informations- und Entscheidungslandschaft prägen, ist es wichtig, ein Gleichgewicht zwischen der Nutzung ihres Potenzials und der Absicherung gegen Risiken zu finden. Unser Artikel zeigt, wie die menschliche kollektive Intelligenz durch LLMs bereichert werden kann, aber auch die möglichen negativen Folgen", sagt Ralph Hertwig, Koautor des Artikels und Direktor am Max-Planck-Institut für Bildungsforschung in Berlin.
Zu den von den Forschenden aufgezeigten Potenzialen gehört, dass LLMs die Möglichkeit bieten, die Zugänglichkeit in kollektiven Prozessen erheblich zu verbessern. Sie bauen Barrieren ab, indem sie beispielsweise Übersetzungsdienste und Schreibhilfen anbieten und es Menschen mit unterschiedlichem Hintergrund ermöglichen, gleichberechtigt an Diskussionen teilzunehmen. Außerdem können LLMs die Ideenfindung beschleunigen oder Meinungsbildungsprozesse unterstützen, indem sie beispielsweise hilfreiche Informationen in Diskussionen einbringen, verschiedene Meinungen zusammenfassen und einen Konsens identifizieren.
Doch die Verwendung von LLMs birgt auch erhebliche Risiken. Sie können zum Beispiel die Motivation der Menschen untergraben, zu kollektiven Wissensgemeinschaften wie Wikipedia und Stack Overflow beizutragen. Auch kann die Offenheit und Vielfalt der Wissenslandschaft gefährdet sein, wenn sich die Nutzer*innen zunehmend auf proprietäre Modelle verlassen. Ein weiteres Problem ist das Risiko eines falschen Konsenses und der pluralistischen Ignoranz, bei der fälschlicherweise angenommen wird, dass die Mehrheit eine Norm akzeptiert. „Da LLMs aus online verfügbaren Informationen lernen, besteht die Gefahr, dass die Standpunkte von Minderheiten in den von LLMs generierten Antworten nicht repräsentiert sind. Das kann ein falsches Gefühl der Übereinstimmung erzeugen und einige Perspektiven ausgrenzen“, betont Jason Burton, Hauptautor der Studie und Assistenzprofessor an der Copenhagen Business School sowie assoziierter Wissenschaftler am MPIB.
„Der Wert dieses Artikels liegt darin, dass er aufzeigt, warum wir proaktiv darüber nachdenken müssen, wie LLMs die Online-Informationsumgebung und damit auch unsere kollektive Intelligenz verändern – im Guten wie im Schlechten“, fasst Mitautor Joshua Becker, Assistenzprofessor am University College London, zusammen. Die Autor*innen fordern mehr Transparenz bei der Erstellung von LLMs, einschließlich der Offenlegung der Quellen von Trainingsdaten, und schlagen vor, dass LLM-Entwickler*innen einer externen Prüfung und Überwachung unterzogen werden sollten. Dies würde ein besseres Verständnis dafür ermöglichen, wie LLMs tatsächlich entwickelt werden und negative Entwicklungen eindämmen.
Darüber hinaus bietet der Artikel kompakte Infoboxen zu Themen rund um LLMs, einschließlich zur Bedeutung der kollektiven Intelligenz für das Training von LLMs. Hier reflektieren die Autor*innen über die Rolle des Menschen bei der Entwicklung von LLMs und wie Ziele, wie eine vielfältige Repräsentation erreicht werden können. Zwei Infoboxen mit dem Schwerpunkt Forschung beschreiben, wie LLMs zur Simulation menschlicher kollektiver Intelligenz eingesetzt werden können und zeigen offene Forschungsfragen auf, zum Beispiel wie die Homogenisierung von Wissen vermieden werden kann und wie Anerkennung und Verantwortung verteilt werden sollten, wenn kollektive Ergebnisse mit LLMs geschaffen werden.
In Kürze:
• LLMs verändern die Art und Weise, wie Menschen nach Informationen suchen, sie nutzen und miteinander kommunizieren, was sich auf die kollektive Intelligenz von Teams und der Gesellschaft insgesamt auswirken kann.
• LLMs bieten neue Möglichkeiten für die kollektive Intelligenz, wie zum Beispiel die Unterstützung von deliberativen, meinungsbildenden Prozessen, bergen aber auch Risiken, wie zum Beispiel die Gefährdung der Vielfalt in der Informationslandschaft.
• Wenn LLMs die kollektive Intelligenz nicht untergraben, sondern unterstützen sollen, müssen die technischen Details der Modelle offengelegt und Kontrollmechanismen implementiert werden.
Mitwirkende Institutionen
Department of Digitalization, Copenhagen Business School, Frederiksberg, DK
Center for Adaptive Rationality, Max Planck Institute for Human Development, Berlin, DE
Center for Humans and Machines, Max Planck Institute for Human Development, Berlin, DE
Humboldt-Universität zu Berlin, Department of Psychology, Berlin, DE
Center for Cognitive and Decision Sciences, University of Basel, Basel, CH
Google DeepMind, London, UK
UCL School of Management, London, UK
Centre for Collective Intelligence Design, Nesta, London, UK
Bonn-Aachen International Center for Information Technology, University of Bonn, Bonn, DE
Lamarr Institute for Machine Learning and Artificial Intelligence, Bonn, DE
Collective Intelligence Project, San Francisco, CA, USA
Center for Information Technology Policy, Princeton University, Princeton, NJ, USA
Department of Computer Science, Princeton University, Princeton, NJ, USA
School of Sociology, University College Dublin, Dublin, IE
Geary Institute for Public Policy, University College Dublin, Dublin, IE
Sloan School of Management, Massachusetts Institute of Technology, Cambridge, MA, USA
Department of Psychological Sciences, Birkbeck, University of London, London, UK
Science of Intelligence Excellence Cluster, Technische Universität Berlin, Berlin, DE
School of Information and Communication, Insight SFI Research Centre for Data Analytics, University College Dublin, Dublin, IE
Oxford Internet Institute, Oxford University, Oxford, UK
Deliberative Democracy Lab, Stanford University, Stanford, CA, USA
Tepper School of Business, Carnegie Mellon University, Pittsburgh, PA, USA
Originalpublikation:
Burton, J. W., Lopez-Lopez, E., Hechtlinger, S., Rahwan, Z., Aeschbach, S., Bakker, M. A., Becker, J. A., Berditchevskaia, A., Berger, J., Brinkmann, L., Flek, L., Herzog, S. M., Huang, S. S., Kapoor, S., Narayanan, A., Nussberger, A.-M., Yasseri, T., Nickl, P., Almaatouq, A., Hahn, U., Kurvers, R. H., Leavy, S., Rahwan, I., Siddarth, D., Siu, A., Woolley, A. W., Wulff, D. U., & Hertwig, R. (2024). How large language models can reshape collective intelligence. Nature Human Behaviour. Advance online publication. https://www.nature.com/articles/s41562-024-01959-9
Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/llm-und-kollektive-intelligenz