KI und demokratische Wahlen: Mögliche Manipulation frühzeitig eindämmen
Im Superwahljahr 2024 erfahren Deepfakes und Co. große Aufmerksamkeit. Die Sorge: Die mithilfe von generativer Künstlicher Intelligenz (KI) erstellten falschen Bilder, Filme und Audios könnten die individuelle Wahlentscheidung beeinflussen. Ihr tatsächlicher Einfluss auf den Ausgang von Wahlen ist zwar bislang nicht erwiesen. Expertinnen und Experten der Plattform Lernende Systeme fordern dennoch, der Einflussnahme auf politische Prozesse und Meinungsbildung durch KI vorzubeugen. Denn allein der Versuch der Desinformation untergräbt das Vertrauen in demokratische Institutionen. Ein aktuelles Whitepaper beleuchtet anhand verschiedener Beispiele die Bedeutung generativer KI für Wahlen.
In diesem Jahr werden mehr als vier Milliarden Menschen in rund 40 Ländern zur Wahlurne gebeten – darunter die USA, die einen neuen Präsidenten wählt; auch in Deutschland finden mehrere Landtags- und Kommunalwahlen statt. Versuche, mit Fake News auf die Meinungsbildung in der Bevölkerung einzuwirken, sind dabei kein neues Phänomen. Mithilfe von generativer KI erreichen die Möglichkeiten zur Einflussnahme jedoch neue Dimensionen. KI-Tools ermöglichen es einer viel größeren Zahl an Menschen, gefälschte oder manipulative Materialien in rasant steigender Qualität zu erstellen. Die Autorinnen und Autoren des Whitepapers „KI im Superwahljahr“ verweisen auf ein „allmählich entstehendes Ökosystem der Desinformation“, in dem Online-Plattformen eine bedeutende Rolle bei der Verbreitung der künstlich erstellten Des- oder Missinformation spielten.
„Generative KI kann täuschend echt Fotos, Videos und Stimmen von realen Personen künstlich erzeugen und manipulieren. Politikerinnen und Politikern können auf diese Weise Aussagen in den Mund gelegt werden, die sie nie gesagt haben. Kürzlich hat zum Beispiel in den USA ein mit KI gefakter Joe Biden bei potenziellen Wählern angerufen und Ratschläge zum Wahlverhalten gegeben“, veranschaulicht Jessica Heesen, Mitautorin des Whitepapers und Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI an der Eberhard Karls Universität Tübingen.
Neben böswilligen Manipulationsversuchen kann generative KI auch unabsichtlich auf die politische Meinungsbildung einwirken. Fehlinformationen etwa, die Sprachmodelle aktuell noch durch deren technische Limitationen produzieren, können Einfluss auf demokratische Wahlen haben: Recherchen haben im Vorfeld von deutschen Landtagswahlen ergeben, dass ChatGPT und Co. mitunter falsche Informationen zu Kandidatinnen und Kandidaten, Wahlprogrammen oder Rahmenbedingungen der Wahl abgeben.
Ob und zu welchem Grad der Ausgang von Wahlen tatsächlich mithilfe von generativer KI manipuliert werden kann, kann derzeit aufgrund unzureichender Daten noch nicht beantwortet werden. Doch KI-basierte Desinformation müsse nicht zwangsläufig einen messbaren Einfluss auf Wahlergebnisse haben, um ins Blickfeld politischer Akteure zu rücken. Allein der Versuch der Einflussnahme gehe nicht mit demokratischen und journalistischen Standards konform und trage nicht dazu bei, die gesellschaftliche Spaltung der letzten Jahre zu überwinden, heißt es im Whitepaper.
„Insgesamt kann durch KI ein generelles Misstrauen gegenüber Bildern und der Medienberichterstattung entstehen. Dieses Klima des Misstrauens ist schädlich für Demokratie und Meinungsbildung. Darüber hinaus können beispielsweise Populisten davon profitieren und sogar bei wahrer Berichterstattung behaupten, sie wäre falsch und ein Deepfake. Hier spricht man von einer ‚Lügnerdividende‘“, so Heesen, Co-Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.
Die Autorinnen und Autoren empfehlen deshalb, dass politische und zivilgesellschaftliche Akteure die Möglichkeiten der Einflussnahme sorgfältig beobachten und ihnen präventiv entgegenwirken. So sollten dabei sowohl technische Maßnahmen ergriffen werden, etwa mit Wasserzeichen, die einen KI-generierten Inhalt transparent und nachverfolgbar kennzeichnen, als auch gesellschaftliche Anstrengungen unternommen werden, beispielsweise die Medien- und KI-Kompetenzen in der Bevölkerung zu steigern.
Über das Whitepaper
Das Whitepaper „KI im Superwahljahr 2024. Generative KI im Umfeld demokratischer Prozesse“ wurde von Mitgliedern der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme verfasst. Das Papier erweitert die Betrachtungen des Whitepapers „KI-Systeme und die individuelle Wahlentscheidung“ aus dem Jahr 2021. Die neue Publikation steht zum kostenfreien Download bereit.
Ein Interview mit Prof. Jessica Heesen, Autorin des Whitepapers und Mitglied der Plattform Lernende Systeme, steht zur redaktionellen Verwendung zur Verfügung.
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme ist ein Netzwerk von Expertinnen und Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt vorhandenes Fachwissen und fördert als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen von KI und benennen Handlungsoptionen für ihre verantwortliche Gestaltung. Damit unterstützen sie den Weg Deutschlands zu einem führenden Anbieter von vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in Wirtschaft und Gesellschaft. Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung von acatech – Deutsche Akademie der Technikwissenschaften gegründet und wird von einem Lenkungskreis gesteuert. Die Leitung der Plattform liegt bei Bundesministerin Bettina Stark-Watzinger (BMBF) und Jan Wörner (acatech).
Originalpublikation:
https://doi.org/10.48669/pls_2024-5
Weitere Informationen:
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Whitepaper_KI_im_Superwahljahr_Plattform_Lernende_Systeme_2024.pdf Download der Publikation
https://www.plattform-lernende-systeme.de/id-3-fragen-an-newsreader/arzneimittel-mit-ki-entwickeln-es-fehlen-verlaessliche-rechtliche-vorgaben-2.html Interview mit Jessica Heesen zur redaktionellen Verwendung