Donald Trump auf dem Rücken einer Katze, mit einem Maschinengewehr bewaffnet. Kamala Harris in kommunistischer Uniform. Taylor Swift im Uncle Sam Outfit, die zur Wahl Trumps auffordert. KI-generierte Bilder wie diese sorgten vor den US-Wahlen Anfang November für Schlagzeilen. Wie groß ist der Einfluss von KI-generierten Fakes auf demokratische Wahlen? Und was bedeutet das für Deutschland?
Dall-E 2, Canva, Midjourney, Deepbrain oder Leonardo AI – so heißen einige der Anwendungen, mit deren Hilfe heutzutage auch Laien innerhalb weniger Sekunden Bilder und Videos erstellen können, die kaum noch von realen Aufnahmen zu unterscheiden sind. Tausende auf diese Weise erstellte Inhalte kursierten in den Monaten vor den Präsidentschaftswahlen in der USA im Netz. Einige dieser Inhalte zeigten fast schon komische Motive – Donald Trump, auf einer Katze reitend – die zur Vorlage von zahlreichen Memes wurden. Andere enthielten aber auch schwerwiegende Desinformation über die Kandidat*innen oder andere Personen aus der Politik.
Vom Prompt zum Bild
Für die Erstellung dieser Inhalte genügt heutzutage oft schon ein grob formulierter Satz, ein sogenanntes „Prompt“, das die nötigen Anweisungen für die Künstliche Intelligenz (KI) enthält. Diese Prompts geben der KI vor, was oder wen sie auf welche Weise und in welchem Kontext darstellen soll. Eines der Prompts, mit deren Hilfe die zahlreichen Darstellungen zur US-Wahl erstellt wurden, dürfte in etwa so geklungen haben: „Trump posing among men from a black community“. Das so oder so ähnlich erzeugte Bild zeigt den designierten Präsidenten Trump, wie er freundschaftlich mit einer Gruppe junger schwarzer Männer posiert.
Donald Trump has the black vote ✊🏿 pic.twitter.com/0UrERtjs2f
— Trump History (@Trump_History45) November 6, 2024
Die im Internet kursierende Geschichte dazu lautet in etwa so: Trump wurde auf der Durchfahrt von den Männern auf dem Bild herbeigewinkt und nahm sich extra die Zeit für ein Fotot und ein nettes Gespräch. Nur bei genauer Betrachtung wird klar, dass auf dem Bild etwas nicht stimmt. Ein fehlender Finger an Trumps Hand, ein Mann, der scheinbar in der Luft sitzt – Dinge, die man im Vorbeiscrollen schnell übersehen kann.
Musk verbreitet Fake-Inhalte
Ein anderes Bild, welches im Vorfeld der Wahl viral ging – es zeigt Kamala Harris in kommunistischer Uniform, im Hintergrund weht eine Flagge mit Hammer und Sichel – wurde von niemand geringerem als Trumps reichstem Unterstützer und zukünftigen Berater Elon Musk verbreitet. Der Unternehmer war vor den Wahlen mehrmals durch irreführende und diffamierende Aussagen zur demokratischen Kandidatin aufgefallen.
This is amazing 😂
pic.twitter.com/KpnBKGUUwn— Elon Musk (@elonmusk) July 26, 2024
Ende Juli repostete Musk etwa einen vermeintlichen Wahlwerbespot von Harris. Er zeigte einen Zusammenschnitt aus Szenen, die scheinbar von Harris Stimme kommentiert wurden. Sie sagt dort Sätze wie: „Ich bin sowohl eine Frau als auch eine POC. Wenn ihr also irgendetwas kritisiert, was ich sage, seid ihr sowohl rassistisch als auch sexistisch.“ Außerdem dankt sie Joe Biden dafür, dass er „endlich seine Senilität in der Debatte offenbart“ und die Kandidatur an sie abgegeben habe. Eine Erklärung, dass das Video KI-generiert und keine der darin enthaltenden Aussagen wirklich von Harris ist, liefert Musk nicht. Dass auch die Abbildung von Harris als kommunistische Anführerin von einer KI erstellt wurde, bleibt ebenfalls unerwähnt. Das Motiv wurde auch von Trump auf seiner eigenen Plattform Truth Social aufgegriffen.
Tausende Male geteilt
Inhalte wie diese erreichten in den Monaten vor der Wahl Millionen von Wähler*innen. Allein das Video vom vermeintlichen Harris-Werbespot wurde über 136 Millionen Mal angeschaut und über 900.000 Mal geteilt. Auch wenn zahlreiche Kommentare darauf schließen lassen, dass viele der Nutzer*innen sich der Herkunft des Videos bewusst sind, finden sich auch solche Kommentare unter dem Video: „Ist das echt?“ oder „Und trotzdem sind Amerikaner so doof, sie zu wählen.”
Inhalte wie diese können den Ausgang von Wahlen maßgeblich beeinflussen, sagt Marina Tropmann-Frick. Sie forscht und lehrt zum Thema Data Science und Machine Learning an der HAW Hamburg. „Das ist schon sehr relevant und manchmal sogar beängstigend“, so Tropmann-Frick. Auch außerhalb der USA sei der Zuwachs derartiger Inhalte im Kontext von Wahlen in den letzten Jahren alarmierend. Das liege Tropmann-Frick zufolge vor allem an den verbesserten technischen Möglichkeiten. Besonders auffällig sei dabei, wie häufig Videos und Tonaufnahmen verbreitet werden, die Aussagen von Kandidaten verfälschen oder komplett entstellen.
Die Lüge vom „Wahlbetrug“
Die Inhalte der KI-gestützten Desinformationen beschränken sich jedoch nicht nur auf die Kandidat*innen und deren Aussagen. In den Wochen vor dem Wahltermin Anfang November waren zahlreiche Inhalte aufgetaucht, die Zweifel an der Legitimität der Wahlen an sich schürten. So warnte etwa das Federal Bureau of Investigation (FBI) auf der Plattform X Anfang November – wenige Tage vor der Wahl – vor mehreren in den sozialen Medien kursierenden Videos, die angebliche Versuche des Wahlbetrugs darstellen sollten. Ein Video zeigt mehrere Männer, die davon berichten, mit gefälschten Ausweisdokumenten mehrmals für Harris gestimmt zu haben. In einem anderen sieht man einen vermeintlichen Mitarbeiter eines Wahlbüros aus Pennsylvania, der eingegangene Briefwahlunterlagen öffnet und diejenigen vernichtet, die Stimmen für Trump beinhalten. „Diese Videos sind nicht authentisch […] und der Inhalt, den sie darstellen, ist falsch“. Sie würden darauf abzielen, „demokratische Prozesse zu untergraben und das Vertrauen ins Wahlsystem zu schwächen“, kommentierte das FBI die Clips.
FBI Statement on False Videos. pic.twitter.com/UJzjDLd8p2
— FBI (@FBI) November 2, 2024
Demokratie in Gefahr?
Welche Akteur*innen diese Inhalte verbreiten, ist Tropmann-Frick zufolge schwer nachzuvollziehen. Im Verdacht stünden jedoch oft autokratische Systeme wie zum Beispiel Russland, das das Vertrauen in demokratische Wahlen schwächen wollen. Doch stellen solche Videos eine ernsthafte Gefahr für das Vertrauen in demokratische Wahlen dar? Diese Angst hält Tropmann-Frick aktuell noch für unbegründet: „Die Demokratie in den USA und auch bei uns in Deutschland ist resilient genug“, lautet ihre Einschätzung. Solange staatliche Institutionen die Ergebnisse der Wahl offiziell anerkennen würden, stünde meist auch die Mehrheit der Bevölkerung dahinter. Einzelne Gruppen, die sich auf Basis bestimmter Ansichten leicht radikalisieren lassen, würde es dabei aber immer geben, sagt sie.
Immer noch wenig Reglementierung
Dass die Masse KI-generierter Fake-Inhalte in den letzten Jahren so stark zugenommen hat, liegt auch daran, dass die Erstellung politischer Inhalte bei vielen Anwendungen noch nicht stark genug reglementiert ist. Gerade in den USA, erklärt Tropmann-Frick, gebe es kaum Einschränkungen in der KI-basierten Nutzung von Daten. Viele Unternehmen versuchen, die Erstellung politisch irreführender Inhalte über ihre Anwendungen zu reglementieren. So erklärte OpenAI Anfang 2024 gemeinsam mit zahlreichen weiteren Tech-Riesen wie Meta und X, stärker gegen KI-generierte Desinformation im Kontext von Wahlen vorgehen zu wollen und schränkte in diesem Zuge die Erstellung politischer Inhalte, die reale Personen wie etwa Präsidentschaftskandidat*innen beinhalten, stark ein.
Jedoch ist die Wirksamkeit von Maßnahmen einzelner Unternehmen eher fragwürdig ist, sagt Tropmann-Frick. „Es gibt ja auch andere Modelle, die dem GPT-Modell entsprechen, sowas wie Llama von Facebook zum Beispiel. Und das kann man dann einsetzen, wie man möchte“, erklärt sie. „Deswegen ist das natürlich schon gut als Zeichen, das ein großes Unternehmen setzt, aber ob das jetzt wirklich so eine enorme Wirkung zeigt, oder ob das eher eine Werbung für OpenAI bedeutet, muss man halt schauen.“
KI im deutschen Wahlkampf
Irreführende Videos und Bilder mit politischen Inhalten sind nicht nur in Amerika ein großes Problem. Auch in anderen Ländern wie der Slowakei, Indien oder der Republik Moldau gab es in den letzten Jahren diverse Fälle von KI-gestützter Desinformation im Kontext von Wahlen. In Deutschland ist das Problem medial bislang weniger präsent. Dennoch gibt es auch hierzulande längst Fälle von KI-generierten Inhalten im politischen Alltag. So kursierte erst kürzlich ein Instagram-Video vom CDU-Kanzlerkandidaten Friedrich Merz, in dem er vermeintlich Sätze wie „meine Damen und Herren, wir verachten Sie und wir verachten die Demokratie“ sagte. Dass das Video KI-generiert war, verriet lediglich eine Bauchbinde mit der Aufschrift „Achtung: Künstliche Inkompetenz“. Das Video wurde von mehreren politischen Akteur*innen wie der AfD-Kanzlerkandidatin Alice Weidel oder dem SPD-Bundestagsabgeordneten Bengt Bergt geteilt. Bergt entschuldigte sich kurz darauf.
Tropmann-Frick ist sich sicher, dass die Problematik sich in den kommenden Jahren auch in Deutschland verschärfen und auch im anstehenden Bundestagswahlkampf Anfang 2024 eine Rolle spielen wird. Eine wirkliche Gefahr einer Wahlbeeinflussung sehe sie aber nicht. Dafür seien die Regularien für die Datennutzung hierzulande zu streng. Das liege neben einiger in der Europäischen Union geltenden Gesetze auch an den deutschen Datenschutzverordnungen. Zudem erklärt Tropmann-Frick weiter, seien ethische Abwägungen in Deutschland sehr zentral, wenn es um den Umgang mit Daten ginge.
Wie kann man sich schützen?
Bereits jetzt gäbe es Tropmann-Frick zufolge in der EU bereits große Bemühungen, den Einfluss KI-generierter Inhalte auf Wahlen zu minimieren. Ein wichtiger Baustein dafür ist der AI-Act, der Anfang 2024 auf den Weg gebracht wurde. Die in der Europäischen Union gültige Verordnung stuft KI-Anwendungen in verschiedene Risikogruppen ein, die unterschiedlich starken Restriktionen unterliegen. Seit 2022 gilt zudem in der EU der Digital Services Act, der Nutzer*innen im Internet besser vor illegalen Inhalten schützen soll.
„Wenn man jetzt noch Schulen sieht, wo gar kein Informatikunterricht läuft, ist das schlimm, denn vor allem junge Menschen lassen sich sehr schnell polarisieren“
Für Tropmann-Frick sind Regelungen wie diese wichtige Schritte in Richtung eines nachhaltigen Umgangs mit der Technologie. Gleichzeitig brauche es aber auch mehr Medienbildung in Schulen, um die digitale Kompetenz in der gesamten Bevölkerung zu stärken. „Wenn man jetzt noch Schulen sieht, wo gar kein Informatikunterricht läuft, ist das schlimm, denn vor allem junge Menschen lassen sich sehr schnell polarisieren“, klagt sie. Gerade Plattformen wie TikTok und Instagram, auf denen sich junge Menschen vorwiegend aufhalten, seien aktuell weitgehend unreguliert. Irreführende oder mit KI erstellte Inhalte werden hier nur selten ausreichend gekennzeichnet und sind daher schwer als solche zu erkennen.
Wer seine eigene Medienkompetenz im Bereich KI weiterbilden will, dem empfiehlt sie, sich näher mit der Technologie und ihren Beschränkungen auseinanderzusetzen. „Bilder und Videos enthalten oft bestimmte Artefakte, das heißt kleine Fehler, die man vielleicht nicht sofort auf den ersten Blick erkennt, aber dann durch das genaue Hinsehen schon sehen kann. Darüber sollte man sich informieren“, rät sie. Auch solle man Informationen, die einen selbst betreffen oder bewegen – etwa zum Thema Rente oder Miete – unbedingt überprüfen. Denn am Ende gilt, da ist sich Tropmann-Frick sicher: Je höher die Aufgeklärtheit über KI in der Bevölkerung ist, desto weniger Gefahren birgt die Technologie.
Simon Laumayer, Jahrgang 1992, ist mit 16 Jahren schon Schulmeister im Bouldern geworden. Seit seinem Bachelorstudium Kulturwissenschaften in Lüneburg verdient er sogar Geld damit - als Routenbauer in der Boulderhalle. Auch im Urlaub klettert der gebürtige Hamburger. In einem selbst ausgebauten Van, einem Gärtnermobil, geht es zu Felsformationen, am liebsten in die Schweiz. Als Pressesprecher hat Simon mehrere Jahre fürs Lüneburger Musik- und Kulturfestival “Lunatic” gearbeitet und für den “Rolling Stone” schon den Indie-Künstler Sam Fender interviewt. Privat dröhnt allerdings Hiphop aus den Boxen seines Vans.
Kürzel: sil