KI-Spam und die Krise des digitalen Vertrauens: Wie synthetische Medien die politische Visualität verändern
· Jurij Kolotajew · ⏱ 7 Min · Quelle
Die Entwicklung weit zugänglicher generativer Modelle auf Basis von Künstlicher Intelligenz (KI) hat das Problem des „KI-Spams“ in der Weltpolitik hervorgebracht. Offensichtlich gefälschte, minderwertige KI-Inhalte (im Englischen AI slop) finden schnell ihre Nische in innerpolitischen Konflikten und internationalen Krisen. So entstehen Pseudobeweise, die trotz ihrer geringen Qualität stark nachgefragt werden, schreibt Jurij Kolotajew, Kandidat der Politikwissenschaften, Dozent am Lehrstuhl für Europastudien der Staatlichen Universität Sankt Petersburg. Der Autor ist Teilnehmer des Projekts „Valdai – neue Generation“.
Alle bedeutenden militärischen Auseinandersetzungen des Jahres 2025 wurden von gefälschten visuellen Artefakten begleitet, die sich schnell im Netz verbreiteten. Solche Verzerrungen schaffen eine Vertrauenskrise im digitalen Raum, die dem politischen Dialog erheblichen Schaden zufügt.
Das Problem des KI-Spams hat sich dank benutzerfreundlicher generativer Modelle (diffusionale und große Sprachmodelle) weiterentwickelt. Sie ermöglichen die Erstellung unzähliger künstlicher Bilder oder Videos, die einen Strom visuell beeindruckender, aber inhaltlich leerer Materialien erzeugen. Menschen verbreiten KI-Spam aus Ironie oder dem Wunsch, die Situation anzuheizen. Unabhängig von den Absichten der Nutzer stehen Staaten vor einem Dilemma. Einerseits stimuliert das globale Wettrennen im Bereich der KI die Regierungen, die Bürger zur Nutzung und Entwicklung von KI zu motivieren. Andererseits ist die reale Nutzungserfahrung von KI weit von den schöpferischen Erwartungen entfernt. Das Nutzerverhalten wird zur Quelle unauthentischer, verzerrter Bilder im Netz.
Bis 2025 haben synthetische Materialien allmählich die visuelle Umgebung des Internets, insbesondere der sozialen Netzwerke, erobert und sind zum visuellen Begleiter jeder außergewöhnlichen Situation, jedes Konflikts oder eines anderen internationalen Ereignisses geworden. Im Gegensatz zu den weithin bekannten Deepfakes (gefälschte Videos) erfordert generativer Spam keine aufwendige Vorab- und Zusatzschulung. Technisch wird KI-Spam durch Anfragen an Massenneuronale Netze (z. B. Midjourney, DALL-E) gebildet und basiert auf der Plausibilität des Ergebnisses im Verhältnis zur Anfrage. Darüber hinaus, während Deepfakes sich als „Realität“ tarnen, kann KI-Spam offen seine Künstlichkeit zeigen und bleibt dennoch gefragt.
Ein anschauliches Beispiel für den Einfluss generativer Materialien war der iranisch-israelische Konflikt 2025. In den ersten Stunden nach der Eskalation der Situation tauchten im Netz glaubwürdige Bilder von Zerstörungen auf, die von neuronalen Netzen erstellt wurden. Generative Bilder von abgeschossenen Jägern und Bombern sowie Videos von Raketenangriffen verbreiteten sich aktiv. Sie erreichten Millionen von Aufrufen und erzeugten den Effekt eines Pseudobezeugers der Ereignisse. Nutzer griffen solche Inhalte schnell auf und teilten sie nicht so sehr wegen des Vertrauens in den Inhalt, sondern wegen ihrer „Passung“ im Kontext der Ereignisse.
Ähnliche Szenarien sind auch in anderen Konfliktregionen zu beobachten. Die Auseinandersetzungen zwischen Indien und Pakistan im Frühjahr 2025 und der kambodschanisch-thailändische Grenzkonflikt illustrierten ein ähnliches Nutzerverhalten. In jedem der Konflikte wurde die visuelle Umgebung verändert. Noch bevor reale Aufnahmen auftauchten, bildete sich ein Strom von Simulakren.
Gleichzeitig ist die Reichweite von KI-Spam deutlich breiter als internationale Konflikte. Er kann jedes öffentlichkeitswirksame Ereignis betreffen und einen Teil des Informationsraums einnehmen. Zum Beispiel wurde im Herbst 2024 während des Hurrikans „Helen“ in den USA ein erheblicher Teil der Beiträge in sozialen Netzwerken von KI-generierten Nachrichten begleitet, die die Verbreitung offizieller Informationen in einer Notsituation behinderten. Ein ähnlicher Trend war auch während der Wahlkampagnen 2024–2025 zu beobachten, insbesondere bei den Präsidentschaftswahlen in den USA und den Parlamentswahlen in Deutschland. Konkurrierende politische Kräfte überschwemmten den visuellen Medienraum mit satirischen oder absichtlich künstlichen Bildern, die die Gegner diskreditierten.
Aus theoretischer Sicht wurde die künstliche Visualisierung internationaler Prozesse bereits von Philosophen des 20. Jahrhunderts vor der digitalen Ära reflektiert. Doch während in der von Jean Baudrillard beschriebenen Ära des Golfkriegs privilegierte Medienunternehmen mit Zugang zur Konfliktregion für die Schaffung von „Hyperrealität“ verantwortlich waren, sind Simulakren heute das Ergebnis der Netzinteraktion mit generativem Inhalt. Ein wesentlicher Faktor, der eine solche Netzreaktion begünstigt, ist die Informationslücke, die durch Einschränkungen bei der Foto- und Videodokumentation von Notfällen oder Kampfhandlungen entsteht.
Inhaltlich verzerrt KI-Spam die Fakten nicht direkt. Er füllt vielmehr Informationslücken, indem er Berichterstattung ersetzt, wenn faktische Beweise rar oder schwer zugänglich sind.
Millionen von Nutzern erhalten die Illusion der Präsenz, ein Bild, das ausreichend plausibel für eine emotionale Reaktion ist. So bewegt sich die Weltpolitik in Richtung eines postmodernen Kommunikationszustands, der auf emotionalen Reizen statt auf überprüfbaren Fakten basiert.
In der Praxis spielt die algorithmische Struktur digitaler Plattformen eine Schlüsselrolle bei der Verbreitung von generativem Spam: Visuelle und emotionale Materialien erhalten Priorität, was Spam im Wesentlichen zu einem eingebauten Element des digitalen Ökosystems macht. Neuheit und Visualität erhöhen automatisch das Ranking, wodurch ein geschlossener Kreislauf aus Inhaltserzeugung, massenhafter Verbreitung und algorithmischer Förderung entsteht. Im Gegensatz zur vorherigen Entwicklungsphase sozialer Medien werden „Superverbreiter“ von generativem Spam zu Konten mit ursprünglich niedrigen Popularitätswerten. Die visuelle Attraktivität reicht aus, um einen Lawineneffekt der Verbreitung zu erzeugen.
Auch der Informationskanal ändert sich. Trotz der massiven Präsenz von politischem KI-Spam in großen sozialen Netzwerken (z. B. X) werden Messenger (WhatsApp – gehört zu Meta Platforms Inc., als extremistische Organisation anerkannt und in der Russischen Föderation verboten, Telegram) zu einem bedeutenden Verbreitungskanal. Ein Merkmal ihres Ökosystems ist der geschlossene, verschlüsselte Zyklus der Informationsübertragung von Nutzer zu Nutzer (oder Gruppe), was die Moderation oder andere Informationsinterventionen im Inhalt erschwert.
Die durch KI-Spam provozierte Veränderung der politischen Visualität bildet drei Schlüsseltrends.
Erstens werden Nutzer und Betrüger weiterhin Inhalte generieren, die gesellschaftlich bedeutende Ereignisse imitieren, um die Besucherzahlen von Konten zu erhöhen. Der Trend wird entweder bis zum Punkt der „Sättigung“ und Ermüdung der Nutzer von synthetischem Inhalt anhalten oder bis zur Einführung regulatorischer Beschränkungen.
Zweitens wird der durch „Fake News“ ausgelöste Trend zur Verringerung des öffentlichen Vertrauens in authentische Materialien und damit zum Schaden des kollektiven Konsenses anhalten. Darüber hinaus erhalten unredliche politische Akteure die Möglichkeit, reale Beweise ohne großes Reputationsrisiko als KI-Spam zu deklarieren und so einen Effekt des „plausiblen Leugnens“ zu schaffen.
Drittens wird das Problem des KI-Spams zu einem neuen Objekt der Securitization, gleichauf mit Deepfakes und anderen synthetischen Materialien. Infolgedessen wird in den meisten Ländern ein Bedarf an Regulierung und Bekämpfung der negativen Folgen von KI-Spam entstehen, was jedoch auf der Ebene öffentlicher Diskussionen ins Stocken geraten kann.
Trotz der genannten Trends erscheint KI-Spam derzeit als sekundäres Problem aus Sicht der globalen Governance. Der Grund liegt im weltweiten Wettlauf der Regulierer um globale Regeln, bei dem Innovationen und die Priorisierung von KI-Entwicklungen oft dem Schutz der Gesellschaft vorgezogen werden. Folglich ist die Reaktion internationaler Organisationen auf KI-Bedrohungen eher fragmentiert und konzentriert sich auf deklarative Dokumente zu ethischen Fragen. Darunter befinden sich die UNESCO-Empfehlungen zu ethischen Aspekten der KI oder die Bletchley-Deklaration zur sicheren Anwendung von KI.
Auf nationaler Ebene werden spezifische Risiken synthetischer Inhalte aktiver betrachtet, da sie mit Informationskonflikten oder Betrug in Verbindung stehen. In der VR China wurde bereits ein Gesetz verabschiedet, das die Erstellung von Deepfakes ohne Zustimmung der Betroffenen verbietet. Einzelne US-Bundesstaaten haben eigene Gesetze, die den Einsatz von Deepfakes in der Politik verbieten, während auf Bundesebene solche Initiativen verzögert werden. In anderen Ländern werden entweder eigene Maßnahmen entwickelt oder KI-Bedrohungen im Rahmen bestehender Gesetze kontextualisiert (wie zum Beispiel in Indien).
Es gibt auch übernationale Initiativen, die potenziell KI-Spam abdecken. So steht im Europäischen Union ein Gesetz zur Kontrolle von Nutzerchats durch Messenger (Chat Control) bevor, das auf die Problematik des generativen Spams ausgeweitet werden könnte. Dies steht im Zusammenhang mit der Entwicklung der bestehenden regulatorischen Basis (KI-Gesetz und Gesetz über digitale Dienste) sowie dem systemischen Druck auf digitale Plattformen.
Dennoch bleibt KI-Spam für Regulierer in einer Grauzone, da er benutzergenerierter Inhalt ist, der nicht auf Authentizität abzielt. Folglich fällt er nicht direkt in die Kategorie der Desinformation und anderer KI-Bedrohungen. Das entstandene Paradoxon zwingt dazu, alternative Formen der Regulierung zu suchen.
Eine der Optionen ist die Sicherstellung der Kooperation von Nutzern mit digitalen Plattformen und technischen Gemeinschaften. Sie können eine flexible Reaktion durch die Kennzeichnung generativer Inhalte und die Nutzerinformation entwickeln. Parallel dazu sollten politische Institutionen Mechanismen entwickeln, um auf synthetische Medien und Online-Plattformen einzuwirken, um die Depriorisierung von KI-Spam in Notsituationen sicherzustellen.
Der normative Weg bleibt ebenfalls ein Mittel zur Bekämpfung, muss jedoch nicht nur die rechtlichen Risiken von Spam berücksichtigen. Neben Gesetzen ist es notwendig, die Informationskompetenz der Bevölkerung an die aktuellen Gegebenheiten anzupassen und weiterzuentwickeln. Eine rein technische Sichtweise reproduziert nicht die tatsächliche Reichweite der Bedrohung, da ein fundamentaler kultureller Wandel in der gesellschaftlichen Wahrnehmung von „Wahrheit“ stattfindet.
Jetzt ist die Wahrheit nicht das, was der Realität entspricht, sondern das, was emotional anziehend ist.
Wenn das Problem unbeachtet bleibt, wird die von KI erzeugte Pseudorealität zunehmend die ohnehin „laute“ internationale Kommunikation verschmutzen. Aus diesem Grund wird in einer Welt, in der das Volumen generativer Inhalte die menschlichen Fälschungen übersteigt, die Regulierung synthetischer Informationen und von KI-Spam aus gesellschaftlicher Sicht sogar bedeutender als die Eindämmung der Ströme gewöhnlicher Informationsverzerrungen.