Aktualjnie Kommentarii Russland

Krise der Realität: Wie Deepfakes unsichtbar die Politik verändern

· Michail Karjagin · ⏱ 5 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Nahezu alle erfahrenen Internetnutzer haben sich mittlerweile an das Phänomen der Deepfakes gewöhnt. Selbst wenn D.

Trump auf seiner Social-Media-Seite eine KI-Generierung veröffentlicht, wird die Grenze zwischen Fiktion und Realität immer unsichtbarer. Experten und Analysten befürchteten vor Kurzem, dass Deepfakes zur Manipulation politischer Prozesse eingesetzt werden könnten, und diese Gefahr ist nicht verschwunden. Viel gefährlicher wurde jedoch die Erosion der politischen Realität an sich. Wenn überall Täuschung herrscht und es immer schwieriger wird, Deepfakes von der Realität zu unterscheiden, ist die energiesparendste Strategie für den durchschnittlichen Nutzer, an nichts zu glauben.

Technologischer Fortschritt

Noch vor ein paar Jahren war ein Deepfake eher ein Spielzeug und eine Demonstration der Leistungsfähigkeit des Modells. Die Generierung konnte anhand vieler Merkmale erkannt werden. Das gefälschte Gesicht „schwamm“, die Stimme klang mechanisch, die Mimik stimmte nicht mit der Sprache überein, und die Bearbeitung verriet sich bei genauem Hinsehen. Heute verschwimmt diese Grenze schnell. Generative Modelle haben gelernt, nicht nur statische Bilder oder kurze Videosequenzen zu erstellen, sondern ganze Handlungen mit synchroner Sprache, Intonation, Mimik, Gesten und Details.

Nicht nur der technologische Fortschritt ist entscheidend. Auch Kosten, Geschwindigkeit und Zugänglichkeit der Produktion haben sich verändert. Früher erforderte die Erstellung einer überzeugenden Audio- oder Videofälschung spezialisierte Kenntnisse, große Rechenressourcen und Zeit. Jetzt ist die Einstiegshürde gesunken: Werkzeuge zur Bild-, Sprach- und Videogenerierung werden zu massenhaften Nutzerdiensten. Die Senkung des Ressourcenaufwands hat zur Massenproduktion von KI-Generierungen geführt. Laut jüngsten Studien entfallen 21–33% der Inhalte auf YouTube auf minderwertige Videos, die mit Hilfe von KI erstellt wurden. Der Nutzer befindet sich von vornherein in einer skeptischen Position.

Normative Regulierung hinkt hinterher

In Russland gibt es keine Normen, die von Nutzern oder juristischen Personen verlangen, Inhalte als KI-generiert zu kennzeichnen. Solche Funktionen existieren in einigen sozialen Netzwerken, aber es gibt keine verbindlichen Regeln.

In den letzten Änderungen des Wahlgesetzes haben die Parlamentarier Normen verabschiedet, die Beschränkungen für die Verwendung von Bildern realer oder fiktiver Personen in der Agitation auferlegen. Die Medien werten dies als Einschränkung der Verwendung von KI in der Agitation, doch wenn man sich die Formulierungen genau ansieht, ist das nicht der Fall: „Die Verwendung von Bildern (Abbildern) und/oder die Wiedergabe der Stimme einer Person in Agitationsmaterialien, einschließlich von fiktiven oder verstorbenen Personen, einschließlich von mit Informationstechnologien erstellten Bildern oder Audioaufnahmen, ist nicht erlaubt“. Die Erstellung von Bildern, Abbildungen und Audio ist nicht nur mit Hilfe von KI möglich. Es fehlen also weiterhin spezielle Normen.

Dies schafft Grauzonen für die Verbreitung von Deepfakes. Besonders vor dem Hintergrund des Verzichts auf die obligatorische Kennzeichnung von KI-generierten Inhalten erhöhen sich die Risiken während der Wahlen erheblich.

Deepfakes während Wahlkampagnen

Wahlen sind eine ideale Umgebung für den Einsatz von Deepfakes. Erstens sind sie zeitlich begrenzt: Der Angriff kann auf ein kurzes Zeitfenster ausgelegt sein, in dem der Gegner nicht über die Ressourcen für eine vollständige Entlarvung verfügt. Zweitens basiert die Kampagne auf Emotionen, Bildern und Vertrauen. Drittens ist das Publikum bereits polarisiert und daher geneigt, die Fälschung zu akzeptieren, wenn sie vorhandene Verdächtigungen bestätigt. Viertens kann selbst ein entlarvter Deepfake weiterhin wirken, da die Entlarvung nicht das gesamte Publikum erreichen wird.

In der internationalen Praxis gibt es genügend solcher Fälle: der Skandal um die gefälschte Stimme von Biden und den Rundruf in New Hampshire, der Einsatz von KI bei den Wahlen in Indien 2024, Deepfakes und KI-Inhalte im Rahmen der „Zoomer-Proteste“. All dies zeigt, wie Deepfakes Wahl- und politische Prozesse beeinflussen.

Krise der Realität

Das Hauptrisiko von Deepfakes besteht nicht darin, dass die Menschen jede Fälschung glauben. Im Gegenteil, das tiefere Risiko liegt darin, dass die Menschen niemandem mehr vertrauen. Wenn jede Audiodatei synthetisiert, jedes Video generiert, jedes Foto bearbeitet und jeder Screenshot gefälscht sein kann, ist es am besten, niemandem zu vertrauen - so minimiert man die Risiken, betrogen zu werden.

Dieser Zustand kann als Krise der Realität bezeichnet werden. Darin reagiert der Nutzer auf Informationen nicht durch die Überprüfung von Quellen, sondern durch politische Intuition: „Unsere würden das nicht tun“, „Ihre Seite ist dazu in der Lage“, „alle fälschen alles“, „die Wahrheit wird sowieso nicht bekannt“. Die Glaubwürdigkeit wird durch Zugehörigkeit ersetzt. Ein Fakt wird nicht durch das Verfahren der Verifizierung bewertet, sondern danach, wem er nützt und in welches Weltbild er passt.

In dieser Realität verlieren nicht nur die Bürger, die schlechter zwischen Wahrheit und Lüge unterscheiden können. Auch die Institutionen verlieren, die nicht länger auf die automatische Anerkennung von Beweisen zählen können. Die Wahlkommission veröffentlicht eine Gegendarstellung - ihr wird nicht geglaubt. Das Gericht untersucht eine Aufnahme - sie wird als generiert bezeichnet. Der Journalist zeigt ein Dokument - es wird als Produkt der KI erklärt. Und die schwerwiegendste Folge betrifft die politischen Parteien, die viel schwieriger die Bürger erreichen werden.

Folgen

Einige der potenziellen Folgen einer Verschärfung der Situation mit Deepfakes sind bereits jetzt zu erkennen:

1. Überwache den Raum. Die Praxis zeigt, dass in der Auseinandersetzung mit Fälschungen der wichtigste Parameter die Reaktionszeit ist. Je schneller die Welle der Gegendarstellungen einsetzt, desto geringer ist das Publikum der Desinformation. In dieser Konfiguration wird das Echtzeit-Monitoring der Agenda wichtig.

2. Involviere in die Realität. Vor dem Hintergrund der Vertrauenskrise gegenüber Inhalten wird die Nachfrage nach Offline-Formaten steigen. Ein Video, auf dem ein Kandidat Bäume pflanzt, kann generiert werden. Dass ein Freiwilligentag organisiert wurde, den die Bewohner des Gebiets gesehen haben und über den sie mündlich berichten, wird schwieriger sein, nicht zu glauben. Einige werden selbst das nicht glauben, aber die Risiken sind geringer.

3. Sei einfacher. Das Vertrauen in einfachen Inhalt ist höher. Zu perfekt inszenierte Wahlwerbespots, Ansprachen von Kandidaten und perfekte Bilder wecken mehr Misstrauen als ein persönliches Video des Kandidaten in einem Messenger oder ein aus der Ich-Perspektive gedrehtes Video.

Mikhail Karyagin, stellvertretender Direktor des Zentrums für politische Konjunktur.