Aktualjnie Kommentarii

Кризис реальности: как дипфейки незримо меняют политику

· Михаил Карягин · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

К феномену дипфейков привыкли уже практически все опытные пользователи сети. Если даже Д.

Трамп на своей странице в соцсетях публикует ИИ-генерацию, то граница между вымыслом и реальностью становится все незримее. Эксперты и аналитики совсем недавно опасались того, что дипфейки будут использоваться для манипулирования политическими процессами, и эта угроза никуда не делась, однако куда более опасной стала эрозия политической реальности как таковой. Если кругом обман, а отличить дипфейк от реальности становится все труднее, то наиболее энергосберегающая стратегия для рядового пользователя — не верить ничему.

Технический прогресс

Еще несколько лет назад дипфейк был скорее игрушкой и демонстрацией мощности модели. Генерацию можно было вычислить по множеству признаков. Поддельное лицо «плыло», голос звучал механически, мимика расходилась с речью, а монтаж выдавал себя при внимательном просмотре. Сегодня эта граница быстро стирается. Генеративные модели научились создавать не только статичные изображения или короткие отрезки видео, но целые сюжеты с синхронной речью, интонацией, мимикой, жестами и деталями. 

Важен не только технологический прогресс. Изменились стоимость, скорость и доступность производства. Раньше создание убедительной аудио- или видеоподделки требовало специализированных навыков, больших вычислительных ресурсов и времени. Сейчас барьер входа снизился: инструменты генерации изображений, голоса и видео становятся массовыми пользовательскими сервисами. Снижение ресурсных затрат привело к массовости ИИ-генерации. Согласно последним исследованиям, 21–33% контента на YouTube приходится на низкокачественные видеоролики, созданные с помощью ИИ. Пользователь изначально находится в скептической позиции.

Нормативное регулирование запаздывает

В России нет никаких норм, которые бы обязывали пользователя или юридические лица помечать контент как сгенерированный ИИ. Такой функционал есть в некоторых соцсетях, но каких-то обязывающих правил нет. 

В последних поправках к избирательному законодательству парламентарии приняли нормы, накладывающие ограничения на использование образов реальных или вымышленных людей в агитации. СМИ это расценили как ограничение на использование ИИ в агитации, но если ознакомиться с самими формулировками, то это не так: «Использование в агитационном материале изображения (образа) и (или) воспроизведение голоса человека, в том числе вымышленного или умершего, включая изображение или аудиозапись, созданные с применением информационных технологий, не допускаются». Создать образ, изображение и аудио можно не только при помощи ИИ. То есть специальные нормы по-прежнему отсутствуют.

Это создает серые зоны для продвижения дипфейков. Особенно на фоне отказа от обязательной маркировки контента, сгенерированного ИИ. Риски в период выборов кратно повышаются.

Дипфейки в период электоральных кампаний

Выборы являются идеальной средой для использования дипфейков. Во-первых, они ограничены во времени: атака может быть рассчитана на короткое окно, когда у оппонента нет ресурсов на полноценное разоблачение. Во-вторых, кампания построена на эмоциях, образах и доверии. В-третьих, аудитория уже поляризована, а значит, склонна принимать фальшивку, если она подтверждает существующее подозрение. В-четвертых, даже разоблаченный дипфейк может продолжать работать, так как разоблачение будет распространено не на всю аудиторию.

В мировой практике достаточно подобных кейсов: скандал с фейковым голосом Байдена и веерным обзвоном в Нью-Гэмпшире, использование ИИ на выборах в Индии в 2024 году, дипфейки и ИИ-контент в рамках «протестов зумеров». Все это демонстрирует, как дипфейки влияют на электоральные и политические процессы.

Кризис реальности

Главный риск дипфейков заключается не в том, что люди поверят каждой подделке. Напротив, более глубокий риск состоит в том, что люди перестанут доверять кому-либо. Если любой аудиофайл может быть синтезирован, любое видео сгенерировано, любая фотография отредактирована, а любой скриншот сфабрикован, то лучше всего не верить никому – так вы минимизируете риски быть обманутыми.

Это состояние можно назвать кризисом реальности. В нем пользователь реагирует на информацию не проверкой источников, а политической интуицией: «наши бы так не сделали», «их сторона на такое способна», «все всё подделывают», «правду все равно не узнать». Достоверность заменяется принадлежностью. Факт оценивается не через процедуру верификации, а по тому, кому он выгоден и в какую картину мира укладывается.

В кризисе реальности проигрывают не только граждане, которые хуже отличают правду от лжи. Проигрывают и институты, которые больше не могут рассчитывать на автоматическое признание доказательств. Избирательная комиссия публикует опровержение — ей не верят. Суд рассматривает запись — ее называют сгенерированной. Журналист показывает документ — его объявляют продуктом ИИ. И самое тяжелое последствие — для политических партий, которым будет куда сложнее достучаться до граждан.

Последствия

Некоторые из потенциальных следствий усугубления ситуации с дипфейками прослеживаются уже сейчас:

Мониторь пространство. Практика показывает, что в борьбе с фейками наиболее важным параметром является время реакции. Чем быстрее будет запущена волна опровержений, тем меньше будет аудитория дезинформации. В такой конфигурации важным становится real-time мониторинг повестки.

Вовлекай в реальность. На фоне кризиса доверия к контенту будет расти востребованность офлайн-форматов. Видео, на котором кандидат высаживает деревья, можно сгенерировать, с фактом организации субботника, который видели жители района и через сарафанное радио разнесли по знакомым, будет сложнее. Кто-то и в это не поверит, но рисков меньше.

Будь проще. Доверие к простому контенту выше. Слишком идеальные предвыборные ролики, обращения кандидатов и идеальная картинка вызывают больше подозрений, чем «кружок» от кандидата в мессенджере или видео, снятое от первого лица.

Михаил Карягин, заместитель директора Центра политической конъюнктуры.

#МихаилКарягин