Waldaj

ИИ-спам и кризис цифрового доверия: как синтетические медиа меняют политическую визуальность

· Юрий Колотаев · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Развитие широкодоступных генеративных моделей на основе искусственного интеллекта (ИИ) привело к проблеме «ИИ-спама» в мировой политике. Нарочито поддельный, низкокачественный ИИ-контент (на англ. AI slop) быстро находит свою нишу в условиях внутриполитических конфликтов и международных кризисов. Так создаются псевдосвидетельства, на которые, вопреки их низкому качеству, есть высокий спрос, пишет Юрий Колотаев, кандидат политических наук, старший преподаватель кафедры европейских исследований Санкт Петербургского государственного университета. Автор является участником проекта «Валдай – новое поколение».

Все значимые военные столкновения 2025 года сопровождались поддельными визуальными артефактами, быстро набиравшими охват в сети. Подобные искажения создают кризис достоверности в цифровом поле, наносящий существенный урон политическому диалогу.

Проблема ИИ-спама получила развитие благодаря пользовательским генеративным моделям (диффузионным и большим языковым). Они позволяют выпускать бесчисленные искусственные изображения или видео, формирующие поток визуально эффектного, но содержательно пустого материала. Люди распространяют ИИ-спам ради иронии или желания накалить ситуацию. Вне зависимости от намерений пользователей государства стоят перед дилеммой. С одной стороны, глобальная гонка в сфере ИИ стимулирует правительства мотивировать граждан к использованию и развитию ИИ. С другой стороны, реальный опыт использования ИИ оказывается далёк от созидательных ожиданий. Пользовательское поведение становится источником неаутентичных, искажённых образов в сети.

К 2025 году синтетические материалы постепенно захватили визуальную среду интернета, в особенности социальных сетей, став визуальным сопровождением любой чрезвычайной ситуации, конфликта или иного международного события. В отличие от широко известных дипфейков (поддельных видео) генеративный спам не требует последовательного предобучения и дополнительной подготовки. Технически ИИ-спам формируется в результате запросов к массовым нейросетям (например, Midjourney, DALL–E) и основывается на правдоподобии результата относительно запроса.  Кроме того, если дипфейки маскируются под «реальность», ИИ-спам может открыто демонстрировать свою искусственность, оставаясь при этом востребованным.

Показательным примером влияния генеративных материалов стал ирано-израильский конфликт 2025 года. В первые часы после обострения ситуации в сети начали появляться правдоподобные картинки разрушений, созданные нейросетями. Генеративные изображения сбитых истребителей и бомбардировщиков, а также видеоролики последствий ракетных ударов получили активное распространение. Они набрали миллионы просмотров, создавая эффект псевдосвидетеля событий. Пользователи быстро подхватывали подобный контент и делились им не столько из-за доверия к содержанию, сколько из-за его «уместности» в контексте событий.

Аналогичные сценарии наблюдаются и в других конфликтных регионах. Столкновения между Индией и Пакистаном весной 2025 года и камбоджийско-тайский пограничный конфликт иллюстрировали схожее пользовательское поведение. В ходе каждого из конфликтов визуальная среда подверглась изменению. Ещё до появления реальных кадров образовывался поток симулякров.

Вместе с тем охват ИИ-спама значительно шире международных конфликтов. Он может затрагивать любое привлекающее общественное внимание событие, занимая часть информационного пространства. К примеру, осенью 2024 года во время урагана «Хелен» в США значительная часть постов в соцсетях сопровождалась сгенерированными ИИ-сообщениями, мешавшими распространению официальной информации в условиях чрезвычайной ситуации. Аналогичная тенденция наблюдалась и во время избирательных кампаний 2024–2025 годов, в частности в ходе президентских выборов в США и парламентских выборов в Германии. Конкурирующие политические силы наводняли визуальное медийное пространство сатирическими или нарочито искусственными изображениями, дискредитирующими оппонентов.

С теоретической точки зрения искусственная визуализация международных процессов осмыслялась философами XX века ещё до наступления цифровой эпохи. Но если в описываемую Жаном Бодрийяром эпоху войны в Персидском заливе за создание «гиперреальности» отвечали привилегированные медиакомпании с доступом в конфликтный регион, то теперь симулякры – это результат сетевого взаимодействия с генеративным контентом. Немаловажным фактором, способствующим такой сетевой реакции, является информационная лакуна, появляющаяся из-за ограничения на фото- и видеофиксацию чрезвычайных происшествий или боестолкновений.

Содержательно ИИ-спам не искажает факты напрямую. Он скорее заполняет информационные пустоты, подменяя репортаж, когда фактических свидетельств мало или они труднодоступны.

Миллионы пользователей получают иллюзию присутствия, картинку, которая достаточно правдоподобна для эмоциональной реакции. Так мировая политика двигается к состоянию постмодернистской коммуникации, основывающейся на эмоциональных стимулах, а не на проверяемых фактах.

На практике ключевую роль в распространении генеративного спама играет алгоритмическая структура цифровых платформ: визуальные и эмоциональные материалы получают приоритет, что делает спам, по сути, встроенным элементом цифровой экосистемы. Новизна и визуальность автоматически повышают ранжирование, таким образом возникает замкнутый цикл из генерации контента, его массового распространения и алгоритмического продвижения. В отличие от предыдущего периода развития социальных медиа, «суперраспространителями» генеративного спама становятся аккаунты с изначально невысокими показателями популярности. Визуальной привлекательности оказывается достаточно, чтобы сформировать лавинный эффект распространения.

Меняется и канал распространения информации. Несмотря на массовое присутствие политического ИИ-спама в крупных соцсетях (например, X), значимым каналом распространения становятся мессенджеры (WhatsApp – принадлежит MetaPlatformsInc., признанной экстремистской̆ организацией и запрещённой на территории РФ, Telegram). Особенностью их экосистемы является закрытый, шифрованный цикл передачи информации от пользователя к пользователю (или группе), что затрудняет модерацию или иное информационное вмешательство в контент.

Изменение политической визуальности, провоцируемое ИИ-спамом, формирует три ключевые тенденции.

Во-первых, пользователи и мошенники ради увеличения посещаемости аккаунтов будут далее генерировать контент, имитирующий социально значимые события. Тенденция сохранится либо до момента «насыщения» и усталости пользователей от синтетического контента, либо до момента введения регулятивных ограничений.

Во-вторых, сохранится порождённая ещё «фейковыми новостями» тенденция к снижению общественного доверия к подлинным материалам, а следовательно, и ущерб коллективному консенсусу. Кроме того, недобросовестные политические игроки получат возможность без больших репутационных рисков объявить ИИ-спамом реальные свидетельства, создав эффект «правдоподобного отрицания».

В-третьих, проблема ИИ-спама станет новым объектом для секьюритизации, наравне с дипфейками и другими синтетическими материалами. В результате в большинстве стран возникнет потребность в регуляции и в противодействии негативным последствиям ИИ-спама, что, впрочем, может затормозиться на этапе общественных дискуссий.

Несмотря на обозначенные тенденции, ИИ-спам пока что представляется вторичной проблемой с точки зрения глобального управления. Причина связана с мировой гонкой регуляторов за глобальные правила, где инновации и приоритизация ИИ-разработок нередко предпочитаются защите общества. Как следствие реакция международных организаций на угрозы ИИ носит скорее фрагментированный характер и фокусируется на декларативных документах по этическим вопросам. Среди них Рекомендации ЮНЕСКО об этических аспектах ИИ или Декларация Блетчли по безопасному применению ИИ.

На национальном уровне конкретные риски синтетического контента рассматриваются активнее из-за их связи с информационным противоборством или мошенничеством. В КНР уже принят закон о запрете на создание дипфейков без согласия субъектов. Отдельные штаты США имеют собственные законы, запрещающие применение дипфейков в политике, при этом на федеральном уровне подобные инициативы задерживаются. В других странах также идёт либо разработка собственных мер, либо контекстуализация ИИ-угроз в рамках имеющегося законодательства (как, к примеру, в Индии).

Существуют и наднациональные инициативы, которые потенциально охватывают ИИ-спам. Так в Европейском союзе назревает законодательство по контролю над пользовательскими чатами со стороны мессенджеров (Chat Control), что может быть масштабировано до проблематики генеративного спама. Это связано с развитием существующей нормативной базы (Закон об ИИ и Закон о цифровых услугах), а также системным давлением на цифровые платформы.

Тем не менее ИИ-спам пока оказывается в серой зоне для регуляторов, так как остаётся пользовательским контентом, не претендующим на достоверность. Следовательно, он не попадает напрямую в категорию дезинформации и других ИИ-угроз. Сложившееся противоречие вынуждает искать альтернативные формы регуляции.

Одной из опций является обеспечение кооперации пользователей с цифровыми платформами и техническими сообществами. В их силах сформировать гибкое реагирование через маркировку генеративного контента и пользовательское информирование. Параллельно политические институты должны выработать механизмы воздействия на синтетические медиа и онлайн-платформы для обеспечения деприоритизации ИИ-спама в чрезвычайных ситуациях.

Нормативный путь также остаётся способом противодействия, но он должен учитывать не только юридические риски спама. Помимо законов, необходимо развивать и адаптировать под текущий день информационную грамотность населения. Чисто техническое видение вопроса не воспроизводит реальный охват угрозы, так как происходит фундаментальный культурный сдвиг в общественном восприятии «правды».

Теперь правда – это не то, что соответствует реальности, а то, что является эмоционально притягательным.

Если оставить проблему без внимания, то производимая ИИ псевдореальность всё в большей степени будет загрязнять и без того «шумную» международную коммуникацию. Именно по этой причине в мире, где объёмы генеративного контента превышают показатели человеческих фейков, регулирование синтетической информации и ИИ-спама становится с общественной точки зрения даже более значимым, чем сдерживание потоков обычных информационных искажений.