Выборы под ИИ-угрозой
· Илья Гераскин · Quelle
Обсуждение инициатив ЦИК по регулированию искусственного интеллекта в преддверии выборов — это не разговор о технологиях. Это разговор о границах политического процесса в цифровую эпоху.
Ошибка многих дискуссий в том, что ИИ пытаются рассматривать как нейтральный инструмент — примерно на одном уровне с бигдатой или таргетированной рекламой. Но политический ИИ — это не тот же самый ИИ, что в банке, поликлинике или логистике. Там он оптимизирует процессы. Здесь — работает с доверием, убеждениями и ощущением реальности. А это уже зона суверенитета, а не только технологий. Главная проблема ближайших лет — не дипфейки и не автоматизированная агитация как таковая. Настоящий вызов — это иллюзия персонального диалога. Современные языковые модели умеют не просто транслировать позицию, а подстраиваться под собеседника, говорить «на его языке», учитывать страхи, сомнения, стиль мышления. Западные исследования уже показывают, что даже краткое взаимодействие с ИИ-чатами способно сдвигать политические предпочтения. Это не пропаганда в привычном смысле — это эффект доверительного интерфейса. И именно он делает политический ИИ качественно новым инструментом влияния. Такой эффект может быть как ресурсом, так и угрозой — в зависимости от того, кто и как его использует. Если смотреть на текущие сигналы, можно выделить несколько вероятных сценариев. Первый — базовый и практически неизбежный: маркировка ИИ-контента и прозрачность происхождения политических материалов. Это цифровая гигиена, без которой дальше двигаться невозможно. Второй — более содержательный: формирование правил использования ИИ в избирательных кампаниях, включая ограничения на персонализированное воздействие, стандарты отчетности и разграничение аналитических инструментов и прямой коммуникации с избирателем. По сути, это попытка сделать то, что в своё время было сделано с политической рекламой и соцопросами — вывести технологию из серой зоны и встроить в институциональный контур. Третий сценарий — стратегический: приоритет отечественных ИИ-решений в политической сфере, чтобы ключевые механизмы влияния не зависели от моделей, обученных на чужих политических и ценностных матрицах. Государственный подход здесь выглядит не реактивным, а последовательным. Сигналы, прозвучавшие на AI Journey, ясно обозначили рамку: ИИ — это не угроза сама по себе, а ресурс развития, если он встроен в систему. Регулирование перед выборами в этом смысле — не попытка «закрутить гайки», а способ зафиксировать красные линии до того, как технологии начнут формировать практику быстрее, чем институты успеют её осмыслить. Это логика зрелого управления: сначала задать правила игры, потом расширять поле возможностей. Вопрос стоит не о том, будет ли ИИ участвовать в политике — он уже участвует. Вопрос в том, будет ли он работать как инструмент повышения качества диалога или как незаметный симулятор участия, подменяющий реальную политику цифровой эмпатией. Если государству удастся провести это разделение — отделить ИИ как помощника от ИИ как политического актора, — то мы увидим не ослабление избирательного процесса, а его технологическое укрепление. И именно в этом балансе между возможностями и ограничениями сегодня формируется будущая архитектура политического управления. Илья Гераскин, руководитель программы «Выборы» Центра политической конъюнктуры.