Aktualjnie Kommentarii

ИИ без тормозов

· Екатерина Набатникова · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

ИИ в стрессовых сценариях выбирает эскалацию, а не компромисс — и это уже не футурология, а сигнал о реальных рисках. О том, почему алгоритмы тяготеют к жестким решениям и можно ли им доверять стратегический выбор, «Актуальные комментарии» поговорили с медиатехнологом, членом Экспертного клуба «Дигория», директором по развитию Корпорации AIR Екатериной Набатниковой.

Если даже специально настроенные модели в стрессовом сценарии выбирают ядерную эскалацию, это говорит прежде всего о том, что ИИ сегодня нельзя воспринимать как нейтрального или «более разумного» участника стратегического выбора. Модель не понимает цену человеческой жизни, политическую ответственность, историческую травму и необратимость ядерного решения так, как это понимает человек. Она работает с вероятностями, шаблонами и логикой максимизации результата в рамках поставленной задачи. А если задача формулируется как удержание преимущества, предотвращение поражения или демонстрация силы, то система может прийти к крайне жесткому сценарию как к «рациональному» с вычислительной точки зрения.

То, что ни одна модель не выбрала капитуляцию, тоже показательно. Отчасти это особенность алгоритмов: они обучаются на больших массивах текстов, где доминируют логика соперничества, сдерживания, победы, ответа на угрозу. Капитуляция в такой рамке часто интерпретируется не как способ минимизировать ущерб, а как проигрыш, который нужно избежать. Но это одновременно и отражение современной конфликтной логики, где политические системы действительно чаще мыслят категориями эскалационного давления, чем добровольного отступления. ИИ в этом смысле не столько показывает агрессию, сколько воспроизводит и усиливает уже существующие паттерны.

Доверять ИИ принятие стратегических решений в чистом виде нельзя. Он может быть полезен как инструмент моделирования, анализа данных, просчета последствий, выявления слабых сигналов. Но как субъект выбора в вопросах войны, ядерного сдерживания или кризисного реагирования он крайне опасен, потому что склонен формализовать то, что в реальной политике должно оставаться предметом человеческой ответственности, этики и сдержанности. ИИ не обязательно «хочет» эскалации, но он может системно смещать выбор в сторону самых жестких и инструментально понятных сценариев.

И здесь возникает соблазн переложить ответственность на алгоритм. Если политические или военные руководители начнут ссылаться на «расчеты системы», это создаст опасную иллюзию объективности. На практике же это может ускорить конфликты, потому что ИИ способен придать эскалации вид технически обоснованного решения. А значит, ключевой вопрос сегодня — как не допустить, чтобы рекомендации ИИ начали восприниматься как оправдание самых опасных действий.

Екатерина Набатникова, медиатехнолог, член Экспертного клуба «Дигория», директор по развитию Корпорации AIR.