Aktualjnie Kommentarii

Призрак ИИ в кодексе

· Андрей Инюшкин · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

— Почему Минюст фактически притормозил идею отдельной уголовной ответственности за мошенничество с использованием искусственного интеллекта? Государство опасается перегрузить право избыточными запретами или просто не готово к такому регулированию?  — В России до сих пор нет цельной правовой рамки для искусственного интеллекта. Вместо нее — набор разрозненных норм, которые лишь частично затрагивают эту сферу.

В России до сих пор нет цельной правовой рамки для искусственного интеллекта. Вместо нее — набор разрозненных норм, которые лишь частично затрагивают эту сферу. Схожая картина и за пределами страны: универсального решения не существует. Наиболее заметные модели сегодня формируются в Евросоюзе и Китае, но и там поиск баланса еще далек от завершения.

Для России отправной точкой стал президентский указ 2019 года, утвердивший Национальную стратегию развития искусственного интеллекта до 2030 года. Тогда ИИ был впервые обозначен как стратегический приоритет государства. В 2025 году этот курс получил практическое продолжение — было принято решение о создании центра ИИ, что закрепило институциональную основу для развития технологии.

Однако в уголовном праве искусственный интеллект по-прежнему присутствует лишь фрагментарно. Поэтому сама идея точечных изменений в Уголовный кодекс выглядит оправданной. Проблема в другом: в праве до сих пор нет ясных и общепринятых определений. Без них любое новое регулирование рискует стать источником споров и противоречий.

— Отсюда возникает принципиальный вопрос: если мошенничество совершается с помощью нейросети, кто должен отвечать за преступление — разработчик технологии, ее пользователь или организатор схемы?

— Логика уголовного права здесь достаточно проста. Ответственность всегда привязана к конкретному составу преступления. В обсуждаемых инициативах ИИ не превращается в «участника» преступления. Он рассматривается как инструмент — так же, как телефон, поддельный документ или вредоносная программа.

— Означает ли позиция Минюста, что граждане остаются один на один с дипфейками, голосовыми подделками и другими формами цифрового обмана?

— Скорее нет. Аргументы министерства выглядят рационально. Способ совершения преступления, в том числе с использованием технологий, уже учитывается в рамках действующего уголовно-процессуального законодательства. Для этого не обязательно создавать отдельные «ИИ-статьи» в Уголовном кодексе.

Есть и еще один практический момент — нагрузка на суды. Специальное регулирование неизбежно потребовало бы сложных экспертиз, а значит, увеличения сроков и затрат при рассмотрении дел. Это риск, который нельзя игнорировать.

— Может ли чрезмерное вмешательство уголовного права в сферу ИИ ударить по добросовестным пользователям и бизнесу сильнее, чем по самим мошенникам?

— Мировой опыт показывает: идеального рецепта здесь не существует. Подходы различаются, и каждая страна ищет свой баланс между безопасностью и развитием технологий. Российская практика, как правило, опирается на наиболее удачные зарубежные решения и достаточно осторожно встраивает их в национальную правовую систему.

Андрей Инюшкин, кандидат юридических наук, член Российской академии юридических наук и экспертного клуба «Дигория».