Aktualjnie Kommentarii

Контур доверия ИИ

· Екатерина Набатникова · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Госрегулирование искусственного интеллекта в России выходит из стадии обсуждений в практическую плоскость. Речь уже не о концепциях и декларациях — формируется конкретная архитектура правил, ответственности и допуска на рынок.

О том, какие изменения предлагает проект Минцифры, как он повлияет на рынок и что будет с иностранными ИИ-сервисами, «Актуальные комментарии» поговорили с медиатехнологом, членом Экспертного клуба «Дигория», директором по развитию Корпорации AIR Екатериной Набатниковой.

Что важного в проекте закона и на что обратить внимание?

— Ключевое в законопроекте — попытка выстроить понятный «контур доверия» вокруг ИИ. Во-первых, в законе применяется риск-ориентированный подход: не все системы ИИ будут регулироваться одинаково, более жесткие требования будут применяться к тем, что затрагивают права, безопасность, доступ к критически важным услугам (госуслуги, финансы, медицина, социальные сервисы). Формальное определение ИИ и распределение ответственности между разработчиком модели, оператором системы, владельцем сервиса и пользователем. Это закрывает нынешний правовой вакуум, когда за ошибку «виновата нейросеть», а фактически — никто. Обязательная маркировка контента, созданного с помощью ИИ (фото, видео, аудио) — инструмент против deepfake‑манипуляций и подмены реальности. Права граждан, согласно закону, заключаются в возможности в досудебном порядке оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, а также требовать компенсацию за вред от неправомерного использования ИИ. Для крупных игроков это означает необходимость формализовать процессы, которые до сих пор часто были полусамодеятельными: тестирование моделей на дискриминацию и безопасность, документирование, процедуры обжалования решений.

Почему закон вступает в силу только с 2027 года и от чего «перестраховываются»?

— Отложенный старт — это сразу несколько уровней перестраховки. Во‑первых, технологический: ИИ меняется слишком быстро, и закон, запущенный «завтра», рисковал бы устареть еще до появления реальной правоприменительной практики. Во‑вторых, инфраструктурный: если фиксируется, что разработка и обучение моделей должны осуществляться на территории РФ, нужны дата-центры, оборудование, кадры, методики оценки. Это нельзя развернуть за несколько месяцев. В‑третьих, административный: регуляторам требуется время на построение процедур — реестры, надзор, методические рекомендации. Бизнесу нужно время на адаптацию архитектуры сервисов и внутренних процессов. По сути, 2027 год — это и подушка безопасности для государства и сигнал рынку: правила меняются не внезапно, у индустрии есть несколько лет, чтобы перестроиться.

Что будет с незарегистрированными и иностранными ИИ‑ассистентами?

— Судьба нерегулируемых и зарубежных ИИ‑агентов будет зависеть от того, как именно в финальном варианте пропишут статус оператора и владельца сервиса в российской юрисдикции, а также механизм допуска на рынок.

С высокой вероятностью крупным публичным сервисам, работающим на российских пользователей, придется либо «встраиваться» в контур доверенных решений (регистрация, выполнение требований по безопасности и маркировке, локальная инфраструктура), либо постепенно уходить из легального поля.

«Серые» боты и ассистенты без понятного юридического лица в РФ, особенно если они затрагивают политику, финансы или персональные данные, рискуют попасть под блокировки или существенные ограничения. Китайские и другие иностранные ИИ‑модели не будут находиться в какой-то отдельной привилегированной категории: ключевой вопрос — есть ли у них субъект ответственности в РФ и готовность соблюдать локальные требования. Те, кто не впишется, в массовом сегменте, скорее всего, будут вытесняться. Речь пока не о тотальном «железном занавесе» для ИИ, а о создании условий, при которых легальный, массовый доступ получат прежде всего доверенные и суверенные решения.

Чего больше — ценностей или технологий, где проходит «красная линия»?

— Законопроект явно выстроен вокруг ценностного и политического контура, а не вокруг технических деталей.

Красная линия проходит по нескольким зонам: во-первых, манипуляции сознанием и использование deepfake‑контента, особенно в общественно значимых и политических темах. Отсюда — акцент на маркировке и обязанность блокировать противоправный контент. Во-вторых, по дискриминационным алгоритмам: разработчикам прямо предписано исключать их и тестировать системы на подобные эффекты.

Екатерина Набатникова, медиатехнолог, член Экспертного клуба «Дигория», директор по развитию Корпорации AIR.