Aktualjnie Kommentarii

Право на живой ответ

· Екатерина Набатникова · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Минцифры разработало законопроект, который предполагает право россиян отказаться от услуг на базе ИИ. Кроме того, в соответствии с проектом, компании обязаны будут информировать потребителей об использовании таких технологий при предоставлении товаров и услуг.

Насколько реалистично реализировать положения такого законопроекта и не рискует ли Россия затормозить собственное развитие в этой сфере, «Актуальным комментариям» рассказала медиатехнолог, член Экспертного клуба «Дигория», директор по развитию Корпорации AIR Екатерина Набатникова.

— Право на отказ от услуг на базе ИИ выглядит логичным и необходимым элементом будущего регулирования, но есть ряд противоречий.

Обязательное предупреждение об использовании ИИ — это про прозрачность, а не про тотальную защиту. Пользователь хотя бы понимает, с кем он взаимодействует: с живым оператором, алгоритмом или гибридной системой. Это честно, особенно для старшего поколения, которое часто путается в роботизированных меню и голосовых помощниках. Но сама по себе маркировка не решает ключевые риски — качества решений, предвзятости моделей, безопасности данных. Это первый шаг, а не финальная мера.

Отказаться от ИИ сегодня почти невозможно. Алгоритмы уже встроены в кредитный скоринг, логистику, рекомендательные системы, работу колл-центров.

Полностью «выключить ИИ» — значит, по сути, отказаться от значительной части современных цифровых сервисов. Реалистичнее говорить о праве на «человеческий контур» в чувствительных зонах: разговор по телефону с банком или мобильным оператором, медицине, коммуникации с госорганами. Там у человека действительно должен быть выбор: пересмотр решения живым специалистом, понятная процедура, а не сухой ответ ИИ-ассистента.

При этом есть риск чрезмерного зарегулирования. Если под лозунгом «защиты граждан» в один котел попадут простые рекомендательные системы и критически важные решения, это может затормозить развитие отрасли. Российскому ИИ-сектору и так не хватает кадров, инвестиций и предсказуемых правил. Перегнуть палку — значит стимулировать вынос разработок за пределы страны.

При этом и полный отказ от регулирования тоже невозможен: ИИ уже влияет и на доступ к услугам, и на занятость, и на инфоповестку.

Стране нужен полноценный закон об искусственном интеллекте с последующим внесением поправок. Важно не повторить историю криптовалют и соцсетей, когда в вакууме правил расцветали мошеннические схемы, а регулирование приходило слишком поздно и в репрессивной форме. В случае с ИИ лучше «перестраховаться» на старте: задать рамку, зафиксировать базовые принципы, ответственность и права пользователя, а затем эволюционно уточнять и адаптировать закон под конкретные сферы и практики.

В приоритете я бы выделила три блока:

1) прозрачность (маркировка, объяснимость решений в социально значимых сферах),

2) ответственность (кто отвечает за ошибки алгоритма),

3) права пользователя (право на разбор с участием человека и на оспаривание решений).

Инициатива с правом отказа и маркировкой ИИ — признак того, что государство пока действует на опережение. Это нормально на раннем этапе, если итоговое регулирование будет опираться на реальные практики.

Екатерина Набатникова, медиатехнолог, член Экспертного клуба «Дигория», директор по развитию Корпорации AIR.