Aktualjnie Kommentarii

ИИ: между открытостью и защитой

· Екатерина Набатникова · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Развитие искусственного интеллекта всё чаще упирается не в технологии, а в доступ к данным. Решение открыть государственные массивы для обучения ИИ одновременно расширяет возможности рынка и усиливает контроль над одной из ключевых сфер будущего.

О том, где проходит граница между развитием и ограничением нейросетей — в комментарии Екатерины Набатниковой, медиатехнолога, члена Экспертного клуба «Дигория», директора по развитию Корпорации AIR.

— Разрешение обучать системы искусственного интеллекта на государственных данных — это одновременно и серьезный ресурс для развития отрасли, и шаг к усилению контроля над одной из ключевых технологий ближайших лет. С одной стороны, без доступа к качественным, большим и верифицированным массивам данных невозможно создавать сильные прикладные ИИ-решения, особенно в телекоме, управлении, медицине, транспорте и сфере госуслуг. С другой стороны, как только речь заходит о государственных данных, особенно чувствительных, неизбежно встает вопрос безопасности, допуска и политической ответственности.

Именно поэтому здесь есть выраженная дуальность. Рынок должен развиваться конкурентно: чем больше игроков, включая частные компании и стартапы, могут участвовать в разработке и госзакупках, тем выше шанс на появление действительно сильных решений, а не имитации конкуренции. Но одновременно нельзя игнорировать и другой риск: небольшие компании не всегда способны потянуть масштаб задач, уровень ответственности и требования к защите данных, которые возникают в проектах, связанных с государственным управлением или чувствительной информацией. Поэтому ужесточение правил доступа к таким заказам само по себе логично — вопрос в том, какими будут эти правила.

Если система допусков через силовые или профильные ведомства станет чрезмерно закрытой, это может превратиться в барьер для частных разработчиков и в механизм отсечения неугодных игроков. Если же статус «доверенной» модели будет присваиваться по прозрачным критериям — по уровню защищенности, устойчивости, вычислительной надежности, юридической ответственности и подтвержденной компетенции, — тогда это может стать рабочим инструментом качества. Здесь принципиально важно, чтобы речь шла не о «своих» и «чужих», а о понятной системе требований.

По сути, граница между цифровым суверенитетом и технологической изоляцией проходит именно здесь. Суверенитет — это способность государства защищать критическую инфраструктуру и контролировать работу с чувствительными данными. Изоляция начинается там, где контроль подменяет развитие, а безопасность становится поводом для сужения конкуренции. Мировая практика показывает, что государственные заказы вполне могут передаваться частным компаниям, но при жестких правилах: режим конфиденциальности, безопасные контуры передачи данных, ответственность за утечки, аудит и понятные условия допуска. Именно такой, продуманный и закрепленный законодательно баланс сегодня и нужен.

Екатерина Набатникова, медиатехнолог, член Экспертного клуба «Дигория», директор по развитию Корпорации AIR.