Aktualjnie Kommentarii

ИИ и книги: а судьи кто?

· Павел Данилин · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Случай с книгой Драгунского показал, что искусственный интеллект уже проверяет тексты на соответствие законам. Но что происходит, когда алгоритм, обученный на чужой культуре, начинает определять, где пропаганда, а где нет? Политолог, доцент Финансового университета при правительстве РФ Павел Данилин объясняет, почему курьёзный кейс может стать симптомом широкой проблемы, зачем нужна проверка человеком и почему многие известные авторы рискуют попасть под каток цензуры ИИ.

Что произошло с книгой Драгунского и при чем здесь ИИ?

— В случае с Драгунским речь, очевидно, идёт не о цензуре, а об использовании искусственного интеллекта для проверки содержания книги. Я, честно говоря, не уверен, какой именно ИИ использовали в издательстве «Эксмо» для прогонки тех или иных книг. Но здесь был искусственный интеллект, «выращенный» на американской культуре — на американских скриптах через американских тренеров.

Искусственный интеллект, как известно, тренируется. И, судя по всему, в данном случае применялся достаточно слабый ИИ, потому что произошёл плохой перевод. На самом деле качественный ИИ редко ошибается, ошибки — это скорее исключение. Но надо понимать, что для машин это абсолютная норма. По сути, произошёл просто курьёзный кейс.

Почему этот курьёзный случай может свидетельствовать о куда более серьезной проблеме?

— Проблема шире, чем кажется на первый взгляд. Искусственный интеллект получает право не просто указывать на ошибки, а фактически определять, что считается нарушением.

В нашем случае текст книги загнали в ИИ, и он выдал ответ: здесь, здесь и здесь нарушение закона о пропаганде наркотиков.

Что будет дальше? Кто-то должен принять решение: считать это нарушением или нет. Но будет ли это делать человек тщательно? Может, нет. Может просто сказать: «А, всё, считаем пропагандой наркотиков» и поставить крест.

Вопрос не в том, что ИИ вынес решение. Вопрос в том, что это решение может стать правилом, основанием для отказа в печати книги и так далее.

Как можно избежать подобных ситуаций в будущем?

— Автоматическая проверка обязательно должна сопровождаться проверкой человеком. И она должна давать возможность для апелляции. В противном случае авторы будут вынуждены сами «цензурировать» свои тексты, прогоняя их через ИИ, чтобы понять, где что можно публиковать, а где нет.

Если это не будет работать, есть риск, что даже такие крупные авторы, как Великий Пелевин, просто не увидят свет.

Павел Данилин, политолог, доцент Финансового университета при Правительстве РФ.