Aktualjnie Kommentarii

Армии ботов на выборах

· Александр Астафьев · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Новое поколение ИИ-ботов в соцсетях научилось имитировать поведение реальных пользователей без копирования одинаковых сообщений, и это представляет угрозу фальсификации общественного мнения, особенно в периоды выборов — например, для создания иллюзии поддержки конкретной политической силы. Об этом предупреждает международная группа ученых в статье, опубликованной в журнале Sciencе.

Насколько реальна угроза фальсификации общественного мнения посредством ИИ, «Актуальным комментариям» рассказал член Совета Фонда развития гражданского общества Александр Астафьев.

— Это не фальсификация общественного мнения, поскольку измерять общественное мнение исключительно по публикациям в социальных сетях было бы некорректно. Однако то, что искусственный интеллект будет активно использоваться в избирательных кампаниях — это абсолютно точно. Возможно, в ближайшей думской кампании это ещё не проявится так явно и откровенно, но давайте считать это генеральной репетицией внедрения искусственного интеллекта в избирательные технологии.

Искусственный интеллект будет влиять не только на электоральные процессы, он будет воздействовать на всю нашу жизнь. Многие разработчики, создававшие первые алгоритмы искусственного интеллекта, сейчас с тревогой и большой озабоченностью говорят о том, что ИИ развивается слишком стремительно. Мы — Homo sapiens — просто не успеваем принимать необходимые правовые или технические решения, которые позволили бы регулировать эту ситуацию и встраивать её в привычное для нас социальное русло.

В Соединённых Штатах, например, уже появилась целая социальная сеть, в которой пользователями являются боты на базе искусственного интеллекта. Там почти два миллиона «пользователей», они обмениваются сообщениями, обсуждают своих так называемых хозяев, дискутируют на тему появления собственного языка, который минимизировал бы человеческий контроль, и даже рассуждают о религии. Это не шутки, это уже реальность, которая существует.

Безусловно, боты, функционирующие на платформах искусственного интеллекта, будут в ходе кампаний влиять на публикации, реплики и комментарии. Наверное, сейчас масштабы не столь велики, и паниковать преждевременно, но уже пора предпринимать меры, которые позволили бы защитить человека от «мнения» искусственного интеллекта. Эта необходимость уже не просто назрела, она настоятельно требует внимания. И если этим не заняться сейчас, в какой-то момент может оказаться просто поздно, потому что уже сегодня отличить информационную продукцию, созданную ботами, от той, что создал человек, практически невозможно. Никакие экспертизы — ни лингвистические, ни физиогномические, ни какие-либо иные — не помогут. Если искусственный интеллект способен создать изображение сетчатки глаза или отпечатки пальцев, то, поверьте, создать сообщение, которое бы восхваляло или принижало какого-то кандидата или событие, для него не составит труда.

Поэтому проблема регулирования искусственного интеллекта — и в избирательных кампаниях, и в нашей повседневной общественной жизни — не просто зовёт, она буквально кричит о том, чтобы мы отложили все прочие дела и привели эту сферу в порядок. Будем надеяться, что это произойдёт. На сами выборы искусственный интеллект, возможно, кардинально не повлияет, но первый звоночек, причем, возможно,громкий, мы, безусловно, услышим.

Александр Астафьев, член Совета Фонда развития гражданского общества.

#АлександрАстафьев