Российская ботоферма использовала ИИ, чтобы лгать американцам. Что теперь?
«Фермерство — любимое занятие миллионов россиян».— Пресс-служба RT в ответ на обвинения в том, что RT создала ботоферму с поддержкой искусственного интеллекта для распространения дезинформации
Россия официально воплотила одно антиутопическое предсказание об искусственном интеллекте (ИИ): она использовала ИИ, чтобы лгать лучше, быстрее и правдоподобнее.
На прошлой неделе Министерство юстиции США вместе со своими коллегами в Канаде и Нидерландах пресекло работу российской ботофермы, которая распространяла пророссийскую пропаганду.
Директор ФБР и заместитель генерального прокурора в пресс-релизе отметили использование искусственного интеллекта для создания ботофермы, как тревожную новую разработку.
Однако они не сказали, что Запад не готов защищаться от этой новой угрозы.
Эта возможность позволяет быстро реагировать на события в мире, вызывающие серьезные разногласия, в огромных масштабах.
Например, российская операция могла бы распространить противоречивые сообщения о покушении на бывшего президента Трампа. В прошлом это была бы трудоемкая задача по созданию различных правдоподобных сообщений, призванных возмутить оба конца политического спектра,а затем повторять их до тех пор, пока вызывающая разногласия нота не задела за живое. Теперь же ИИ может подготовить сообщение, изменить его для разных аудиторий и быстро распространить. Россия могла войти в чат практически сразу.
Россия всегда была на переднем крае инноваций в пропаганде.
От распространения утверждений о том, что ЦРУ создало СПИД в 1980-х годах, и усиления разногласий по расовому и религиозному признаку в американском обществе в 2016 году до взрывных антиукраинских посланий по всему миру сегодня — Россия постоянно находит новые способы продвижения нарративов, чтобы ослабить Запад.
В настоящее время ИИ предоставляет возможность значительно расширить эти пропагандистские усилия.
В ходе этой кампании по дезинформации Россия использовала искусственный интеллект для создания более 1000 поддельных американских профилей в социальных сетях, а затем использовала эти профили для распространения антиукраинских, пророссийских нарративов в Соединенных Штатах. Короче говоря, Россия использовала искусственный интеллект для лжи.
Эти усилия всерьез начались во время вторжения в Украину. Разработкой ботофермы руководил заместитель главного редактора RT, связанного с Кремлем новостного издания, заработавшего репутацию распространителя искаженного взгляда Кремля на мир.
RT сотрудничал с агентами Федеральной службы безопасности (ФСБ) — пожалуй, самыми агрессивными и тонкими пропагандистами пропаганды в России.
В апреле 2022 года ФСБ купила инфраструктуру для бота- фермы, в том числе доменные имена в США. На этих доменах размещались боты на основе искусственного интеллекта и даже содержался код, который обманывал X (ранее Twitter), заставляя его поверить в то, что боты были настоящими людьми. Затем, в начале 2023 года, офицер ФСБ России создал частную разведывательную организацию для управления ботофермой, используя сотрудников RT.
Согласно совместному заявлению ФБР и союзников США, ферма использовала Meliorator — «скрытый программный пакет с искусственным интеллектом (ИИ)», — для создания множества онлайн-персонажей. Инструмент с открытым исходным кодом под названием Faker генерировал фотографии и ограниченную биографическую информацию для этих персонажей. Одна из форм бота была тщательно спроектирована, чтобы казаться вполне реальной. Разработчики использовали веб-краулер для создания, казалось бы, аутентичных персонажей, которые использовались для усиления дезинформации, распространяемой другими аккаунтами. Персонажи представляли ряд национальностей; многие выдавали себя за американцев.
Боты в основном размещали сообщения на X, но код был явно написан для преодоления платформ и национальных границ.
В правительственном сообщении говорится, что «анализ Meliorator показал, что разработчики намеревались расширить его функциональность на другие платформы социальных сетей».
Проект распространял дезинформацию в ряде стран и о ряде стран, включая Германию, Израиль, Нидерланды, Польшу, Испанию, Украину и США.
Союзные правительства сообщают, что этот инструмент способен создавать убедительные образы в большом количестве, используя эти образы для публикации достоверно звучащей информации, усиливая сообщения от других ботов и формулируя свои собственные сообщения, адаптированные к очевидным интересам фальшивого человека.
Такое развитие событий было предсказуемо, но Соединенные Штаты все еще не были готовы противостоять ему.
Она была предсказуема в том смысле, что находится на стыке двух событий: во-первых, Россия ведет войну против Украины, которая включает в себя как кинетические, так и информационные бои.
Во-вторых, это год выборов в США, когда Россия в недавнем прошлом значительно активизировала свои пропагандистские усилия.
Таким образом, были все основания ожидать, что Россия будет использовать 2024 год для того, чтобы надавить на передовые пропагандистские технологии.
Несмотря на это заблаговременное предупреждение, усилия США по защите от кампаний по дезинформации остаются в лучшем случае вялыми.
Центр глобального взаимодействия при Государственном департаменте и Центр вредоносного влияния за рубежом при Управлении директора национальной разведки невелики и недоукомплектованы.
Правила о том, что правительственным агентствам США (USG) разрешено и не разрешено делать в информационном пространстве, неясны и порой противоречивы.
По правде говоря, правительство США в значительной степени зависит от промышленности, чтобы держать ботофермы подальше, и даже способность правительства США обсуждать эти вопросы с компаниями социальных сетей недавно стала предметом интенсивных юридических дебатов.
Итог этих усилий таков, что Соединенные Штаты ползут по ступенькам, а их противники просто пристегнуты к реактивному двигателю.
Создавать узкоспециализированную пропаганду теперь быстро и легко. Россия доказала, что ИИ может создавать реалистично выглядящие образы, масштабировать контент и обманывать платформы, заставляя их думать, что персонажи вовсе не боты.
Группа союзников подхватила эту попытку и захватила соответствующие территории, но только после того, как работа велась в течение двух лет.
Еще через два года состояние ИИ будет таким, что бот сможет идентифицировать сообщения, которые лучше всего резонируют с микропопуляцией, а затем скармливать этой популяции то, что они хотят услышать. Полезная нагрузка информации будет казаться такой же локальной и подлинной, как разговор через забор с соседом.
Куда повела Россия, за ней последуют и другие. Западные союзники наверняка увидят множество других попыток спецслужб, информационных брокеров и даже частных лиц использовать ИИ для распространения дезинформации, часто для того, чтобы ослабить решимость тех, кто готов противостоять автократам и хулиганам.
Защитные меры должны предприниматься быстрее: компании социальных сетей должны использовать искусственный интеллект для автоматического выявления аномального поведения, и им нужны команды людей, которые будут исследовать, на что обращают внимание системы искусственного интеллекта.
Соединенные Штаты и союзные правительства должны поддерживать исследования по использованию ИИ для защиты от ИИ.
Между тем, Конгресс должен предоставить больше свободы и больше инструментов тем частям правительства, которые борются с пропагандой, в частности, поддерживая усилия по вакцинации и просвещению общественности о том, как избежать обмана.
Только крайне скептически настроенное население, критически воспринимающее все, что они видят в социальных сетях, может уморить голодом бот-фермеров, которые стремятся их разделить.
Эмили Хардинг
Эмили Хардинг является директором Программы разведки, национальной безопасности и технологий и заместителем директора Программы международной безопасности в Центре стратегических и международных исследований в Вашингтоне, округ Колумбия.
Last Updated on 21.07.2024 by iskova