Дипфейки и дезинформация представляют собой растущую угрозу в Азии

Дипфейки и дезинформация представляют собой растущую угрозу в Азии

Растущая коммерциализация дипфейков (глубоких подделок) принесет новые проблемы в информационное пространство Азиатско-Тихоокеанского региона.

Deepfake (дипфейк, конкатенация англ. deep learning — «глубинное обучение» и fake — «подделка») — методика синтеза изображения, основанная на искусственном интеллекте.

Методика синтеза изображения используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом. /…/

Дипфейки используется для создания фильмов, для замены лица одного актёра на другого. Используют для «оживления» умерших людей — создание видео с помощью фотографии и образца голоса.

Также используют дипфейки для видеосвязи, для сдачи экзаменов, для обмана или для шутки в видеочатах, для создания шуточных роликов с известными людьми.

(Википедия)

Недавние новости об использовании сгенерированных компьютером аватаров в прокитайской кампании влияния вновь привлекли внимание к использованию глубоких подделок.

Кампания влияния была впервые замечена разведывательной компанией Graphika в конце 2022 года. Видеоролики с реалистичными аватарами ИИ, изображающими ведущих новостей на вымышленном канале Wolf News, продвигали интересы Коммунистической партии Китая. В роликах комментировались такие темы, как насилие с применением огнестрельного оружия в США и важность сотрудничества Китая и США для восстановления мировой экономики после COVID-19.

Предыдущие расследования Graphika и других исследователей показали, что использование сгенерированных ИИ поддельных лиц и отредактированных вне контекста видеороликов направлено на введение в заблуждение путем подделки слов или действий человека.

Отличительной особенностью данного дела Wolf News от других предыдущих сгенерированных ИИ изображений или медиа было участие государственной информационной кампании по созданию поддельных лиц с использованием технологий deepfake.

Этот случай выводит проблему дипфейка на передний план общественных дискуссий и поднимает серьезные вопросы: каково влияние дипфейков и дезинформации, и каково значение углубляющейся коммерциализации технологий deepfake?

Дипфейки создаются с помощью особой формы искусственного интеллекта, известной как глубокое обучение. Алгоритмы глубокого обучения могут менять местами лица человека, похожего на человека на видео или изображении. Создание фейков получило широкую известность благодаря подмене лиц на фотографиях знаменитостей в Интернете, а видеоролики Тома Круза на TikTok в 2021 году привлекли внимание общественности благодаря гиперреалистичному облику актера.

Дипфейки сегодня повсеместно распространены в социальных сетях: функции и приложения ИИ позволяют пользователям генерировать аватары самих себя или создавать совершенно новые личности. Добавление генеративно-состязательных сетей (GAN) позволяет создавать новые уникальные лица, не встречающиеся в обучающих данных алгоритма, и не основанные на существующих лицах.

Генеративно-состязательная сеть (англ. Generative adversarial network, сокращённо GAN) — алгоритм машинного обучения без учителя, построенный на комбинации из двух нейронных сетей, одна из которых (сеть G) генерирует образцы (см. Генеративная модель),а другая (сеть D) старается отличить правильные («подлинные») образцы от неправильных (см. Дискриминативная модель). Так как сети G и D имеют противоположные цели — создать образцы и отбраковать образцы — между ними возникает антагонистическая игра. Генеративно-состязательную сеть описал Ян Гудфеллоу[en] из компании Google в 2014 году.

Использование этой техники позволяет в частности генерировать фотографии, которые человеческим глазом воспринимаются как натуральные изображения. Например, известна попытка синтезировать фотографии кошек, которые вводят в заблуждение эксперта, считающего их естественными фото. Кроме того GAN может использоваться для улучшения качества нечётких или частично испорченных фотографий.

(Википедия)

Популярность таких технологий привела к буму в разработке приложений и функций, предлагающих аватары ИИ.

Достижения в технологии ИИ сделали более трудным различение между реальными и глубоко поддельными изображениями, еще больше размывая серую грань между фактом и вымыслом.

Такая распространенность вызвала обеспокоенность по поводу нарушения неприкосновенности частной жизни и возможности злоупотреблений и эксплуатации.

Технология генеративного искусственного интеллекта использовалась для создания дипфейковой порнографии, на которую в 2019 году пришлось 96 процентов всех дипфейковых видео в сети. Обычные люди также стали мишенью для кампаний по созданию фальшивой порнографии.

Возросло число услуг, предлагающих изменить изображения женщин в обнаженные фотографии. Один из таких случаев связан с генеративным ИИ-приложением Lensa, которое подверглось критике за то, что его система позволяла создавать полностью обнаженные изображения из снимков головы пользователей. Любая женщина может стать жертвой такого синтетического стриптиза, и ее «обнаженные» изображения будут размещены на многочисленных платформах в Интернете.

Использование технологии deepfake в операциях влияния и дезинформационных кампаниях не является чем-то новым. Были выявлены многочисленные случаи скоординированного неаутентичного поведения с использованием deepfake.

В 2019 году Facebook удалил скоординированную сеть неаутентичных страниц, состоящую из 900 аккаунтов, которые управлялись в основном из Вьетнама. Сеть была связана с Epoch Media Group, ультраправой американской медиагруппой, известной своей тактикой дезинформации. Большинство выявленных аккаунтов использовали поддельные фотографии профиля, созданные искусственным интеллектом для создания неаутентичных аккаунтов на Facebook, маскируясь под американцев в группах Facebook.

Использовались поддельные фотографии профилей журналистов и консультантов, созданные с помощью технологии искусственного интеллекта.

Эти гиперреалистичные фальшивки были объединены с фальшивыми журналистскими именами для написания статей для консервативных изданий в Интернете.

Потенциальное воздействие глубоких подделок вызвало тревогу. Федеральное бюро расследований (ФБР) в своем отчете об оценке угроз от марта 2021 года предупредило, что использование синтетического контента для кибер- и зарубежных операций влияния может быть использовано злоумышленниками.

В отчете также указано, что особое беспокойство вызывают операции влияния с использованием синтетических изображений профиля, созданных искусственным интеллектом, что потенциально позволяет операторам маскировать свою личность за сгенерированными deepfake персонами для распространения дезинформации в Интернете.

В Азии дипфейки уже использовались в политических целях. Известный случай использования deepfake в политической кампании произошел во время выборов в Законодательное собрание Индии в 2020 году.

Манипулированные видеоролики с президентом Бхаратия Джаната Парти (БДП) Маноджем Тивари были распространены в 5700 группах WhatsApp в Дели и окрестностях, охватив около 15 миллионов человек в Индии. Сгенерированные ИИ лица использовались в скоординированных кампаниях влияния, предположительно исходящих из Азии.

В одном из случаев был развернут кластер из 14 неаутентичных аккаунтов в Twitter, использующих сгенерированные ИИ лица в качестве фотографий профиля, рекламирующих китайские возможности 5G в Бельгии.

Использование сгенерированных ИИ лиц устраняет необходимость использования поддельных фотографий профиля для маскировки фальшивых аккаунтов, что позволяет избежать риска обнаружения традиционными методами расследования.

В прошлом прокитайские кампании влияния имели ограниченный успех. В примере с Wolf News аватары, сгенерированные ИИ, были низкого качества, а дикторский текст ведущие передавали отрывисто. В английских сценариях также было много грамматических ошибок. Охват кампании также был минимальным, так как для усиления охвата в сети использовались поддельные личные аккаунты. Хотя влияние кампании было ограниченным, подобные кампании поднимают вопрос о растущей коммерциализации услуг deepfake.

В связи с ростом популярности дипфейков увеличилось число компаний, создающих качественные продвинутые дипфейки. Услуги таких компаний в основном используются в развлекательных и учебных целях, например, для создания видеороликов о клиентах и людских ресурсах. Однако рост коммерческих услуг по созданию дипфейк-видеороликов обеспечивает легкодоступные ресурсы для участников операций влияния — как государственных, так и негосударственных. Это вызывает озабоченность по поводу контроля услуг, предоставляемых технологией deepfake.

Коммерческое применение синтетических медиа будет продолжать оставаться растущей тенденцией в связи с популярностью таких приложений в социальных сетях и Интернете. В будущем может участиться создание высококачественных дипфейков в целях дезинформации или в политических целях.

Такие коммерциализированные дипфейки могут стать ключевыми инструментами в наборе средств дезинформации для пропагандистов по всему миру, поскольку страны с развитыми возможностями ИИ и доступом к большим массивам данных могут получить преимущества в информационной войне.

Возможно также увеличение числа компаний, специализирующихся на создании дипфейков под заказ, которые могут предоставить клиентам (государственным органам, юридическим или или частным лицам), желающим организовать кампании по дезинформации, целый набор инструментов.

Дипфейки могут быть включены в пропагандистские кампании для повышения их эффективности. Потенциально это может привести к созданию кустарной индустрии по созданию дипфейков как вида услуг.

Объединение GPT (языковой модели нейронной сети глубокого обучения, натренированной на больших объемах текста) с дипфейком вызывает дополнительные опасения, поскольку технологический прогресс все больше опережает его регулирование. Объединяя несколько методов, такие инструменты могут усилить работу злонамеренных субъектов для создания еще более убедительных медиа-артефактов с враждебными намерениями, что еще больше дестабилизирует общественное доверие и достоверность.

Отвечая на вопрос о роликах в поддержку Китая, созданных с помощью услуг, предлагаемых его компанией, генеральный директор Synthesia подчеркнул необходимость того, чтобы регулирующие органы установили более четкие правила использования инструментов ИИ.

Рост коммерциализации синтетических медиа-приложений и сервисов, а также отсутствие ясности со стороны регулирующих органов в отношении использования инструментов ИИ позволяет дезинформации шириться и множиться в Интернете.

Регуляторы пытались установить параметры и правила, в соответствии с которыми следует регулировать дипфейки. Закон ЕС об искусственном интеллекте (который называют первым в мире законом об ИИ и который, вероятно, будет принят в 2023 году) требует от создателей раскрывать контент (содержание) дипфейков.

В Азии Китай запрещает использование дипфейков, которые считаются вредными для национальной безопасности и общества. Новые китайские правила требуют, чтобы дипфейки были четко обозначены как синтетически созданные или отредактированные, а личности людей, участвующих в deepfake, должны быть известны компании. Подобные попытки регулирования также предпринимаются в США, Великобритании, Южной Корее и Тайване.

Сильный акцент на просвещение общественности также может помочь. Люди склонны переоценивать свою способность различать подлинный и неподлинный визуальный контент и, как правило, слабо защищены от визуального обмана. Существующие инициативы по повышению медиаграмотности и проверке фактов могут продолжать играть свою роль в повышении осведомленности общественности в отношении мелких и глубоких подделок, одновременно повышая важность визуальной грамотности.

Общественность необходимо обучать не только навыкам медиаграмотности, но и комплексным навыкам информационной грамотности, включая и подчеркивая визуальную грамотность. Это может создать и повысить осведомленность общественности и понимание глубоких подделок.

Привлечение общественности может помочь привить людям правильное понимание и осознание потенциального вреда от развивающейся технологии искусственного интеллекта deepfake.

11 марта 2023 года

Автор: Димплс Леонг

Источник: The Diplomat

Дымплес Леонг — младший научный сотрудник Центра передового опыта в области национальной безопасности (CENS) Школы международных исследований имени С. Раджаратнама (RSIS) Наньянского технологического университета, Сингапур.

Last Updated on 03.09.2024 by iskova