ДИПФЕЙКИ .Использование фейков в войне: новые опасения связаны с их применением в ходе вторжения России на Украину

Использование фейков в войне: новые опасения связаны с их применением в ходе вторжения России на Украину

Команда из исследовательского центра Lero в Университетском колледже Корка (англ. University College Cork) опубликовала первое в своем роде исследование, в котором изучаются способы представления и обсуждения видеороликов deepfake в Twitter в первые месяцы российского вторжения на Украину.

Данное исследование является первым академическим исследованием влияния фейков на ход войны.

 

Источник: The Conversation, 26 октября 2023 г.

Вечером 18 февраля 2022 года посетителей одного из украинских новостных сайтов встретила знакомая картина — видеозапись выступления президента страны.

ФЕЙК

Сходство было налицо, но лицо казалось несколько не соответствующим голове украинского президента.

В ролике Владимир Зеленский объявил, что война закончилась, что, по мнению большинства жителей Украины, было ложью. Это был фейковый ролик.

В то время как это происходило в Интернете, бегущая строка в нижней части экрана в прямом эфире телеканала сообщала то же самое. В нем утверждалось — опять же ложно — что Украина сдается.

Наша команда из исследовательского центра Lero в Университетском колледже Корка (англ. University College Cork) только что опубликовала первое в своем роде исследование, в котором изучаются способы представления и обсуждения видеороликов deepfake в Twitter в первые месяцы российского вторжения на Украину.

Технология deepfake — это недавняя технологическая разработка, позволяющая создавать видеоролики о событиях, которые никогда не происходили. Она особенно хорошо подходит для распространения дезинформации, дезинформации и «фальшивых новостей» на платформах социальных сетей и в других местах в Интернете. Дипфейки также очень удобны для использования в кибервойнах.

Видеоролики обрабатываются с помощью технологий искусственного интеллекта, причем, как правило, в них смешивается реальный и поддельный контент.

Благодаря этому они выглядят более реалистично и убедительно, чем видео, полностью созданные с помощью искусственного интеллекта.

Например, технология deepfake может взять реальное видео и поменять местами лица двух людей в нем или изменить движения губ так, чтобы казалось, что человек говорит не то, что он говорил изначально.

Комментаторы и ученые отмечают, что с помощью технологии deepfake поддельные видеоролики создаются гораздо проще и быстрее, чем с помощью предыдущих методов.

Потеря доверия

В ходе нашего исследования было выявлено множество случаев, когда наличие дипфейков (подделок) вызывало сомнения или недоумение.

Поразительно, но наши данные продемонстрировали случаи, когда люди обвиняли настоящие видеоролики в том, что они поддельные.

Мы также обнаружили свидетельства того, что люди теряли доверие ко всем видеозаписям конфликта, а некоторые поддерживали версии о том, что мировые лидеры погибли и были заменены фальшивками.

Из множества примеров фальшивок, использовавшихся в Интернете во время российско-украинской войны, пример  В.Зеленского, утверждавшего, что война закончилась, был, пожалуй, самым пугающим.

Это связано с тем, что он продемонстрировал, как фейки могут использоваться вместе со взломанными медиасервисами для распространения сообщений, не соответствующих действительности.

Итогом этого инцидента стало распространение ложной информации из достоверного источника.

Во время войны также появились аналогичные видеоролики deepfake о том, что президент России Владимир Путин сдается в плен.

Наше исследование является первым академическим исследованием влияния фейков на ход войны.

Для того чтобы выяснить, как фейки использовались в самом начале вторжения России в Украину, мы составили хронологию различных фейков, которые распространялись в самом начале вторжения.

Хотя мы не смогли зафиксировать все появившиеся фальшивки, мы постарались найти наиболее заметные примеры и те, которые оказали наибольшее влияние.

Затем мы проанализировали, как эти видеоролики обсуждались в Twitter (теперь он называется X).

Юмор, растерянность и скептицизм

Многие фейки, созданные во время конфликта, носили юмористический характер, в некоторых из них Путин был вставлен в такие фильмы, как «Падение» (Der Untergang) или «Великий диктатор» Чарли Чаплина 1940 года.

Кроме того, украинское правительство создавало фейковые (и CGI) видеоролики для просвещения населения о конфликте.

Интересно, что демонстрация способности Украины создавать фальшивые видеоролики, пусть даже образовательные, могла быть контрпродуктивной. Они породили у зрителей недоверие и подозрительность по отношению к реальным СМИ.

Значительная часть обсуждений фальшивок в Интернете была связана со здоровым скептицизмом, например, с советами по проверке фактов и выявлению фальшивок.

Однако мы также обнаружили множество примеров видеороликов, которые люди ошибочно считали фальшивками. Такие видеоролики можно разделить на две категории.

Во-первых, многие видеоролики оказались низкопробными подделками, например, с фальшивыми субтитрами или видеозаписями событий других войн, выдаваемых за доказательства событий на Украине.

Во-вторых, мы обнаружили множество примеров реальных видеороликов о событиях на Украине, которые комментаторы ошибочно обвинили в глубокой фальсификации.

Потеря доверия к реальным СМИ — серьезное последствие фейков, которое только подпитывает создание конспирологических теорий, ориентированных на фейки.

 

УРОКИ

Какие уроки может извлечь из этого исследования рядовой пользователь социальных сетей?

За последние пять лет распространенность фальшивых видеороликов в Интернете возросла, и технологическое обнаружение фальшивых видеороликов в настоящее время не является достаточно точным, чтобы быть само по себе решением проблемы.

Важно развивать у людей хорошую медиаграмотность, уравновешивая здоровый и нездоровый скептицизм.

Необходимо скептически относиться к крайне агрессивным СМИ и ждать, пока такие новости будут проверены несколькими заслуживающими доверия источниками.

С другой стороны, люди должны быть осторожны, чтобы не обвинить видео в глубокой фальсификации.

Важно не терять доверия к каждому попавшемуся СМИ, тем более что глубокие подделки не особенно распространены в Интернете.

Одно можно сказать с уверенностью: вопрос о дезинформации с помощью deepfake будет занимать всех по мере развития глобальных конфликтов в этом и последующих десятилетиях.

Авторы:

Deepfakes in warfare: new concerns emerge from their use around the Russian invasion of Ukraine

  1. John Joseph TwomeyPhD Candidate of Applied Psychology, University College Cork
  2. Conor LinehanSenior Lecturer of Applied Psychology, University College Cork
  3. Gillian MurphySenior Lecturer, University College Cork

Источник: The Conversation

 

Last Updated on 03.09.2024 by iskova