C развитием информационных технологий в области искусственного интеллекта стало возможно подделывать видео и голос для выманивания денег. Кому стоит опасаться и как защищаться от Voice DeepFake

Кому стоит опасаться и как защищаться от Voice DeepFake

Об этом сообщает  RSpectr.comC развитием информационных технологий в области искусственного интеллекта стало возможно подделывать видео и голос для выманивания денег.

Технология Voice DeepFake способна перехитрить не только людей, но и мессенджеры, платформы известных брендов.

АЛГОРИТМ ОБМАНА

Новая мошенническая технология Voice DeepFake основана на обработке голоса для создания заданной речи.

Для этого предоставляется аудиозапись нужного человека специальному ПО.

На основе этих образцов софт научится довольно точно имитировать тембр голоса будущей жертвы, разбивая речь на слоги или короткие звуки, после чего они перестраиваются для создания новых предложений.

Различные погрешности объясняются посторонними шумами и плохой связью.

Технологией уже активно пользуются мошенники во всем мире, и выявить обман сложнее, чем разоблачить «оператора» банка.

Вам звонит «родственник», который узнаваемым голосом просит перевести деньги, чтобы выручить его из беды.

Исследователи из лаборатории безопасности алгоритмов, сетей и данных (SAND) Чикагского университета протестировали программы синтеза Voice DeepFake, доступные на сайте сообщества разработчиков с открытым исходным кодом Github.

Они хотели проверить, можно ли разблокировать доступ к Amazon Alexa, WeChat и Microsoft Azure, защищенный системами распознавания голоса.

Одной из таких программ – SV2TTS, по словам ее разработчиков, требует всего пять секунд образца речи для создания достойной голосовой имитации.

Описанная как «набор инструментов для клонирования голоса в реальном времени»,

SV2TTS СМОГЛА ОБМАНУТЬ MICROSOFT AZURE ПРИМЕРНО В 30% СЛУЧАЕВ И БЫЛА ЕЩЕ ЭФФЕКТИВНЕЕ (63%) ПРИМЕНИТЕЛЬНО К ЗАЩИТЕ WECHAT И AMAZON ALEXA

Программа также успешно вводит в заблуждение людей: 200 добровольцев, которых попросили отличить настоящий голос от подделки SV2TTS, были обмануты в половине случаев.

Специалисты выяснили, что дипфейк-алгоритмы более успешны в подделке женских голосов, а также речи на всех языках, кроме английского.

Причины такой тенденции для исследователей пока непонятны.

Этой статистики достаточно, чтобы эксперты сделали вывод: «И люди, и машины могут быть введены в заблуждение синтетической речью, а существующие средства защиты от нее недостаточны».

То есть современные голосовые клоны в руках преступников позволяют осуществить целый ряд мощных атак не только на людей, но и на программные системы.

 

Но есть и хорошие новости – голосовой клон не очень подходит для массового использования и «коврового» обзвона жертв.

Сама специфика технологии предполагает конкретную точечную атаку на предварительно выбранного человека.

КОГДА РЕЧЬ ИДЕТ О ЧАСТНЫХ ЛИЦАХ, ВЕРОЯТНОСТЬ СТАТЬ СЛУЧАЙНОЙ ЖЕРТВОЙ ГОЛОСОВОГО ДИПФЕЙКА ПОКА МАЛА

Вы должны быть богатым человеком, против которого ведется системная слежка для проработки сценария обмана.

В настоящий момент это больше корпоративная история: исследователи из компании Symantec, специализирующейся на кибербезопасности, сообщили СМИ о трех случаях, когда воры с помощью программ Voice DeepFake просили руководителей крупных компаний перевести деньги на частные счета.

В одном из этих случаев потери составили несколько миллионов долларов.

Как защититься от голосового дипфейка?

Прежде всего необходимо договориться с потенциальными участниками такой атаки об идентификации по телефону.

Если, например, человек просит перевести деньги, следует обговорить вопросы, ответы на которые злоумышленники знать не могут. Так можно сразу понять, что перед вами мошенник.

Конечно, против глубоко продуманной и подготовленной атаки это не поможет – преступники могут изучить жертву достаточно хорошо, чтобы ответить на вопросы типа «Как зовут твою собаку?» или «В каком году ты окончил школу?».

Но далеко не все готовятся так тщательно. Главное – понимать, что технологии действительно шагнули вперед и такой сценарий обмана больше не является научной фантастикой.

Государства начали работу по противодействию клонам.

В США В 2019 ГОДУ УЖЕ БЫЛ ПРИНЯТ ЗАКОНОПРОЕКТ О ЗАЩИТЕ ГРАЖДАН ОТ ЛОЖНЫХ ПРОЯВЛЕНИЙ ЕГО ЛИЧНОСТИ, КОТОРЫЙ РЕГУЛИРУЕТ ИСПОЛЬЗОВАНИЕ ДИПФЕЙКОВ

Аналогичный закон в Калифорнии вводит уголовную ответственность за применение несогласованных визуальных и аудиоклонов в рекламных акциях и в политических кампаниях.

Проблематика дипфейков привела и к появлению новой области исследований – разработки детекторов цифровых фальшивок.

Источник: по материалам  RSpectr.com, 1.01.2022

Last Updated on 01.01.2022 by iskova

Добавить комментарий