Способность генеративных моделей ИИ настолько высока, что они могут влиять на выборы. Всплеск дезинформации в США является тревожным звоночком для прямой демократии в Швейцарии

Всплеск дезинформации в США является тревожным звоночком для прямой демократии в Швейцарии

A deepfake image, created by AI, portrays Kamala Harris as a communist dictator.
 Дипфейк-изображение, созданное искусственным интеллектом, изображает Камалу Харрис в образе коммунистического диктатора. Х

В то время как Соединенные Штаты борются с беспрецедентной волной поддельного контента, созданного искусственным интеллектом, в преддверии президентских выборов, эксперты предупреждают, что Швейцария не застрахована от этого. Напротив, альпийская нация особенно уязвима к тактике дезинформации, которая угрожает избирателям во всем мире.

Этот контент был опубликован
Sara Ibrahim
with input from Claire Micallef

«Швейцария очень уязвима, потому что если люди получают неверную информацию, они, вероятно, будут принимать неправильные решения», — говорит Турадж Эбрахими, профессор Швейцарского федерального технологического института в Лозанне и эксперт по дипфейкам.

Эксперт утверждает, что прямые демократии, которые предоставляют гражданам заметную роль в принятии политических решений, больше всего пострадают от дезинформации и дипфейков, вызванных искусственным интеллектом (ИИ). 

Это касается и Швейцарии, и большинства американских штатов, где не только избранные представители, но и народ принимает важные решения.

Продолжающаяся президентская избирательная кампания в США показывает, насколько ИИ может замутить воду политических дебатов. 

В течение этого года мы видели и слышали все: фотографии Камалы Харрис изображается как диктаторна съезде коммунистов, Аудиосообщения с голосом Джо Байдена, призывающего электорат не голосовать, видео с Илоном Маском и Дональдом Трампом в крутой одежде безукоризненно танцующих под музыку 70-х.

 Это лишь некоторые из дипфейков — поддельного аудиовизуального контента, созданного с помощью искусственного интеллекта, — которые циркулируют в Интернете на социальных платформах, таких как X (ранее Twitter).

Цель состоит в том, чтобы генерировать дезинформацию и манипулировать общественным мнением с большим воздействием и без особых усилий. 

Действительно, миллионы людей просматривали, лайкали и репостили эти дипфейки. 

Ситуация в США настолько тревожная, что не менее 20 штатов приняли нормативные акты против дипфейков и Министерство внутренней безопасности предупредило о  рисках ИИ для президентских выборов.

Недавно штат Калифорния принял один из американских Самых жестких законов против политических дипфейков.

Швейцария же ,напротив, отстает в законодательном регулировании.

В то время как ЕС отрегулировала дипфейки в Законе ЕС об искусственном интеллекте, правительство Швейцарии заявило   в прошлом году, что не видит необходимости в специальном регулировании против искусственно созданного и манипулируемого контента.

Но, несмотря на законодательные усилия, ни США, ни любая из крупнейших демократий мира не избежали фейковых видео, фотографий и новостей в год, который собрал наибольшее количество людей в истории – по крайней мере, четыре миллиарда – на избирательные участки.

Эскалация дезинформации, генерируемой искусственным интеллектом, еще не достигла своего пика: по словам Эбрахими, в будущем мы увидим все больше и больше искусственно созданного синтетического медиаконтента.

 И по мере того, как технологии становятся все более изощренными, будет все труднее отличить их от того, что реально. 

Другие эксперты, с которыми консультировалась  SWI swissinfo.ch, согласны с этой оценкой.

Вот три основные причины, по которым швейцарская демократия не должна недооценивать опасность дезинформации, вызванной искусственным интеллектом.

1. Поисковые системы и чат-боты показывают предвзятую и неверную информацию

Некоммерческие организации и исследовательские группы уже предупредили об опасностях и ограничениях программного обеспечения и алгоритмов искусственного интеллекта для швейцарской демократии. 

Швейцарская неправительственная организация Algorithm Watch CH Проанализировала ответы чат-бота Microsoft в поисковой системе Bing перед федеральными выборами в Швейцарии в октябре 2023 года и обнаружила, что треть ответов, связанных с выборами, содержала фактические ошибки, и что искусственный интеллект даже зашел так далеко, что Придумывал скандалы о тех или иных политических деятелях. 

«Чат-боты с генеративным искусственным интеллектом, интегрированные в поисковые системы, могут вводить в заблуждение, потому что люди полагаются на информацию, которую они собирают через поисковые системы», — говорит Ангела Мюллер, директор Algorithm Watch CH.

Но поисковые системы в Интернете также могут вводить в заблуждение. 

В Информационном документе университета Берна и Цюриха говорится, что наиболее часто используемая поисковая система в Швейцарии, Google, дает дает неодинаковое представление о некоторых источниках информации и разное количество критических мнений по теме в зависимости от языка поиска (немецкий, французский или итальянский).

Например, перед всенародным голосованием по Закону о защите климата в июне 2023 года исследователи обнаружили, что Google отдает предпочтение информации от сторон, которые более критично относятся к закону, отвечая на запросы на немецком языке, в отличие от запросов на итальянском и французском.

 

«В уже поляризованной многоязычной демократии, такой как Швейцария, эти результаты должны нас беспокоить», — говорит Николай Махортых, один из исследователей, стоящих за «Белой книгой». 

Он бьет тревогу по поводу того, что нет прозрачности в том, как работают поисковые алгоритмы и программное обеспечение искусственного интеллекта, и что, несмотря на обещания, крупные технологические компании не могут создать эффективные системы для борьбы с фейковыми новостями и поляризацией.

2. Дезинформация, созданная искусственным интеллектом, делает медиаландшафт менее надежным

По словам Махортых, современные системы искусственного интеллекта также позволяют быстрее и проще создавать и распространять дезинформацию. 

Все больше и больше новостных сайтов имитация авторитетных или традиционных СМИ,  на самом деле полны автоматически сгенерированного контента ИИ, который часто неверен, а иногда полностью сфабрикован.

Эти новости заполняют страницы крупных социальных сетей, на долю которых приходится более 60% ложной информации, циркулирующей в Швейцарии , по данным опросаДирижер FÖG.

 

Даже если бы только малая часть населения будет читать новости, созданные искусственным интеллектом, они могут быть сделаны настолько хорошо, что людям будет сложнее идентифицировать их и избежать фейковых новостей.

Недавний опрос ОЭСР поставил швейцарцев в число наименее способных распознавать дезинформацию.

«Если новости, создаваемые реальными журналистами и искусственным интеллектом, похожи друг на друга, это действительно опасно», — говорит Карстен Донней, профессор политического поведения и цифровых медиа в Цюрихском университете. Люди могут чувствовать себя обманутыми и потерять доверие к системе СМИ в целом, добавляет он.

Эта экосистема уже привела к тому, что швейцарцы изменили свой подход к получению информации.

 Последние цифры опубликованы в агентстве Reuters , Цифровой новостной анализ показывает, что основным источником информации в стране являются новостные интернет-сайты.

Традиционные и более надежные каналы, такие как телевидение, печатные СМИ и радио, остаются важными, но с 2016 года переживают значительный спад.

National platform preferences.
 SWI swissinfo.ch

 

Одна из причин снижения потребления традиционных медиа заключается в том, что люди стали «бомбардироваться» новостями и чувствуют себя истощенными, говорится в докладе.

 В результате швейцарцы в целом теряют интерес к информированности, что является частью общемировой тенденции.

 В Швейцарии произошел менее радикальный сдвиг, чем в некоторых других демократических странах, таких как США, где население близко к отказу от традиционных медиаплатформ.

Но это не делает вероятным то, что Швейцария сможет свести к минимуму риски, связанные с искусственным интеллектом, говорит Донней. Он считает, что поисковые системы и чат-боты продолжат набирать обороты в качестве источников информации.

«Люди будут использовать их все больше и больше, и мы действительно не знаем, к чему это приведет», — отмечает профессор. Однако, по его оценкам, еще не поздно установить ограждения, чтобы гарантировать, что и нежурналистские источники информации придерживаются определенных стандартов.

Graphic
 SWI swissinfo.ch

3. Технологии генеративного ИИ невероятно убедительны

До сих пор было трудно доказать влияние дезинформации, созданной искусственным интеллектом, на население.

«Это не массовое явление. Дезинформация циркулирует в определенной нише», — говорит Фабрицио Джиларди, профессор политического анализа в Цюрихском университете. Он говорит, что дезинформация существовала всегда, и самые убедительные исследования показывают, что она имеет гораздо меньшее влияние, чем думают люди. «Искусственный интеллект не собирается существенно менять ситуацию», — говорит он.

Независимые исследования, проведенные в сотрудничестве с Meta(материнская компания Facebook) во время президентских выборов в США в 2020 году доказала, что дезинформация, циркулирующая в социальных сетях, не оказала существенного влияния на отношение и поведение людей и не усилила поляризацию.

Но это может измениться с появлением интерактивных платформ искусственного интеллекта, таких как ChatGPT. 

Исследование проведенное в США  Швейцарским федеральным технологическим институтом Лозанны (EPFL), показало, что ChatGPT очень искусен в формировании нашего мнения.

«Убеждающая способность генеративных моделей ИИ настолько высока, что они могут влиять на выборы», — говорит Франческо Сальви, один из авторов исследования. Сальви и его команда показали, что ChatGPT-4 имеет на 82% больше шансов изменить сознание человека, чем у человека.

Обладая личной информацией о пользователе, ChatGPT-4 может генерировать персонализированные и более убедительные сообщения. 

Это беспрецедентно, даже среди других громких случаев дезинформации, таких как незаконное использование персональных данных миллионов пользователей Facebook для политического влияния фирмой Cambridge Analytica, раскрытое в 2018 году. 

«Мы сталкиваемся с потенциальным делом Cambridge Analytica в n-й степени. И я убежден, что это уже происходит», — утверждает Сальви.

 

 

Last Updated on 27.09.2024 by iskova