Неуправляемый ИИ

Неуправляемый ИИ (Топ риски 2024 г)

Пробелы в управлении ИИ станут очевидными в 2024 году, поскольку усилия регулирующих органов дают сбой, технологические компании остаются в основном неограниченными, а гораздо более мощные модели и инструменты ИИ выходят из-под контроля правительств.

Прошлый год принес с собой волну амбициозных инициатив в области искусственного интеллекта, политических заявлений и предлагаемых новых стандартов, с сотрудничеством на необычных фронтах.

 Ведущие американские компании в области искусственного интеллекта взяли на себя обязательства по соблюдению добровольных стандартов в Белом доме. 

Соединенные Штаты, Китай и большинство стран G20 подписали Декларацию Блетчли-Парка о безопасности ИИ

Белый дом издал новаторский указ об искусственном интеллекте. 

Европейский Союз наконец-то согласовал свой широко разрекламированный Закон об искусственном интеллекте. 

А Организация Объединенных Наций созвала консультативную группу высокого уровня (членом которой является Иэн).

Но прорывы в области искусственного интеллекта происходят гораздо быстрее, чем усилия по управлению. В 2024 году этот пробел в управлении ИИ будет усугубляться четырьмя факторами:

1) Политика

По мере создания структур управления политические или институциональные разногласия заставят их ограничивать свои амбиции. 

Наименьший общий знаменатель того, что может быть согласовано правительствами на политическом уровне и что технологические компании не видят в качестве ограничения для своих бизнес-моделей, не будет соответствовать тому, что необходимо для устранения рисков, связанных с ИИ

Это приведет к разрозненному подходу к тестированию основополагающих моделей ИИ, отсутствию согласия о том, как работать с ИИ с открытым и закрытым исходным кодом, а также к отсутствию требований к оценке влияния инструментов ИИ на население до их развертывания. 

Предлагаемое учреждение по типу Межправительственной группы экспертов по изменению климата (МГЭИК) для ИИ было бы полезным первым шагом на пути к общему глобальному научному пониманию технологии и ее социальных и политических последствий, но для этого потребуется время. и не собирается «исправлять» риски безопасности ИИ в одиночку, так же как МГЭИК не устранила изменение климата.

2) Инерционность

Внимание правительства ограничено, и как только ИИ перестанет быть «актуальной вещью», большинство лидеров перейдут к другим, более политически значимым приоритетам, таким как войны и глобальная экономика .

В результате большая часть необходимой срочности и приоритизации инициатив по управлению ИИ отойдет на второй план, особенно в тех случаях, когда их реализация требует от правительств жестких компромиссов. 

Как только внимание отвлечет внимание, потребуется серьезный кризис, чтобы снова выдвинуть этот вопрос на передний план.

3) Дезертирство

Крупнейшие заинтересованные стороны в области ИИ до сих пор решили сотрудничать в области управления ИИ, а сами технологические компании взяли на себя обязательства по соблюдению добровольных стандартов и ограничений.

 Но по мере того, как технологии развиваются и их огромные преимущества становятся самоочевидными, растущая привлекательность геополитических преимуществ и коммерческих интересов будет стимулировать правительства и компании отказываться от необязательных соглашений и режимов, к которым они присоединились, чтобы максимизировать свои выгоды, или вообще не присоединяться.

4) Технологическая скорость.

 Искусственный интеллект будет продолжать быстро совершенствоваться, а его возможности будут удваиваться примерно каждые шесть месяцев — в три раза быстрее, чем закон Мура. GPT-5, следующее поколение большой языковой модели OpenAI, должно выйти в этом году, но будет устареть из-за очередного, пока еще немыслимого прорыва, который произойдет через несколько месяцев. 

По мере того, как модели ИИ становятся экспоненциально более функциональными, сама технология опережает усилия по его сдерживанию в режиме реального времени.

Это подводит нас к основной проблеме управления ИИ: реагирование на ИИ заключается не столько в регулировании технологии (что выходит далеко за рамки правдоподобного сдерживания), сколько в понимании бизнес-моделей, способствующих ее расширению, а затем ограничении стимулов (капитализм, геополитика, человеческая изобретательность), которые продвигают ее в потенциально опасных направлениях. 

На этом фронте никакие механизмы управления в ближайшей перспективе не будут достигнуты. В результате получается Дикий Запад с искусственным интеллектом, напоминающий в значительной степени неуправляемый ландшафт социальных сетей, но с большим потенциалом причинения вреда.

На 2024 год выделяются два риска. 

Первый – это дезинформация. 

В год, когда четыре миллиарда человек придут на избирательные участки, генеративный ИИ будет использоваться отечественными и зарубежными субъектами, в частности Россией, чтобы влиять на избирательные кампании, разжигать раскол, подрывать доверие к демократии и сеять политический хаос в беспрецедентных масштабах. 

Резко разделенные западные общества, где избиратели все чаще получают доступ к информации из эхо-камер социальных сетей, будут особенно уязвимы для манипуляций. 

Кризис глобальной демократии сегодня с большей вероятностью будет вызван дезинформацией, созданной искусственным интеллектом и управляемой алгоритмами, чем каким-либо другим фактором.

Помимо выборов, дезинформация, созданная искусственным интеллектом, также будет использоваться для обострения текущих геополитических конфликтов, таких как войны на Ближнем Востоке и в Украине.

Кремлевские пропагандисты недавно использовали генеративный ИИ для распространения фейковых историй о президенте Украины Владимире Зеленском в TikTok, X и на других платформах, которые затем были названы республиканскими законодателями в качестве причин не поддерживать дальнейшую помощь США Украине.

 В прошлом году дезинформация о ХАМАСе и Израиле также распространялась со скоростью лесного пожара. Несмотря на то, что многое из этого произошло без ИИ, эта технология вот-вот станет основным фактором, определяющим быстрые политические решения. 

Смоделированные изображения, аудио и видео, усиленные в социальных сетях армиями ботов с искусственным интеллектом, будут все чаще использоваться комбатантами, их сторонниками и агентами хаоса для влияния на общественное мнение, дискредитации реальных доказательств и дальнейшего разжигания геополитической напряженности во всем мире.

Второй неминуемый риск – это распространение.

 Если до сих пор в сфере искусственного интеллекта доминировали США и Китай, то в 2024 году новые геополитические игроки — как страны, так и компании — смогут разрабатывать и приобретать прорывные возможности искусственного интеллекта.

 К ним относятся поддерживаемые государством модели на больших языках и передовые приложения для использования в разведке и национальной безопасности. 

Между тем, искусственный интеллект с открытым исходным кодом расширит возможности злоумышленников по разработке и использованию нового оружия и повысит риск несчастных случаев (даже если он также открывает непостижимые экономические возможности).

ИИ — это «серый носорог», и его положительные стороны легче предсказать, чем отрицательные. В этом году он может оказать или не оказать разрушительное влияние на рынки или геополитику, но рано или поздно это произойдет. 

Чем дольше ИИ остается неуправляемым, тем выше риск системного кризиса и тем сложнее правительствам будет наверстать упущенное.

Источник: «Eurasia Group»

Компания «Eurasia Group» —мировой лидер в области анализа политических рисков и консалтинга, представила обзор  «Главные риски 2024 года».

Top Risks — это ежегодный прогноз «Eurasia Group» о политических рисках, которые с наибольшей вероятностью проявятся в течение года.

Отчет за этот год был опубликован 8 января 2024 года.

 

Last Updated on 25.07.2024 by iskova