Искусственный интеллект, автономия и риск ядерной войны

ИИ, АВТОНОМИЯ И РИСК ЯДЕРНОЙ ВОЙНЫ

Повысят ли новые технологии, такие как искусственный интеллект, риск ядерной войны?

Мы живем в эпоху быстрых разрушительных технологических изменений, особенно в области искусственного интеллекта (ИИ). Поэтому зарождающийся процесс переориентации вооруженных сил для подготовки к будущему оцифрованному полю боя уже не является просто спекуляцией или научной фантастикой. «Технология ИИ» уже внедрена в военные машины, и мировые вооруженные силы далеко продвинулись в планировании, исследованиях и разработках, а во многих случаях и в развертывании возможностей с использованием ИИ.

ИИ не существует в вакууме. Сам по себе ИИ вряд ли изменит стратегическую игру. Скорее наоборот — он усилит дестабилизирующее воздействие передового оружия, тем самым увеличивая скорость ведения войны и сокращая сроки принятия решений. Дестабилизирующие эффекты военного ИИ могут усилить напряженность между державами, обладающими ядерным оружием, особенно между Китаем и США, но не по тем причинам, о которых вы думаете.

Как и в какой степени аугментация ИИ знаменует собой отход от автоматизации в ядерной сфере, которая насчитывает несколько десятилетий? Насколько трансформирующими являются эти разработки? И каковы потенциальные риски, связанные с объединением технологии ИИ с ядерным оружием?

Хотя мы не можем дать исчерпывающий ответ на все эти вопросы, только экстраполируя современные тенденции в развитии возможностей ИИ, однако, мы можем выявить потенциальные риски нынешней динамики и, таким образом, рассмотреть способы управления ими.

 

Возникновение взаимосвязи между ИИ и ядерным оружием


Стоит рассмотреть, как достижения в области технологий ИИ исследуются, разрабатываются и, в некоторых случаях, развертываются и функционируют в контексте более широкой архитектуры ядерного сдерживания —

  1. раннего предупреждения и разведки, наблюдения и рекогносцировки;
  2. командования и управления;
  3. систем доставки ядерного оружия;
  4. неядерных операций.

 

1. Раннее предупреждение и разведка, наблюдение и рекогносцировка

Машинное обучение ИИ может тремя способами количественно улучшить существующие системы раннего предупреждения и разведки, наблюдения и рекогносцировки.

Во-первых, машинное обучение в сочетании с облачными вычислениями, беспилотными летательными аппаратами (или дронами) и аналитикой больших данных может быть использовано для развертывания мобильных платформ разведки, наблюдения и рекогносцировки на географически больших расстояниях и в сложных, опасных условиях (например, в оспариваемых зонах недоступности/отрицания районов, в городских условиях противоповстанческой борьбы или в глубоководных районах) для обработки данных в реальном времени и предупреждения командиров о потенциально подозрительных или угрожающих ситуациях, таких как военные учения и подозрительные перемещения войск или мобильных ракетных установок.

Во-вторых, алгоритмы машинного обучения могут быть использованы для сбора, обработки и анализа больших объемов разведывательных данных (из открытых источников и засекреченных) для обнаружения взаимосвязей в разнородных (возможно, также противоречивых, скомпрометированных или иным образом манипулированных) наборах данных.

В-третьих, алгоритмическая обработка разведывательных данных может быть использована для поддержки командиров в предвидении (и, таким образом, более быстром упреждении) подготовки противника к ядерному удару.

Словом, ИИ может предложить людям-командирам, действующим в сложной и динамичной среде, значительно улучшенную ситуационную осведомленность и инструменты принятия решений, позволяя иметь больше времени для принятия обоснованных решений с потенциально стабилизирующим ответным воздействием.

 

2. Ядерное командование и управление

По сравнению с системами разведки и раннего предупреждения, влияние ИИ вряд ли окажет существенное воздействие на ядерное командование и управление, которые в течение нескольких десятилетий синтезировали автоматизацию, но не автономию.

Алгоритмы, лежащие в основе сложных автономных систем, сегодня слишком непредсказуемы, уязвимы (для кибер-атак), необъяснимы (проблема «черного ящика»), хрупки и близоруки, чтобы использовать их без надзора в критически важных областях.

На данный момент среди экспертов по ядерным вопросам и ядерных держав существует широкий консенсус в отношении того, что если бы технология даже и позволяла, всё равно принятие решений ИИ, непосредственно влияющих на функции ядерного командования и управления (т.е. решения о запуске ракет), не должно быть предварительно делегировано ИИ.

Сможет ли этот хрупкий консенсус противостоять растущему соблазну «преимущества первопроходца» в многополярном ядерном порядке, остается неясно. Смогут ли люди-командиры (предрасположенные к антропоморфизации субъектов, когнитивной разгрузке и предвзятости автоматизации) избежать искушения рассматривать ИИ как панацею от когнитивных недостатков человеческого принятия решений, также неясно.

  • Поэтому вопрос, возможно, заключается не столько в том, будут ли государства, обладающие ядерным оружием, внедрять технологии ИИ в ядерное предприятие, сколько в том, кто, когда и в какой степени.

 

3. Ядерные и неядерные системы доставки ракет

Технология ИИ, вероятно, повлияет на системы доставки ядерного оружия несколькими способами. Во-первых, алгоритмы машинного обучения могут быть использованы для повышения точности, навигации (заранее запрограммированные параметры наведения), автономности (функция «выстрелил и забыл») ракет и высокоточности — в основном в сочетании с гиперзвуковыми глайдерами. Например, китайский маневренный гиперзвуковой планерный аппарат DF-ZF является прототипом двойного назначения (с ядерным и обычным вооружением) с автономной функциональностью.

Во-вторых, это может повысить устойчивость и живучесть ядерных пусковых платформ к контрмерам противника, таким как глушение радиоэлектронной борьбы или кибератаки — то есть, автономные усовершенствования ИИ устранят существующие уязвимости каналов связи и передачи данных между пусковыми установками и операторами.

В-третьих, увеличенная выносливость беспилотных платформ с усиленным ИИ (т.е. беспилотных подводных аппаратов и беспилотных боевых самолетов), используемых в расширенных миссиях разведки, рекогносцировки и наблюдения, которыми нельзя управлять дистанционно, может потенциально увеличить их способность противостоять контрмерам и уменьшить страх государств перед ядерным «обезглавливанием». Это особенно актуально для асимметричных ядерных диад, таких как США-Россия, Индия-Пакистан и США-Китай. ИИ и автономность могут также усилить потенциал второго удара государств — и, следовательно, сдерживания — и даже поддержать управление эскалацией во время кризиса или конфликта.

4. Обычные контрсиловые операции

ИИ может быть использован для усиления ряда обычных возможностей с потенциально значимыми стратегическими последствиями — особенно стратегических неядерных вооружений, используемых в обычных контрсиловых операциях.

Машинное обучение может повысить уровень бортового интеллекта пилотируемых и беспилотных истребителей, тем самым увеличивая их способность пробивать оборону противника с помощью обычных высокоточных боеприпасов.

Более того, повышение уровня автономности с помощью ИИ может позволить беспилотным летательным аппаратам (возможно, в составе роев) действовать в условиях, которые до сих пор считались недоступными или слишком опасными для пилотируемых систем (например, в зонах недоступности и зонах отказа, глубоководных районах и космическом пространстве).

Азербайджано-армянская война 2021 года и недавний украинско-российский конфликт продемонстрировали, как малые государства могут интегрировать новые системы оружия для повышения эффективности и смертоносности на поле боя.

Методы машинного обучения могут существенно повысить способность систем противоракетной, воздушной и космической обороны к обнаружению, отслеживанию, наведению на цель и перехвату.

Хотя технология ИИ была интегрирована с автоматическим распознаванием целей для поддержки систем обороны еще с 1970-х годов, скорость идентификации целей системами обороны (из-за ограниченной базы данных сигнатур целей, которые система автоматического распознавания целей использует для распознавания своей цели) прогрессировала медленно.

Достижения в области ИИ и, в частности, генеративные состязательные сети (generative adversarial networks) могут уменьшить это техническое узкое место, генерируя реалистичные синтетические данные для обучения и тестирования систем автоматического распознавания целей. Кроме того, рои автономных беспилотников могут быть использованы также в оборонительных целях (например, в качестве ложных целей или летающих мин) для усиления традиционной противовоздушной обороны.

Технология ИИ также меняет способы разработки и эксплуатации кибернетических средств (как наступательных, так и оборонительных).

С одной стороны, ИИ может снизить уязвимость армии к кибератакам и операциям радиоэлектронной борьбы. Средства киберзащиты и средства защиты от помех, разработанные ИИ, например, для распознавания изменений в поведении и аномалий в сети и автоматического выявления вредоносных программ или уязвимостей программного кода, могут защитить ядерные системы от кибервзломов и помех.

С другой стороны, достижения в области машинного обучения ИИ (в частности, увеличение скорости, скрытности и анонимности кибервойны) могут позволить выявлять уязвимости противника «нулевого дня» — то есть необнаруженные или неустраненные уязвимости программного обеспечения.

Мотивированные противники могут также использовать вредоносное ПО для того, чтобы взять под контроль, манипулировать или обмануть поведение и системы распознавания образов автономных систем, таких как Project Maven — например, использование генеративных сетей противника для создания синтетических и реалистичных данных представляет угрозу как для машинного обучения, так и для основанных на правилах форм обнаружения атак.

Словом, технология ИИ в ядерной сфере, вероятно, будет обоюдоострым мечом: укрепление ядерных систем с одновременным расширением путей и средств, доступных противникам для проведения кибератак и операций радиоэлектронной борьбы против этих самых систем (например, дополненное ИИ «Left of Launch»).

СПРАВКА

Программа Left of Launch

Программа Пентагона Left of Launch нацелена на нейтрализацию ракетной угрозы еще до запуска ракет противника. Программа основана на упреждающем ударе с использованием новых некинетических технологий – таких как электромагнитное излучение, кибератаки, установка электронных жучков, нарушение систем связи и управления, систем наведения баллистических ракет, саботаж и диверсии. Ставка делается на использовании технологий искусственного интеллекта.

Стратегия Left of Launch также лежит в основе стратегии британской противоракетной обороны. В частности, она является одним из главных направлений деятельности специалистов Центра противоракетной обороны Великобритании (UK Missile Defence Centre). Они изучают использование направленной энергии против баллистических или гиперзвуковых систем на стартовом этапе. И считают, что данная стратегия будет применима для нейтрализации угрозы от гиперзвуковых планирующих блоков.

(источник: ng.ru )

Наконец, достижения в технологии ИИ могут способствовать повышению физической безопасности ядерного оружия, особенно против угроз, исходящих от сторонних и негосударственных субъектов. Автономные транспортные средства (например, «роботы-саботажники») могут быть использованы, например, для защиты ядерных сил государств, патрулирования параметров чувствительных объектов или формирования вооруженных автоматизированных систем наблюдения (например, южнокорейский роботизированный часовой Super Aegis II, включающий полностью автономный режим) вдоль уязвимых границ.

Технологии ИИ — в сочетании с другими новыми технологиями, такими как аналитика больших данных и системы раннего предупреждения и обнаружения — также могут быть использованы для создания новых решений в поддержку ядерных рисков и усилий по нераспространению; например, устранение необходимости в инспекторах «на местах» на чувствительных объектах для поддержки механизмов невмешательства в соглашения о проверке контроля над вооружениями.

 

«Молниеносная война» 2025 года в Тайваньском проливе [вымышленный сценарий] 


Как возможности ИИ могут усилить кризис между двумя противниками, обладающими ядерным оружием?

Рассмотрим следующий вымышленный контрфакт: утром 12 декабря 2025 года политические лидеры Пекина и Вашингтона санкционировали обмен ядерными ударами в Тайваньском проливе. Независимые расследователи «молниеносной войны» 2025 года выразили уверенность в том, что ни одна из сторон не применила «полностью автономное» оружие с искусственным интеллектом и не нарушила право  вооруженных конфликтов.

  • Вооружённый конфликт — одна из форм разрешения межгосударственных и внутригосударственных противоречий посредством ограниченного применения военной силы государствами или противостоящими сторонами в пределах территории одного государства, при которой государства (государство), участвующие (участвующее) в конфликте, не переходят (не переходит) в состояние войны. Другими словами, вооружённый конфликт — это военный конфликт с ограниченным применением военной силы.
    (из Википедии)

В 2024 году на выборах, где доминировали нестабильные отношения острова с коммунистическим Китаем, президент Цай Ин-вэнь, в очередной раз сильно уступив Пекину, одержала убедительную победу, обеспечив демократам, выступающим за независимость, третий срок.

С наступлением середины 2020-х годов напряженность через проливы продолжала накаляться, поскольку обе стороны — заложники жесткой линии политиков и генералов-«ястребов» — сохраняли бескомпромиссные позиции, отказываясь от дипломатических жестов, и разжигали эскалацию риторики, фальшивых новостей и кампаний по дезинформации.

В то же время, Китай и США развернули ИИ для обеспечения осведомленности о поле боя, разведки, наблюдения и рекогносцировки, раннего предупреждения и других инструментов поддержки принятия решений — чтобы предсказывать и предлагать тактические ответы на действия противника в режиме реального времени. 

К концу 2025 года быстрое улучшение точности, скорости и потенциала прогнозирования коммерческих приложений ИИ двойного назначения убедило великие военные державы не только использовать жаждущие данных средства машинного обучения для улучшения тактических и оперативных маневров, но и во все большей степени для обоснования стратегических решений.

Под впечатлением от раннего принятия и внедрения Россией, Турцией и Израилем инструментов ИИ для поддержки автономных роев беспилотников, чтобы обойти и подавить вторжения террористов на своих границах, Китай синтезировал последние итерации ИИ двойного назначения, пожертвовав тщательным тестированием и оценкой в гонке за первенство.

Поскольку китайские военные вторжения — пролеты самолетов, учения по блокаде островов и операции по наблюдению с помощью беспилотников — в Тайваньском проливе ознаменовали резкую эскалацию напряженности, лидеры Китая и США потребовали немедленного внедрения новейших стратегических ИИ, чтобы получить максимальное асимметричное преимущество в масштабе, скорости и смертоносности. По мере того как зажигательная риторика в социальных сетях, усугубляемая кампаниями по дезинформации и кибервзломами на командно-контрольные сети, достигала накала с обеих сторон, хор голосов заявлял о немедленной необходимости насильственного объединения Тайваня Китаем.

Воодушевленные эскалацией ситуации, разворачивающейся в Тихом океане, и незавершенностью процессов тестирования и оценки, Соединенные Штаты решили ускорить ввод в эксплуатацию прототипа автономной системы стратегического прогнозирования и рекомендаций (SPRS), работающей на основе искусственного интеллекта, для поддержки принятия решений в нелетальных видах деятельности, таких как логистика, кибернетика, обеспечение космической безопасности и управление энергоресурсами.

Китай, опасаясь потерять асимметричное превосходство, запустил аналогичную систему поддержки принятия решений «Strategic & Intelligence Advisory System» (SIAS), чтобы обеспечить автономную готовность к любому кризису.

14 июня 2025 года, в 06:30, патрульный катер тайваньской береговой охраны столкнулся с китайским автономным морским аппаратом, выполнявшим разведывательную миссию в территориальных водах Тайваня, и потопил его. Накануне президент Цай принимала в Тайбэе высокопоставленную делегацию сотрудников Конгресса США и чиновников Белого дома с дипломатическим визитом высокого уровня.

К 06:50 последовавший за этим каскадный эффект, усиленный ботами с искусственным интеллектом, глубокими подделками и ложными операциями, значительно превысил заранее установленный Пекином порог, а значит, и возможности сдерживания.

К 07:15 эти информационные операции совпали с всплеском кибервзломов, направленных против Индо-Тихоокеанского командования США и тайваньских военных систем, оборонительными маневрами орбитальных китайских противокосмических средств, активизацией автоматизированных систем материально-технического обеспечения Народно-освободительной армии и подозрительным перемещением пусковых установок ядерных автотранспортных установок НОАК.

В 07:20 американская СПРН оценила такое поведение как надвигающуюся серьезную угрозу национальной безопасности и рекомендовала усилить позицию сдерживания и провести мощную демонстрацию силы.

В 07:25 Белый дом санкционировал пролет автономного стратегического бомбардировщика в Тайваньском проливе.

В ответ в 07:35 китайская система SIAS уведомила Пекин об увеличении нагрузки на связь между Индо-Тихоокеанским командованием США и важнейшими командными и коммуникационными узлами в Пентагоне.

В 07:40 SIAS повысила уровень угрозы для превентивного удара США в Тихом океане с целью защиты Тайваня, нападения на удерживаемую Китаем территорию в Южно-Китайском море и сдерживания Китая.

В 07:45 SIAS рекомендовала китайским лидерам использовать обычное оружие противодействия (кибернетическое, противоспутниковое, гиперзвуковое оружие и другие интеллектуальные высокоточные ракетные технологии) в ограниченном превентивном ударе по важнейшим объектам США в Тихом океане, включая базу ВВС США на Гуаме.

В 07:50 китайское военное руководство, опасаясь неизбежного обезоруживающего удара США и все больше полагаясь на оценки SIAS, санкционировало атаку, которую SIAS уже предвидела и, следовательно, планировала и готовилась к ней.

В 07:55 SPRS предупредила Вашингтон о неизбежном нападении и рекомендовала немедленно нанести ограниченный ядерный удар, чтобы заставить Пекин прекратить наступление. После ограниченного американо-китайского атомного обмена в Тихом океане, в результате которого погибли миллионы людей и десятки миллионов получили ранения, обе стороны договорились о прекращении военных действий.

Сразу после смертельной конфронтации, длившейся всего несколько часов, в результате которой погибли миллионы людей и еще больше было ранено, лидеры обеих сторон были ошеломлены тем, что стало настоящей причиной «молниеносной войны».

Обе стороны пытались задним числом восстановить подробный анализ решений, принятых SPRS и SIAS.

Однако разработчики алгоритмов, лежащих в основе SPRS и SIAS, сообщили, что невозможно объяснить обоснование решений и рассуждения ИИ, стоящие за каждым решением подмножества. Кроме того, из-за различных ограничений по времени, шифрованию и конфиденциальности, налагаемых конечными военными и бизнес-пользователями, невозможно было вести журналы и протоколы обратного тестирования.

Таким образом, стала ли именно технология ИИ истинной причиной вымышленной «молниеносной войны» 2025 года?

 

Человеческие решения проблемы машин


В конечном итоге, лучшим способом подготовки к ядерному будущему с ИИ может стать соблюдение нескольких основных принципов, которыми следует руководствоваться при управлении ядерным оружием в его взаимодействии с новыми технологиями.

Во-первых, системы ядерного оружия не должны быть излишне сложными и запутанными.

Во-вторых, такие системы должны быть достаточно прочными и надежными, чтобы противостоять традиционным угрозам и растущим новым угрозам, возникающим в цифровой сфере.

В-третьих, ядерное оружие должно быть отделено и, по возможности, четко отделено (как физически, так и доктринально) от неядерного потенциала и систем командования, управления, связи и разведки. Если следовать этому принципу, то, скорее всего, будет исключено существование систем двойного назначения, описанных выше в виньетке (сценарии) о «молниеносной войне».

Для достижения этих высоких целей ИИ также может помочь специалистам по оборонному планированию в разработке и проведении варгейминга и других виртуальных учений для отработки оперативных концепций, тестирования различных сценариев конфликтов и определения областей и технологий для потенциального развития.

Например, методы ИИ машинного обучения — моделирование, имитация и анализ — могут дополнить контрфактические модели и низкотехнологичные настольные симуляторы военных действий для определения непредвиденных обстоятельств, при которых может возникнуть ядерный риск.

Как писал Алан Тьюринг в 1950 году:

  • «Мы можем видеть только небольшое расстояние вперед, но мы видим там много того, что нужно сделать».

 

29/07/2022

Источник War On The Rocks

AI, Autonomy, and the Risk of Nuclear War

Last Updated on 29.07.2022 by iskova