Шахматная мысль и военные технологии ИИ

СЛАБЫЙ ЧЕЛОВЕК — МОЩНАЯ СИЛА: ПРИМЕНЕНИЕ ПРОДВИНУТЫХ ШАХМАТ В ВОЕННЫХ РАЗРАБОТКАХ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Гари Каспаров (один из величайших шахматистов всех времен) разработал продвинутые шахматы после того, как в 1997 году проиграл матч суперкомпьютеру Deep Blue компании IBM. Продвинутые шахматы сочетают вычислительную точность машинных алгоритмов с интуицией человека. Эксперименты Каспарова, схожие по концепции с пилотируемыми и беспилотными командами или «моделью кентавра», имеют важные последствия для использования ИИ военными.

В 2005 году на одном из шахматных сайтов был проведен турнир по продвинутым шахматам, в котором мог принять участие любой желающий. Невероятно, но победителями турнира стали не гроссмейстеры и их машины, а два шахматных любителя, использующие три разных компьютера.

Каспаров на это заметил: «Их умение управлять и «тренировать» свои компьютеры для глубокого изучения шахматных позиций вполне эффективно противостояло превосходному шахматному пониманию их оппонентов-гроссмейстеров и большей вычислительной мощности других участников».

Каспаров пришел к выводу, что:

Комбинация «слабый шахматист + машина + лучший алгоритм принятия решения» оказалась сильнее мощного компьютера и, что еще интереснее, сильнее комбинации «сильный шахматист + машина + худший алгоритм принятия решения».

Гарри Каспаров. «Человек и компьютер. Взгляд в будущее«

Этот вывод стал позже известен как «закон Каспарова».

Поскольку Министерство обороны США стремится более эффективно использовать искусственный интеллект, «Закон Каспарова» может помочь в разработке архитектуры управления и подготовки военнослужащих, которые будут использовать ИИ.

Закон Каспарова предусматривает, что для эффективного взаимодействия человека и машины операторы должны хорошо знать свои машины (быть обученными) и понимать, как лучше их использовать.

Будущие конфликты будут выигрывать не те силы, которые обладают самой высокой вычислительной мощностью, самой передовой конструкцией микросхем или лучшей тактической подготовкой, а те, кто наиболее успешно используют новые алгоритмы для дополнения принятия решений человеком.

Чтобы достичь этого, американским военным необходимо найти, набрать и суметь удержать людей, которые не только понимают данные и компьютерную логику, но и могут в полной мере  их использовать.

Вступительные экзамены, общая военная подготовка и профессиональное военное образование должны быть усовершенствованы с учетом всего вышеизложенного.

 

Построение лучшего процесса

Ключевая мысль Каспарова заключалась в том, что для построения «лучшего процесса» необходим  знающий человек в человеко-машинном взаимодействии. Если операторы не понимают правил и ограничений своих партнеров (ИИ), они будут задавать неправильные вопросы или командовать неправильными действиями.

У Каспарова «слабый человек» вовсе не означает, что он неумелый или необученный. «Слабый человек» понимает правила компьютера. Оба любителя, победившие в шахматном матче 2005 года, использовали свое знание правил, чтобы задавать правильные вопросы правильным образом.

Эти любители не были гроссмейстерами или экспертами с продвинутыми стратегиями. Но они смогли оперировать данными, которые им предоставили компьютеры, чтобы раскрыть планы своих противников и рассчитать правильные ходы. Другими словами, они использовали компьютер для выполнения роли специалиста или эксперта и для обоснования процесса принятия решений.

Количество и типы сенсоров, поступающих в глобальные сети, быстро растут.

Как и в шахматах, алгоритмы могут просеивать, сортировать и организовывать данные разведки, чтобы человеку было легче их интерпретировать. Алгоритмы ИИ могут находить закономерности и вероятности, в то время как люди определяют контекстуальное значение для разработки стратегии.

Важнейший вопрос заключается в том, как лучше всего произвести расстановку и обучение людей, чтобы они могли делать это наиболее эффективно.

 

Знание и доверие

Когда люди-операторы не знакомы с системами, оснащенными ИИ, они часто страдают от слишком малого или слишком большого доверия к ним.

Для того чтобы научить военных операторов правильно использовать ИИ, необходимо ознакомить их с ограничениями системы и привить им необходимый уровень доверия. Это особенно важно в ситуациях жизни и смерти, когда человек-оператор должен решить, когда отключить или отменить ИИ.

Уровень доверия к ИИ зависит от зрелости и доказанной эффективности системы. Когда системы ИИ находятся на стадии разработки или тестирования, операторы-люди должны быть хорошо осведомлены об ограничениях и поведении машины, чтобы они могли управлять ею в случае необходимости.

Но все меняется по мере того, как ИИ становится всё более надежным.

Рассмотрим внедрение автоматической системы предотвращения столкновений с землей (auto-GCAS) на истребителях F-16. Внедрение системы тормозилось из-за неприятных «подтягиваний», когда ИИ без необходимости брал на себя управление полетом во время первых летных испытаний и эксплуатации.

Недоверие, которое это вызвало у пилотов, было вполне объяснимо. По мере распространения информации в сообществе F-16, многие пилоты стали полностью отключать систему. Но по мере того, как технология становилась все более надежной, это недоверие само по себе стало проблемой, не позволяя пилотам использовать преимущества проверенного алгоритма спасения жизни.

Теперь новые пилоты гораздо больше доверяют системе. Лейтенант Дэвид Алман, пилот Национальной гвардии ВВС, проходящий летную подготовку на F-16, сказал авторам статьи, что «я думаю, что средний курсант курса «В» (B-course) отдает огромное предпочтение этой системе [auto-GCAS]». Другими словами, как только система будет отработана, необходимость столь в тщательном обучении будущих летных экипажей поведению своей машины, а нужно будет  учить их доверять ей.

Потребовалось несколько политических мандатов и кадровых перестановок, прежде чем пилоты F-16 начали летать с включенным авто-GCAS во время большинства миссий. Сегодня Агентство перспективных оборонных проектов и ВВС США пытаются автоматизировать некоторые элементы воздушного боя в рамках программы Air Combat Evolution.

В рамках данной программы оценивается доверие пилотов, когда они работают в команде с агентами искусственного интеллекта. Выяснилось, что из-за личного предвзятого недоверия к системе, один из пилотов отключал агент ИИ ещё до того, как тот успевал выполнить свою функцию.

Такое поведение сводит на нет преимущества, которые призваны обеспечить алгоритмы ИИ. Программы переподготовки могут помочь, но если человек-оператор продолжает без причины управлять своими агентами ИИ, военные должны быть готовы отстранить его от участия в процессах, содержащих взаимодействие с ИИ.

В то же время излишняя уверенность в ИИ также может стать проблемой. «Предвзятое отношение к автоматизации» или чрезмерное доверие к автоматизированным процессам возникает тогда, когда пользователи не знают о пределах возможностей своего ИИ.

Например, при крушении самолета Air France 447 пилоты страдали от когнитивного диссонанса после того, как во время грозы вдруг отключился автопилот. Они не поняли, что дроссели двигателей, физическое положение которых не имеет значения при включенном автопилоте, были установлены на холостом ходу. Когда пилоты потянули на себя ручки управления, они ожидали, что двигатели ответят ревом мощности, как это происходит при нормальном управлении дросселями автопилота. Вместо этого обороты двигателей постепенно снизились и скорость самолета пошла на спад. Через несколько минут самолет Air France 447, полностью заглохнув, упал в Атлантику.

 

Определение и расстановка правильных талантов

Правильная подготовка людей-операторов требует не только определения зрелости системы, но и разграничения между тактическими и стратегическими формами ИИ.

  • В тактическом применении, таком как самолеты или системы противоракетной обороны, машина может реагировать на ситуацию быстрее, чем человек, что вынуждает человека полностью довериться системе и позволить ей действовать автономно.
  • В стратегических или оперативных ситуациях, напротив, ИИ пытается определить намерения противника, которые охватывают более широкие временные рамки и более неоднозначные данные. В результате, аналитики, которые зависят от результатов работы ИИ, должны быть знакомы с его внутренними механизмами, чтобы воспользоваться преимуществами его превосходных возможностей по обработке данных и поиску закономерностей.

Рассмотрим тактическое применение ИИ в воздушном бою.

Например, беспилотники могут работать в полуавтономном или полностью автономном режимах. В таких ситуациях люди-операторы должны проявлять сдержанность в контроле, известную как благотворное невмешательство человека, позволяющее штурману ИИ функционировать без помех.

В пилотируемых самолетах вспомогательные программы ИИ могут предлагать пилоту пошаговые инструкции для преодоления приближающейся угрозы (подобно приложению Waze для водителей автомобилей).

Датчики, установленные вокруг истребителя, обнаруживают инфракрасные, оптические и электромагнитные сигнатуры, вычисляют направление прибытия и режим наведения угрозы и советуют пилоту наилучший курс действий.

В некоторых случаях ИИ-пилот может даже взять управление самолетом на себя, если время реакции человека слишком мало, как в случае с автоматическими системами предотвращения столкновения с землей.

Когда сроки сжаты, а тип соответствующих данных узок, операторам-людям не нужно быть настолько знакомыми с поведением системы, особенно после того, как она проверена или сертифицирована. Не имея времени на то, чтобы судить или сомневаться в поведении искусственного интеллекта, они просто должны знать и доверять его возможностям.

Однако требования будут другими, когда ИИ постепенно начнет играть все большую роль в стратегических процессах, таких как сбор и анализ разведывательной информации. Когда ИИ используется для агрегирования более широкого спектра, казалось бы, разрозненных данных, понимание его подхода имеет решающее значение для оценки его результатов.

Рассмотрим следующий сценарий:

  • Система мониторинга ИИ сканирует сотни бюллетеней по техническому обслуживанию нефтеперерабатывающих заводов и замечает, что несколько государственных нефтяных компаний во враждебной стране объявляют о планах по закрытию нефтеперерабатывающих заводов на «плановое техническое обслуживание» в определенный период.
  • Затем, просмотрев тысячи грузовых деклараций, он обнаруживает, что несколько танкеров, отправляющихся из этой страны, столкнулись с задержками при погрузке своего груза. Затем ИИ сообщает, что данная страна создает условия для экономического шантажа.
  • На данном этапе человеческий аналитик мог бы лучше оценить этот вывод, если бы знал, какие виды задержек выявила система, насколько необычны эти формы задержек и существуют ли другие политические или экологические факторы, которые могли бы их объяснить.

 

Следующие шаги

В случае с необученными операторами эффекты ИИ по увеличению мощности могут быть сведены на нет теми самыми людьми, которым они призваны помочь. Чтобы избежать этого, война с преобладанием алгоритмов требует обновления методов отбора и сортировки военных кадров.

Такие тесты, как отборочные авиационные тесты ВМС (Navy’s Aviation Selection Test Battery), квалификационные испытания офицерского состава ВВС (Air Force’s Officer Qualification Test) или тесты по профессиональной подготовке для поступающих на военную службу (Armed Services Vocational Aptitude Battery, ASVAB), оценивают успеваемость кандидата по целому ряду предметов.

Поскольку машины заменяют некоторые виды людских ресурсов, военным необходимо вырабатывать новые навыки, в частности, способность осваивать рабочие системы, процессы и программирование.  Изменение вступительных экзаменов с целью внедрения проверки навыков интерпретации данных и способности понимать логику машин было бы ценным первым шагом на этом пути.

Сертификация разработчиков Google или сертификация веб-сервисов Amazon предлагают полезные модели, которые военные могли бы у себя адаптировать. Армия также должна поощрять призывников и военнослужащих за прохождение обучения в смежных областях на уже доступных платформах, таких как массовые открытые онлайн-курсы.

Для тех, кто уже служит, министр обороны должен способствовать развитию соответствующих навыков путем приоритетного конкурсного отбора на курсы, специализирующиеся на понимании систем ИИ.

Существующие примеры включают программу Стэнфордского университета по изучению символьных систем (Stanford University’s Symbolic Systems Program), курс «Акселератор ИИ» Массачусетского технологического института (the Massachusetts’s Institute of Technology AI Accelerator course) и курс «Использование ИИ» военно-морской аспирантуры академии ВМС США (Naval Postgraduate School’s “Harnessing AI” course).

Армия также может разработать новые программы на базе таких учебных заведений, как Военно-морской общественный колледж или Военно-морская аспирантура, и наладить партнерские отношения с гражданскими учебными заведениями, которые уже предлагают высококачественное образование в области искусственного интеллекта.

Включение грамотности в области ИИ в курсы профессионального военного образования и предложение стимулов для прохождения факультативов по ИИ также будет весьма полезным. Инициатива ВВС по изучению компьютерных языков, которая теперь отражена в разделе 241 Закона о полномочиях в области национальной обороны на 2021 год, представляет собой важный первый шаг.

Зарождающиеся усилия всех служб должны быть расширены, чтобы предлагать коммерчески значимые возможности профессионального обучения на всех этапах карьеры военнослужащего.

Искусственный интеллект быстро разрушает традиционный анализ и становится средством повышения эффективности для людей, позволяя им сосредоточиться на организации работы, не отвлекаясь на  мелочи заученных и повторяющихся задач.

ИИ также может вытеснить некоторые существующие специализации, освободив людей для задач, которые лучше всего подходят именно для людей.

Понимание «Закона Каспарова» может помочь армии воспитать востребованные кадры, чтобы в полной мере воспользоваться преимуществами такого прогресса.

7 ИЮЛЯ 2022 ГОДА

Источник: War On The Rocks

Авторы: Тревор Филлипс-Левин, Майкл Канаан, Дилан «Джоуз » Филлипс-Левин, Уокер Д. Миллс и Ноа Спатаро

Тревор Филлипс-Левин — морской летчик и офицер отделения объединенной ближней авиационной поддержки ВМС. Он является соавтором нескольких статей об автономных или дистанционно пилотируемых платформах, опубликованных Центром международной морской безопасности, журналом U.S. Naval Institute Proceedings и Modern Warfare Institute. С ним можно связаться через LinkedIn или Twitter.

Майкл Канаан является научным сотрудником начальника штаба ВВС США в Гарвардской школе Кеннеди. Он также является автором книги «T-Minus AI: обратный отсчет человечества до искусственного интеллекта и новое стремление к глобальной власти». Вы можете найти его на LinkedIn и в Twitter.

Дилан Филлипс-Левин — военно-морской летчик и старший редактор Центра международной морской безопасности.

Уолкер Д. Миллс — офицер морской пехоты, в настоящее время служит по обмену в Колумбийской военно-морской академии в Картахене, Колумбия. Он также является внештатным сотрудником Центра инноваций и современной войны имени Брута Крулака и внештатным сотрудником Инициативы нерегулярных войн. Является автором многочисленных статей для таких изданий, как War on the Rocks, Proceedings и Marine Corps Gazette.

Ноа «Спул» Спатаро — начальник отдела, занимающийся оценкой совместного всеохватывающего командования и управления в Объединенном штабе. Его опыт охватывает такие темы, как переход на технологии двойного назначения и требования к ним, создание и командование эскадрильей дистанционно пилотируемых самолетов, а также командование и управление авиацией. Он является выдающимся выпускником Колледжа информации и киберпространства Национального университета обороны.

Позиции, выраженные здесь, принадлежат лично авторам и не являются официальной позицией Министерства обороны или какого-либо подразделения правительства США.

Last Updated on 09.07.2022 by iskova