СОЗДАН ЛИ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ПО ОБРАЗУ И ПОДОБИЮ ЧЕЛОВЕЧЕСТВА?
УРОКИ ДЛЯ ВОЕННОГО ОБРАЗОВАНИЯ С ИСПОЛЬЗОВАНИЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Искусственный интеллект не похож на нас. При всем многообразии применений ИИ человеческий интеллект не рискует утратить свои наиболее характерные черты по сравнению со своими искусственными творениями.
Тем не менее, когда приложения ИИ применяются в вопросах национальной безопасности, они часто подвергаются тенденции антропоморфизации, которая неуместно ассоциирует интеллектуальные способности человека с машинами, оснащенными ИИ.
Строгое военное образование в области ИИ должно признать, что такое антропоморфирование является иррациональным и проблематичным, отражая плохое понимание как человеческого, так и искусственного интеллекта.
Наиболее эффективным способом смягчения этого антропоморфного предубеждения является изучение человеческого познания — когнитивная наука.
В данной статье рассматриваются преимущества использования когнитивной науки в рамках обучения искусственному интеллекту в западных военных организациях.
Военные организации, перед которыми стоит задача обучения и подготовки персонала в области ИИ, должны донести до людей не только то, что антропоморфное предубеждение существует, но и то, что его можно преодолеть, чтобы обеспечить лучшее понимание и развитие систем с поддержкой ИИ.
Такое улучшение понимания будет способствовать как восприятию надежности систем ИИ людьми-операторами, так и исследованиям и разработкам искусственно интеллектуальных военных технологий.
Для военнослужащих базовое понимание человеческого интеллекта позволит им правильно оценивать и интерпретировать результаты демонстраций ИИ, понимать текущую природу систем ИИ и их возможные траектории, а также взаимодействовать с системами ИИ таким образом, чтобы глубоко ценить человеческие и искусственные возможности.
Искусственный интеллект в военном деле
Значение ИИ для военного дела становится предметом все более пристального внимания экспертов по национальной безопасности. Предвестники «новой революции в военном деле» наперебой рассказывают о бесчисленных способах, которыми системы ИИ изменят ведение войн и структуру вооруженных сил.
От «микросервисов», таких как беспилотные автомобили, ведущие разведывательное патрулирование, до роев смертоносных автономных дронов и даже машин-шпионов, ИИ представляется как всеобъемлющая, меняющая ход событий технология.
По мере того как важность ИИ для национальной безопасности становится все более очевидной, растет и необходимость в строгом обучении и подготовке военнослужащих, которые будут взаимодействовать с этой технологией.
В последние годы наблюдается всплеск комментариев на эту тему. Многие подчеркивают важность образования и доверия к ИИ в военных организациях.
Поскольку война и другие военные действия в своей основе являются человеческими усилиями, требующими выполнения любого количества задач на поле боя и за его пределами, от ИИ в военном деле будет ожидание, что он будет выполнять такие задачи, как минимум, так же хорошо, как люди.
До тех пор, пока программы, использующие ИИ, будут предназначены для выполнения характерных для человека военных функций — от, возможно, более простых задач, таких как распознавание целей, до более сложных задач, таких как определение намерений субъектов, — доминирующим стандартом, используемым для оценки их успехов или неудач, будет то, как люди выполняют эти задачи.
Однако, это ставит проблему перед военным образованием — как именно следует разрабатывать, оценивать и воспринимать ИИ во время операции, если они призваны заменить или даже сопровождать человека?
Решение этой проблемы означает выявление антропоморфной предвзятости в ИИ.
Антропоморфизация ИИ
Выявление тенденции к антропоморфизации ИИ в военных вопросах не является новым наблюдением.
Командующий ВМС США Эдгар Джато и исследователь Военно-морской аспирантуры Джошуа А. Кролл утверждают, что ИИ часто «слишком хрупок, чтобы воевать». На примере автоматизированной системы распознавания целей они пишут, что описание такой системы как участвующей в «распознавании» фактически «антропоморфизирует алгоритмические системы, которые просто интерпретируют и повторяют известные шаблоны».
Однако, акт распознавания человеком включает в себя отдельные когнитивные шаги, происходящие в координации друг с другом, включая визуальную обработку и память. Человек может даже решить рассуждать о содержании изображения таким образом, который не имеет прямого отношения к самому изображению, но имеет смысл для распознавания цели. Результатом этого является надежное суждение об увиденном даже в новых сценариях.
Система распознавания целей с помощью ИИ, напротив, в значительной степени зависит от существующих данных или программ, которые могут оказаться недостаточными для распознавания целей в новых сценариях. Эта система не работает над обработкой изображений и распознаванием целей в них, как человек. Антропоморфизация этой системы означает чрезмерное упрощение сложного процесса распознавания и переоценку возможностей систем распознавания целей ИИ.
Если рассматривать и определять ИИ как аналог человеческого интеллекта — как технологию, призванную делать то, что люди обычно делают сами, — то конкретные примеры ИИ «оцениваются по [их] способности воспроизводить умственные навыки человека», как выразились Де Шпигелейр, Маас и Свейс.
Существует множество коммерческих примеров. Такие приложения ИИ, как Watson от IBM, SIRI от Apple и Cortana от Microsoft, превосходят друг друга в обработке естественного языка и голосовой реакции — способностях, которые мы измеряем в сравнении с обработкой человеческого языка и общением.
Даже в рассуждениях о военной модернизации, ИИ для игры в го «AlphaGo» привлек внимание высокопоставленных чиновников Народно-освободительной армии Китая, когда в 2016 году он победил профессионального игрока в го Ли Седоля.
Как отмечает Эльза Кания в докладе об ИИ и военной мощи Китая, победы AlphaGo рассматривались некоторыми китайскими чиновниками как «поворотный момент, продемонстрировавший потенциал ИИ для проведения сложного анализа и выработки стратегии, сравнимой с той, которая требуется для ведения войны».
Но, подобно атрибутам, спроецированным на систему распознавания целей ИИ, некоторые китайские чиновники навязали AlphaGo слишком упрощенную версию стратегии и тактики военного времени (и человеческого познания, на основе которого они возникают). Один из стратегов фактически отметил, что «игра го и военные действия очень похожи».
Что не менее важно, тот факт, что AlphaGo была антропоморфизирована комментаторами как в Китае, так и в Америке, означает, что тенденция к чрезмерному упрощению человеческого познания и переоценке ИИ является межкультурной (cross-cultural).
Легкость, с которой человеческие способности проецируются на системы ИИ, подобные AlphaGo, кратко описана исследователем ИИ Элиэзером Юдковски: «Антропоморфное предубеждение можно отнести к коварным: оно происходит без преднамеренного умысла, без осознания и перед лицом очевидного знания». Сами не осознавая того, люди в военных кругах и вне их приписывают человекоподобное значение демонстрациям систем ИИ. Западным военным следует обратить на это внимание.
Для военнослужащих, проходящих подготовку к эксплуатации или разработке военных технологий с использованием ИИ, признание этой антропоморфной предвзятости и ее преодоление имеет решающее значение.
Лучше всего это сделать с помощью когнитивной науки.
Актуальность когнитивной науки
Антропоморфизация ИИ в военном деле не означает, что ИИ всегда получает высокие оценки. Для некоторых комментаторов стало клише противопоставлять человеческую «креативность» «фундаментальной хрупкости» подходов к ИИ, основанных на машинном обучении, при этом часто откровенно признавая «узость машинного интеллекта».
Эти осторожные комментарии по поводу ИИ могут навести на мысль, что переоценка ИИ в военном деле не является повсеместной проблемой. Однако, до тех пор, пока доминирующим стандартом, по которому мы оцениваем ИИ, являются человеческие способности, простого признания того, что люди обладают творческими способностями, недостаточно, чтобы смягчить нездоровое антропоморфирование ИИ.
Даже в комментариях о военных технологиях с использованием ИИ, признающих недостатки ИИ, не указывается на необходимость обучения ИИ на основе когнитивных наук.
Например, Эмма Солсбери пишет, что существующие системы ИИ в значительной степени полагаются на «грубую силу» вычислительной мощности, но не способны интерпретировать данные «и определить, действительно ли они имеют смысл». Такие системы ИИ склонны к серьезным ошибкам, особенно когда они выходят за пределы своей узко определенной области деятельности.
Такие недостатки показывают, как пишет Джо Чапа об обучении ИИ в армии, что «важным элементом в способности человека доверять технологии является обучение распознаванию неисправности или сбоя». Таким образом, в интересах доверия люди-операторы должны уметь определять, когда ИИ работает так, как задумано, а когда нет.
Некоторые видные деятели в области исследований ИИ разделяют эти мысли и предлагают обратиться к когнитивной науке о человеке, чтобы определить путь совершенствования ИИ. Гэри Маркус — один из таких авторов, указывающий, что как люди могут думать, учиться и творить благодаря своим врожденным биологическим компонентам, так и ИИ, подобные AlphaGo, преуспевают в узких областях благодаря своим врожденным компонентам, специфичным для таких задач, как игра Го.
Переход от «узкого» к «общему» ИИ — различие между ИИ, способным только распознавать цели, и ИИ, способным рассуждать о целях в рамках сценариев — требует глубокого изучения человеческого познания.
Результаты демонстраций ИИ — как и результаты работы системы распознавания целей с помощью ИИ — это данные. Как и результаты человеческих демонстраций, эти данные должны быть интерпретированы. Основная проблема антропоморфизации ИИ заключается в том, что даже за осторожными комментариями о военных технологиях с использованием ИИ скрывается необходимость создания теории интеллекта.
Для интерпретации демонстраций ИИ необходимы теории, которые в значительной степени заимствуют лучший из имеющихся примеров интеллекта — человеческий интеллект.
Актуальность когнитивной науки для военного образования в области ИИ выходит далеко за рамки выявления контрастов между системами ИИ и человеческим познанием.
Понимание фундаментальной структуры человеческого разума обеспечивает базовую картину, на основе которой можно разрабатывать и оценивать искусственно интеллектуальные военные технологии. Оно имеет последствия для «узкого» и «общего» различия в ИИ, ограниченной полезности человеко-машинного противостояния и траектории развития существующих систем ИИ.
Ключевым моментом для военного персонала является способность сформулировать и интерпретировать демонстрации ИИ таким образом, чтобы им можно было доверять как для эксплуатации, так и для исследований и разработок.
Когнитивная наука обеспечивает для этого основу.
Уроки для военного образования в области ИИ
Важно, чтобы военное образование в области ИИ не было заранее спланировано настолько детально, чтобы подавить инновационную мысль. Однако некоторые уроки для такого образования вполне очевидны с помощью когнитивной науки.
Во-первых, необходимо пересмотреть понятия «узкий» и «общий» ИИ. Различие между узким и общим ИИ — это отвлекающий маневр, который не только не устраняет нездоровое антропоморфирование ИИ в военных делах, но и лишь сдерживает ожидания, не способствуя более глубокому пониманию технологии.
Антропоморфизация ИИ проистекает из плохого понимания человеческого разума. Это плохое понимание часто является неявной основой, через которую человек интерпретирует ИИ. Отчасти такое плохое понимание заключается в том, что разумная линия мысли — что человеческий разум следует изучать, разделяя его на отдельные способности, например, обработку языка — переносится на изучение и использование ИИ.
Проблема, однако, заключается в том, что эти отдельные способности человеческого разума не отражают полного понимания человеческого интеллекта. Человеческое познание — это нечто большее, чем эти способности, действующие по отдельности.
Поэтому большая часть разработок ИИ проходит под знаменем инженерии, как попытка не воссоздать человеческий разум искусственным путем, а выполнить специализированные задачи, например, распознавание целей.
Военный стратег может заметить, что системы ИИ не должны быть человекоподобными в «общем» смысле, а западным военным, скорее, нужны специализированные системы, которые могут быть узкими, но надежными в работе.
Это является серьезной ошибкой для долгосрочного развития военных технологий с использованием ИИ. Различие между «узким» и «общим» не только не позволяет интерпретировать существующие системы ИИ, но и мешает их направлению деятельности.
«Хрупкость» существующих ИИ, особенно систем глубокого обучения, может сохраняться до тех пор, пока в их разработке отсутствует более полное понимание человеческого познания. Гэри Маркус отмечает, что именно по этой причине (среди прочих) «глубокое обучение бьется о стену».
Военное образование в области ИИ не будет избегать этого различия, но будет включать в себя взгляд на него с точки зрения когнитивной науки, что позволит обучающемуся персоналу переосмыслить неточные предположения об ИИ.
Противостояние человека и машины — плохой показатель интеллекта
Во-вторых, противостояние ИИ с исключительными людьми в таких областях, как шахматы и го, считается показателем прогресса ИИ в коммерческих областях. Агентство передовых оборонных исследовательских проектов США приняло участие в этой тенденции, выставив ИИ F-16 компании Heron Systems против опытного пилота F-16 ВВС в симуляционных испытаниях догфайта. Целью было продемонстрировать способность ИИ обучаться маневрам истребителя и при этом заслужить уважение пилота-человека.
Эти противостояния действительно кое-что показывают: некоторые ИИ действительно преуспевают в определенных, узких областях. Но коварное влияние антропоморфизации лежит на поверхности: существуют резкие ограничения пользы противостояния человека и машины, если цель — оценить прогресс ИИ или получить представление о природе тактики и стратегии военного времени.
Идея обучения ИИ противостоянию с человеком уровня ветерана в четком сценарии похожа на обучение людей общению, как пчелы, путем изучения «танца» пчёл. Это можно сделать, и некоторые люди, попрактиковавшись, смогут танцевать, как пчелы, довольно хорошо, но какова реальная польза от такого обучения? Оно ничего не говорит людям о психической жизни пчел и не позволяет понять природу общения. В лучшем случае, любые уроки, извлеченные из этого опыта, будут опосредованными по отношению к реальному танцу и будут лучше усвоены другими способами.
Урок здесь не в том, что противостояние человека и машины бесполезно. Однако, в то время как частные фирмы могут получить выгоду от коммерциализации ИИ, выставляя AlphaGo против Ли Седоля или Deep Blue против Гарри Каспарова, все эти преимущества могут оказаться менее существенными для военных.
Когнитивная наука помогает человеку осознать ограниченность полезности, не упуская из виду его преимущества.
Объединение людей и машин — несовершенное решение
Объединение людей и машин можно считать одним из решений проблем антропоморфизации ИИ. Ясно, что его стоит использовать как средство переложить часть ответственности человека на ИИ.
Но проблема доверия, мнимого и реального, возникает снова. Чтобы стать надежными и заслуживающими доверия для людей-операторов, машинам, призванным взять на себя ответственность, которая ранее лежала на человеческом интеллекте, придется преодолеть уже обсуждавшиеся препятствия — понимание «человеческого фактора» по-прежнему имеет важное значение.
Будьте амбициозны, но сохраняйте скромность
Понимание ИИ — дело непростое. Возможно, не стоит удивляться тому, что технология с названием «искусственный интеллект» вызывает сравнения со своим естественным аналогом. В военном деле, где ставки на эффективное внедрение ИИ гораздо выше, чем в коммерческих приложениях, амбиции, основанные на понимании человеческого познания, имеют решающее значение для образования и подготовки в области ИИ. Часть «базовой грамотности в области ИИ» в вооруженных силах должна включать определенный уровень взаимодействия с когнитивной наукой.
Даже если допустить, что существующие подходы к ИИ не предназначены для того, чтобы быть похожими на человеческое познание, антропоморфизация и неправильное понимание человеческого интеллекта, которое она несет, достаточно распространены среди различных аудиторий, а потому заслуживают пристального внимания в рамках военного образования по ИИ.
Определенные уроки когнитивной науки готовы стать инструментами, с помощью которых это будет сделано.
16 мая 2022 года
Автор: Винсент ДЖ. Карчиди
Винсент Дж. Карчиди — магистр политических наук из Университета Вилланова, специализирующийся на пересечении технологий и международных отношений, с междисциплинарным образованием в области когнитивной науки. Некоторые из его работ были опубликованы в журналах AI & Society и Human Rights Review.
Источник: War On The Rocks
Last Updated on 12.09.2024 by iskova