Тесты ИИ-прицеливания ВВС США «галлюцинируют», но впечатляют
Аналитический центр КЦПН перевёл для вас интересную статью c милитари-ресурса The War Zone. Она посвящена тому, как ВВС США тестируют искусственный интеллект для принятия решений на поле боя. Поскольку мы всё время следим за тем, как технологии ИИ внедряются в вооружение наших нетоварищей по всему миру, то и этот материал не оставил нас равнодушными
🔹В современном мире, где скорость принятия решений может определить исход операции, военные ведомства по всему миру активно исследуют возможности искусственного интеллекта. Последние тесты, проведенные ВВС США, показывают, что ИИ способен значительно ускорить процесс выбора тактики и оружия, но при этом демонстрирует серьезные ограничения, требующие человеческого контроля
🔹Военно-воздушные силы США недавно завершили второй этап серии экспресс-упражнений DASH (Decision Advantage Sprints for Human-Machine Teaming), направленных на интеграцию ИИ в процесс принятия решений на поле боя. Эти тесты проводятся в Центре теневых операций в Неллисе (SHOC-N) – главной боевой лаборатории ВВС по тактическому командованию и управлению, расположенной недалеко от Лас-Вегаса
🔹В DASH-2 участвовали шесть отраслевых команд и одна инновационная команда SHOC-N. Им предстояло разработать микросервисы с поддержкой ИИ, способные помочь операторам выбрать подходящее оружие для уничтожения выявленной цели. Затем команды, состоящие только из людей, соревновались с командами «человек-машина» в скорости и качестве принятия решений
🔹Результаты оказались впечатляющими: ИИ-система генерировала варианты действий (COA) за 8 секунд, в то время как человеческие операторы тратили на это 16 минут. При этом алгоритм предлагал 10 различных вариантов решений против 3 у людей. В условиях современного поля боя, где каждая секунда на счету, такой выигрыш во времени может спасти жизни и определить успех операции
🔹Однако, несмотря на впечатляющую скорость, ИИ-системы продемонстрировали серьезный недостаток – способность генерировать неудачные или бессмысленные варианты. Как отметил генерал-майор Роберт Клод, представитель Космических сил в межфункциональной группе ВВС: «Несмотря на то, что они были более своевременными и в них было больше контрольных показателей, они не обязательно были полностью жизнеспособными»
🔹Этот момент критически важен. В военных операциях ошибка может стоить человеческих жизней, поэтому «галлюцинации» ИИ – не просто техническая неполадка, а серьезный риск, который необходимо учитывать при разработке систем
🔹Примером таких ошибок стало предложение ИИ использовать инфракрасные системы наведения в условиях облачной погоды, когда это неэффективно. Как пояснил Клод: «Если вы пытаетесь определить пакет наведения для конкретного оружия, но не учитываете, что это инфракрасная цель или что это оружие с ИК-датчиком, но при этом облачно и плохие погодные условия... эти пакеты наведения не там, где нужно»
🔹Официальные лица ВВС США пришли к выводу, что, несмотря на возможности ИИ, человеческий фактор остается незаменимым. Генерал-майор Клод подчеркнул: «В конце концов, я по-прежнему считаю, что, несмотря на высокий уровень автоматизации, в какой-то момент на пути принятия решения должен появиться человек, который решит, что это правильный поступок»
❗️Мы уже переводили много материалов на тему «человек против машины» и, видим, что этот вопрос пока ещё не решён. С другой стороны, у Запада есть такие полигоны, как территория бывшей Украины, на которой можно обкатывать и «допиливать» такие инновации, не переживая за результат и возможные потери
🕹В любом случае, переход к войнам нового типа и всё большее участие в них ИИ, неизбежны. Поэтому мы также должны уделять внимание этой проблематике (и мы общаемся с коллективами, которые этим занимаются) и не бояться изучать чужие решения, чтобы учитывая их достижения и ошибки, делать лучше
🚀 Подпишитесь на наш канал чтобы не пропустить следующие публикации!
Cogito ergo vinco
МЫСЛЮ, СЛЕДОВАТЕЛЬНО, ПОБЕЖДАЮ!