Военные не говорят, в каких конкретных операциях используется ИИ. Официальные лица только утверждают, что теперь они используют систему рекомендаций искусственного интеллекта, которая может обрабатывать большие объемы данных для выбора целей для авиаударов. Об этом передаёт американское издание «Блумберг».
Непосредственно атаки могут быть быстро спланированы с помощью другой модели искусственного интеллекта под названием Fire Factory, которая использует данные об одобренных военными целях для расчета боекомплекта, определения приоритетов и назначения тысяч целей самолетам и беспилотникам, а также для составления графика.
Обе военные системы ИИ хоть и контролируются людьми-операторами, однако технология по-прежнему не подпадает под какое-либо международное регулирование или регулирование на государственном уровне. Сторонники утверждают, что передовые алгоритмы могут превзойти человеческие возможности и помочь военным минимизировать потери, в то время как критики предупреждают о потенциально смертельных последствиях использования всё более автономных систем.
«Если в расчётах искусственного интеллекта допущена ошибка или если искусственный интеллект перестанет контролироваться человеком, то кого мы будем обвинять в этой ошибке? Вы можете уничтожить целую семью из-за этого», — констатирует Тал Мимран, преподаватель международного права в Еврейском университете Иерусалима и бывший юрисконсульт армии, обсуждая этичность применения искусственного интеллекта в военной сфере.
Детали оперативного использования армией искусственного интеллекта остаются в значительной степени засекреченными, однако заявления военных чиновников свидетельствуют о том, что ЦАХАЛ приобрел боевой опыт применения противоречивых систем в секторе Газа, где Израиль часто наносит авиаудары в ответ на ракетные обстрелы.
К примеру, в 2021 году ЦАХАЛ назвал одиннадцатидневный конфликт в Газе первой в мире «войной искусственного интеллекта», сославшись на использование ИИ для определения площадок запуска ракет и развертывания групп дронов. Израиль также проводит соответствующие рейды в Сирии и Ливане, нацеленные, по его словам, на поставки оружия Ираном ополченцам, таким как «Хезболла».
По словам официальных лиц ЦАХАЛа, инструменты на основе искусственного интеллекта, такие как Fire Factory, адаптированы для ведения тотальной войны.
«То, что раньше занимало часы, теперь занимает минуты, и еще несколько минут отводится на проверку человеком. При том же количестве людей мы делаем гораздо больше», — заявил полковник, возглавляющий подразделение цифровой трансформации армии.
Ещё одним фактором для беспокойства является то, что быстрое внедрение искусственного интеллекта опережает исследования его внутренней работы. Многие алгоритмы разрабатываются частными компаниями и военными, которые предпочитают работать в режиме секретности. Критики подчеркивают отсутствие прозрачности в том, как алгоритмы ИИ приходят к своим выводам. ЦАХАЛ признал проблему, но заявил, что результаты тщательно проверяются солдатами.
Хотя израильские лидеры изложили свое намерение превратить страну в «сверхдержаву искусственного интеллекта», они были расплывчаты в деталях. Министерство обороны отказалось комментировать, сколько оно инвестировало в искусственный интеллект, армия не стала обсуждать конкретные оборонные контракты, хотя и подтвердила, что Fire Factory была разработана израильским оборонным подрядчиком Rafael.
Еще более запутывает картину то, что, в отличие от времен гонки ядерных вооружений, когда утечка информации о возможностях оружия была ключевым аспектом сдерживания, автономные системы с поддержкой искусственного интеллекта разрабатываются правительствами, военными и частными оборонными компаниями в тайне.
«Предполагаем, что американцы, китайцы и, возможно, несколько других стран также располагают передовыми системами в этих областях, но в отличие от Израиля, насколько я знаю, они никогда не демонстрировали оперативного применения и успеха», — заявил Лиран Антеби, старший научный сотрудник Израильского института исследований национальной безопасности.
На данный момент нет никаких ограничений в этой области. Несмотря на десятилетние переговоры под эгидой ООН, не существует международных рамок, устанавливающих, кто несет ответственность за жертвы среди гражданского населения, несчастные случаи или непреднамеренные эскалации, когда компьютер ошибается.
Преподаватель права в Еврейском университете Мимран считает, что ЦАХАЛ должен использовать искусственный интеллект исключительно в оборонительных целях. Во время службы в армии Мимран вручную проверял цели, чтобы убедиться в соответствии атак международному праву. Это научило его ключевому принципу работы с ИИ: независимо от технологии, «есть момент, когда вам нужно принять решение, основанное на ценностях, а в этом мы не можем полагаться на искусственный интеллект».
Напомним, ранее «Политологика» сообщала, что представители Кремля увидели в действиях США признание в военных преступлениях на Украине.