Пентагон рассматривает возможность прекратить сотрудничество с компанией Anthropic - разработчиком чатбота Claude, главного конкурента популярного ChatGPT. Как стало известно в воскресенье, 15 февраля, причиной стало требование компании ограничить военное использование ее продуктов на базе искусственного интеллекта (ИИ).
Издание Axios пишет со ссылкой на высокопоставленного представителя администрации США, что в Вашингтоне обсуждают сокращение или разрыв партнерства по контракту примерно на 200 млн долларов.
Сейчас министерство обороны США ведет переговоры с четырьмя крупными ИИ-компаниями, добиваясь доступа к их инструментам "для любой законной цели". Речь идет и о чувствительных сферах, включая разработку оружия, сбор разведданных и действия на поле боя.
ИИ-модели способны обрабатывать массивы данных и выдавать выводы в реальном времени, что важно для военных задач.
Anthropic отказывается ограничиваться базовой формулировкой. Компания настаивает, что ее модели нельзя применять в двух случаях: для массового наблюдения за американскими гражданами и для полностью автономного оружия.
После месяцев безрезультатных переговоров в Пентагоне склоняются к разрыву контактов. По словам источника, отдельные согласования по каждому сценарию или предварительная блокировка конкретных применений для ведомства не подходят.
"На столе все варианты, включая сокращение партнерства с Anthropic или полный разрыв", - сказал чиновник. Представитель Anthropic ответил, что компания "сохраняет приверженность использованию AI для поддержки национальной безопасности США".
Напряжение усилилось на фоне истории вокруг неясного применения Claude в операции по захвату президента Венесуэлы Николаса Мадуро. Речь идет о программном продукте, который Anthropic разрабатывает совместно с ИИ-компанией Palantir. У Palantir крупные контракты с Пентагоном, и в ее продуктах используется Claude.
В Пентагоне утверждают, что менеджер Anthropic обратился к руководителю в Palantir с вопросом, применялся ли Claude во время рейда, и намекнул, что компания больше не одобрит такое использование.
В министерстве обороны считают это поводом для беспокойства. "Любая компания, которая поставит под угрозу оперативный успех наших бойцов на земле, - это компания, с которой мы должны пересмотреть партнерство", - говорится в заявлении.
Ранее, по данным источников, американские военные использовали Claude для анализа спутниковых снимков и разведывательных задач. Однако на этот раз, как утверждается, модель применялась и в ходе активной операции, во время которой погибли десятки сотрудников сил безопасности Венесуэлы.
Чиновник также признал, что армии США будет сложно быстро заменить Claude, поскольку "остальные ИИ-модели отстают" в том, что касается сферы специальных государственных задач.
Летом 2025 года Anthropic подписала с Пентагоном контракт примерно на 200 млн долларов. Claude также стал первой моделью, которую Пентагон допустил в свои закрытые сети.
Конкуренты Claude - ChatGPT от OpenAI, Gemini от Google и Grok от xAI - согласились снять для Пентагона ограничения, действующие для обычных пользователей. С ними тоже идут переговоры о работе в закрытом сегменте.


