Сэм Альтман, генеральный директор OpenAI Inc., на саммите AI Impact Summit в Нью-Дели, Индия, в четверг, 19 февраля 2026 г.
Пракаш Сингх Блумберг | изображения Гетти
Генеральный директор OpenAI Сэм Альтман заявил поздно вечером в пятницу, что его компания согласилась с Министерством обороны договориться об использовании своих моделей искусственного интеллекта, вскоре после того, как президент Дональд Трамп заявил, что правительство не будет работать с конкурентом в области искусственного интеллекта Anthropic.
«Сегодня вечером мы достигли соглашения с военным министерством о развертывании наших моделей в их секретных сетях», — написал Альтман в сообщении на X. «Во всех наших разговорах Министерство обороны продемонстрировало глубокое уважение к безопасности и готовность к партнерству для достижения наилучшего возможного результата».
Сообщение Альтмана появилось в конце драматической недели для индустрии искусственного интеллекта, которая оказалась в центре политических дебатов о том, как можно использовать ее модели. Ранее в тот же день после нескольких недель напряженных переговоров министр обороны Пит Хегсет объявил Anthropic «риском для национальной безопасности в цепочке поставок». Этот ярлык обычно предназначен для иностранных противников, и он вынуждает поставщиков и подрядчиков Министерства обороны подтверждать, что они не используют модели Anthropic.
Президент Трамп также поручил всем федеральным агентствам США «немедленно прекратить» использование технологий Anthropic.
Anthropic была первой лабораторией, которая использовала свои модели в секретных сетях Министерства обороны США, и пыталась согласовать текущие условия своего контракта с агентством, прежде чем переговоры провалились. Компания хотела получить гарантии того, что ее модели не будут использоваться для полностью автономного оружия или массовой слежки за американцами, в то время как Министерство обороны хотело, чтобы Anthropic согласилась разрешить военным использовать эти модели во всех законных случаях использования.

Альтман сообщил сотрудникам в служебной записке в четверг, что OpenAI разделяет те же «красные линии», что и Anthropic. В своем посте в пятницу он сказал, что Министерство обороны согласно с введенными ограничениями.
«Два наших важнейших принципа безопасности — это запрет на массовое наблюдение внутри страны и гуманитарная ответственность за применение силы, включая автономные системы вооружения», — написал Альтман. DoW согласен с этими принципами, отражает их в законодательстве и политике, и мы включаем их в наши соглашения.
Не сразу стало ясно, почему Министерство обороны согласилось использовать OpenAI, а не Anthropic, хотя правительственные чиновники, как сообщается, в течение нескольких месяцев критиковали Anthropic за чрезмерную озабоченность безопасностью ИИ.
Альтман сказал, что OpenAI «создаст технические средства защиты, чтобы гарантировать, что ее модели будут вести себя должным образом», и что компания направит персонал, «чтобы помогать нашим моделям и обеспечивать их безопасность».
«Мы просим министерство экономики предложить эти единые условия всем компаниям, занимающимся искусственным интеллектом, и, по нашему мнению, каждый должен быть готов их принять», — написал Альтман. «Мы выразили сильное желание, чтобы все отошло от юридических и правительственных действий к разумным соглашениям».
В заявлении Anthropic в пятницу говорится, что она «глубоко опечалена» решением Пентагона отнести компанию к группе риска в цепочке поставок. В нем заявили, что намерены оспорить это назначение в суде.
Смотреть: Хегсет поручил Пентагону отнести Anthropic к риску в цепочке поставок
