OpenAI заявляет, что разделяет «красные линии» Anthropic в отношении использования ИИ в военных целях

OpenAI заявляет, что разделяет «красные линии» Anthropic в отношении использования ИИ в военных целях


OpenAI заявляет, что разделяет «красные линии» Anthropic в отношении использования ИИ в военных целях

Вид на Пентагон в Вашингтоне с самолета в понедельник, 2 февраля 2026 года.

Джулия Демери Нихинсон/Associated Press


скрыть подпись

переключить подпись

Джулия Демери Нихинсон/Associated Press

На фоне растущей вражды Anthropic с Пентагоном генеральный директор OpenAI Сэм Альтман говорит, что он разделяет «красные линии», установленные конкурентом Anthropic, которые ограничивают военные возможности использования моделей искусственного интеллекта.

Министерство обороны дало Anthropic время до 17:01 по восточному времени сегодня, чтобы снять запрет на использование ее моделей искусственного интеллекта, внутреннего массового наблюдения в облаке или полностью автономного оружия. Пентагон заявил, что не намерен использовать ИИ таким образом, но требует от компаний, занимающихся ИИ, разрешить использование своих моделей «во всех законных целях».

Представители Министерства обороны заявляют, что, если Anthropic не выполнит требования, она может потерять контракт на 200 миллионов долларов с армией США.

Правительство также пригрозило применить Закон об оборонном производстве времен Корейской войны (DPA), чтобы заставить Anthropic разрешить использование своего оборудования, и в то же время предупредило, что оно назовет Anthropic «риском цепочки поставок», потенциально исключив его из прибыльных государственных контрактов.

Присоединившись к противостоянию между Anthropic и Пентагоном, Альтман может осложнить усилия Пентагона по замене Anthropic, если он выполнит свою угрозу расторгнуть контракт. У OpenAI также есть контракт Министерства обороны с Google, xAI и Anthropic, но Anthropic был первым, кто получил одобрение на использование в секретных системах.

«Лично я не думаю, что Пентагону следует угрожать DPA против этих компаний», — сказал Альтман в интервью CNBC в пятницу утром. Он сказал, что считает важным, чтобы компании работали с военными, «при условии, что они соблюдают правовую защиту» и «некоторые красные линии», которые мы разделяем с Anthropic и другими компаниями, которые также согласились независимо.

«Несмотря на все мои разногласия с Anthropic, я в основном доверяю им как компании и думаю, что они действительно заботятся о безопасности, и я рад, что они поддерживают наших бойцов», — сказал Альтман. «Я не уверен, куда это приведет».

Во внутренней записке, разосланной сотрудникам в четверг вечером, Альтман сообщил, что OpenAI хочет заключить соглашение с Пентагоном о развертывании своих моделей в секретных системах, включая предотвращение использования в США для наблюдения или питания автономного оружия без одобрения человека, по словам человека, знакомого с сообщением и не уполномоченного выступать публично. журнал Уолл-стрит Сотрудники были первыми проинформированы о записке Альтмана.

Министерство обороны не ответило на просьбу прокомментировать заявления Альтмана.

Могут ли компании, занимающиеся искусственным интеллектом, вводить ограничения на то, как правительство использует их технологии, в последние месяцы стало основным предметом спора между Anthropic и администрацией Трампа.

В четверг генеральный директор Anthropic Дарио Амодей заявил, что угрозы Пентагона по поводу контракта не удержат компанию. «Мы не можем с чистой совестью удовлетворить его просьбу», — написали они в пространном заявлении.

«Anthropic понимает, что военные решения принимает военное министерство, а не частные компании. Мы никогда не возражали против конкретных военных операций и не пытались каким-либо образом ограничить использование наших технологий». неофициальный Но, добавил он, внутреннее массовое наблюдение и полностью автономное оружие — это способы применения, которые «выходят за рамки того, что сегодняшние технологии могут сделать безопасно и надежно».

Эмиль Майкл, заместитель министра Пентагона по исследованиям и разработкам, ответил в сообщении на X, обвинив Амодея во лжи и наличии «комплекса Бога».

«Он не хочет ничего, кроме того, чтобы лично попытаться контролировать вооруженные силы США, и не возражает против того, чтобы поставить под угрозу безопасность нашей страны», — написал Майкл. «@DeptofWar всегда будет следовать закону, но никогда не подчинится прихотям технологической компании ради получения прибыли», — написал он.

В интервью CBS News Майкл заявил, что федеральный закон и политика Пентагона уже запрещают использование искусственного интеллекта для массовой слежки внутри страны и автономного оружия.

«На каком-то уровне вы должны доверять своим военным, чтобы они поступали правильно», — сказал он.

Независимые эксперты говорят, что это противостояние весьма необычно в мире контрактов Пентагона.

«Это определенно другое», — сказал Джерри Макгинн, директор Центра промышленной базы Центра стратегических и международных исследований, аналитического центра в Вашингтоне, округ Колумбия. Подрядчики Пентагона обычно не сообщают Министерству обороны, как могут использоваться их продукты и услуги, сказал он, «потому что в противном случае вам придется обсуждать варианты использования для каждого контракта, а это неразумное ожидание».

Кроме того, Макгинн говорит, что искусственный интеллект — это новая и в значительной степени непроверенная технология. «Это очень необычный, очень публичный бой», – сказал он. «Я думаю, это отражает природу ИИ».

Leave a Reply

Your email address will not be published. Required fields are marked *