Экзистенциальный разговор Anthropic с Пентагоном

Экзистенциальный разговор Anthropic с Пентагоном


Недельная битва Anthropic с Министерством обороны основывалась на сообщениях в социальных сетях, предупреждающих публичных заявлениях и прямых цитатах в средствах массовой информации неназванных чиновников Пентагона. Но будущее ИИ-стартапа стоимостью 380 миллиардов долларов сводится всего к трем словам: «Любое законное использование». Новые условия, которые OpenAI и

Технический директор Пентагона Эмиль Майкл, бывший топ-менеджер компании Uber, занимающейся перевозками пассажиров, выразил обеспокоенность по поводу угроз правительства объявить Anthropic «риском цепочки поставок», по словам двух человек, знакомых с ходом переговоров, которые испортили переговоры. Эта классификация обычно применяется к угрозам национальной безопасности, включая злонамеренное иностранное влияние или кибервойну. Сообщается, что генеральный директор Anthropic Дарио Амодей встретится с госсекретарем Питом Хегсетом в Пентагоне во вторник, а неназванный представитель министерства обороны назвал эту встречу «бесполезной или бессмысленной».

Это беспрецедентный случай, когда Пентагон угрожает американской компании. но Пентагон публичная форма Выдвижение этой угрозы еще более странно.

В целях безопасности Пентагон публично не раскрывает, какие компании входят в эти списки, не говоря уже о том, чтобы публично угрожать этим компаниям, если их взгляды не совпадают. Фактически, Джеффри Герц, старший научный сотрудник Центра новой американской безопасности (CNAS), сказал: Грань В соответствии с действующими федеральными правилами Пентагон может классифицировать Anthropic как риск, не уведомляя общественность и не объясняя причин. «Это, в частности, требует дополнительного шага: квалифицировать их как угрозу национальной безопасности и запретить другим компаниям вести дела с Anthropic, что выходит за рамки того, что здесь требуется».

Конфликт возник из-за соблюдения Anthropic своей «Политики приемлемого использования».

Если бы классификация стала официальной, это аннулировало бы контракт Anthropic с Пентагоном на 200 миллионов долларов, но это оказало бы более разрушительное влияние на общую прибыль Anthropic. Крупные оборонные подрядчики и технологические компании, такие как AWS, Palantir и Anduril, используют облако Anthropic в своей работе для Пентагона, поскольку это была первая модель ИИ, одобренная для использования секретной информации. Говоря более прямо: если Anthropic будет отмечен как «риск цепочки поставок», любая компания, которая в настоящее время работает с военными или надеется когда-либо получить военный контракт, будет вынуждена отказаться от систем искусственного интеллекта Anthropic, которые считаются одними из лучших в отрасли. (Вечером накануне запланированной встречи Амодеи с Хегсетом Пентагон подтвердил, что подписал соглашение об использовании Grok, спорной модели искусственного интеллекта, созданной XAI Илона Маска, в секретных системах. Пентагон не сразу ответил на запрос о комментариях.)

Его можно применять как в очень узком смысле, так и в чрезвычайно широком. “Я подозреваю, что более логичным объяснением было бы более узкое определение, согласно которому антропогенность не может использоваться как часть конкретного описания работы Пентагона”, – сказал Герц. «Но, судя по некоторым сообщениям и попыткам представить это как карательную меру против Anthropic, стоит рассмотреть оба этих сценария».

Хотя Пентагон и его медиа-союзники развернули кампанию по заклеймению Anthropic как «пробуждённого», им ещё предстоит сделать какие-либо реальные обвинения в уязвимостях системы безопасности или возможности шпионажа. Вместо этого, по словам людей, знакомых с внутренними дискуссиями, конфликт возник из-за того, что Anthropic применяет свою «политику приемлемого использования».

Об этом сообщил источник, знакомый с ситуацией, пожелавший остаться неизвестным из-за деликатного характера переговоров. Грань Anthropic очень ясно дала понять правительству о своих красных линиях, и есть две узкие вещи, на которые компания не согласится: автономные кинетические операции и массовое внутреннее наблюдение. Последнее, по словам источника, связано с тем, что «законы не соответствуют возможностям ИИ» и что это может нарушать американские гражданские свободы. Что касается предлетального автономного оружия, источник сообщил, что технология «еще не предназначена для полностью автономного оружия без участия людей».

Хамза Чаудри, руководитель отдела искусственного интеллекта и национальной безопасности в Институте будущего жизни, беспартийной исследовательской группе, занимающейся управлением искусственным интеллектом, сказал, что красные линии Anthropic уже отражают текущие правительственные директивы, которые не были отменены.

«Директива Минобороны 3000.09 требует, чтобы все автономные системы вооружения были спроектированы таким образом, чтобы командиры и операторы могли «проявлять соответствующий уровень человеческого суждения о применении силы», а Политическая декларация о военном использовании ИИ, инициированная правительством США и поддержанная 50 штатами, устанавливает этот принцип», — отметил он. Грань текст выше. «А директива Министерства обороны 5240.01, подкрепленная положениями NDAA на 2017 финансовый год и «Путью ответственного внедрения искусственного интеллекта» эпохи Трампа, запрещает компонентам разведки собирать информацию о гражданах США, за исключением случаев, предусмотренных конкретными юридическими органами, такими как FISA или Раздел 50.

«Политика приемлемого использования Anthropic отражает именно эти принципы, и до тех пор, пока Пентагон официально не откажется, не прояснит или не обновит эти политические позиции, более серьезный вопрос заключается в том, можно ли заставить компанию отклониться от политики, которой в принципе придерживалось само правительство».

Майкл, который ведет переговоры от имени Пентагона, является назначенцем Трампа и заместителем министра обороны по исследованиям и разработкам. Эту должность часто называют главным техническим директором Пентагона. [first source] Майкла, который заработал агрессивную репутацию в качестве главного бизнес-директора Uber и однажды хвастался тем, что проводил оппозиционные исследования в отношении журналистов, описывали как «жесткого переговорщика». (Майкла уволили из Uber в 2017 году после того, как совет директоров компании расследовал практику сексуальных домогательств в компании, вызванную посещениями им и несколькими руководителями южнокорейского эскорт-бара.)

«Для Эмиля это действительно принципиальный вопрос», — сказал второй человек, знакомый с ситуацией, добавив, что Майкл недоволен тем, что частная компания пытается заблокировать использование правительством его технологии. Неясно, одобрил ли заранее жесткую стратегию Майкла Белый дом или венчурный капиталист и влиятельный магнат искусственного интеллекта и криптовалюты Дэвид Сакс.

В настоящее время «Политика приемлемого использования» Anthropic включена в контракт на 200 миллионов долларов, подписанный с Министерством обороны в июле прошлого года. В своем заявлении компания пять раз упомянула «ответственный ИИ». «В основе этой работы лежит наша твердая уверенность в том, что самые мощные технологии несут наибольшую ответственность», — написали они, добавив, что в контексте правительства, «где решения затрагивают миллионы людей и ставки не могут быть выше», эта ответственность «необходима» для обеспечения того, чтобы «разработки ИИ укрепляли демократические ценности во всем мире, сохраняя при этом технологическое лидерство для защиты от авторитарных злоупотреблений».

«Этот статус потребует от каждого оборонного подрядчика, претендующего на государственную работу, подтвердить, что он удалил все антропогенные технологии из своих систем».

Но в январе Хегсет опубликовал меморандум, в котором заявил, что департамент станет «боевой силой, ориентированной на ИИ во всех компонентах» и что «любое законное использование» формулировок должно быть включено в любой контракт на закупку услуг ИИ в течение 180 дней, включая существующие инструкции.

В записке Хегсета он неоднократно подчеркивал, что ведомство будет отдавать приоритет скорости любой ценой, написав, что страна должна «устранить барьеры для обмена данными… [and] Посмотрите на компромиссы в отношении риска, «справедливость» и другие субъективные вопросы, как если бы мы находились на войне». Он также сказал, что когда дело доходит до разработки и использования агентов ИИ, департамент будет интегрировать их «от планирования кампании до выполнения цепочки действий», а также «превратить разведданные в оружие за считанные часы».

Хегсет неоднократно отдавал предпочтение скорости над безопасностью и потенциальными ошибками: «Мы должны признать, что риски недостаточно быстрого движения перевешивают риски несовершенного выравнивания». Позже он повторил в записке, написав, что «ответственный ИИ» увидит серьезные изменения в ведомстве, как на поле боя, так и в рядах вооруженных сил. «Многообразию, равенству, инклюзивности и социальной идеологии нет места в DOW», — написал он. Он далее сказал, что министерству следует также «использовать модели, свободные от политических ограничений, которые могут ограничить законное военное применение». Подобно указу Трампа против «пробуждения ИИ», Хегсет объявил, что критерии справедливости модели станут новым основным критерием закупок услуг ИИ.

OpenAI, XAI и Google немедленно пересмотрели свой контракт на 200 миллионов долларов с Пентагоном, чтобы привести его в соответствие с меморандумом Хегсета. Но ни одна из моделей этих компаний не имеет классификации безопасности уровня 6, а это означает, что ChatGPT, Grok и Gemini не смогут немедленно заменить облако, если Anthropic будет внесен в черный список — уязвимость одного поставщика, которая окажет негативное влияние на Пентагон.

«Облако — единственная передовая модель искусственного интеллекта, полностью работающая в секретной сети Пентагона, развернутая через платформу искусственного интеллекта Palantir и сверхсекретное облако Amazon, а это означает, что оно находится в центре рабочих процессов, к которым пока не имеют доступа большинство других моделей», — сказал Чоудхари. «Этот статус потребует от каждого оборонного подрядчика, претендующего на государственную работу, подтвердить, что он удалил все антропные технологии из своих систем».

Это помогло Anthropic в конфликте с Пентагоном, который, как сообщается, стал более напряженным после того, как компания узнала, что ее модели использовались для поимки президента Венесуэлы Николаса Мадуро, что является нарушением существующего соглашения.

Технически Anthropic не может пытаться координировать свои действия или объединяться с другими лабораториями искусственного интеллекта, которым предлагаются новые условия, даже если они были готовы согласиться, поскольку это противоречило бы федеральным правилам закупок. Но когда эта борьба становится достоянием общественности, технические работники, специалисты по искусственному интеллекту и другие люди, которые в настоящее время или раньше работали в технологической отрасли, выразили разочарование тем, что другие компании не борются за те же условия, что и Anthropic. Другие думали, что сдача Anthropic будет лишь вопросом времени.

«Это будет действительно хорошее время [other labs] Типа: «Подожди, что ты делаешь с нашей технологией?» — говорит Уильям Фицджеральд, бывший сотрудник Google, который сейчас руководит правозащитной фирмой под названием The Worker Agency. «Ребята из этих лабораторий искусственного интеллекта обладают большой властью. Это небольшие команды, и они все еще формируются, кем они будут… Я думаю, они могут оправдать свои оценки, не занимаясь военной работой. Есть и другие способы вести бизнес, не убивая людей в вашей бизнес-модели.

Следите за темами и авторами Чтобы увидеть больше подобных материалов в своей персонализированной ленте на главной странице и получать обновления из этой истории по электронной почте.



Leave a Reply

Your email address will not be published. Required fields are marked *