Это день надвигающегося ультиматума Пентагона в адрес Anthropic: предоставить военным США неконтролируемый доступ к своим технологиям, включая массовое наблюдение и полностью автономное смертоносное оружие, или потенциально быть признанным «риском цепочки поставок» и потенциально потерять сотни миллиардов долларов по контрактам. На фоне растущих публичных заявлений и угроз работники технологических компаний во всей отрасли смотрят на правительственные и военные контракты своих компаний и задаются вопросом, какое будущее они помогают строить.
В то время как Министерство обороны провело несколько недель в переговорах с Anthropic по поводу снятия ограждений, в том числе по разрешению американским военным использовать ИИ-нацеливание Anthropic без человеческого контроля, OpenAI и XAI, как сообщается, уже согласились на такие условия, хотя OpenAI, как сообщается, пытается принять те же красные линии в соглашениях, что и Anthropic. Общая ситуация привела к тому, что сотрудники некоторых компаний, имеющих оборонные контракты, почувствовали себя преданными. «Когда я пришел в технологическую индустрию, я думал, что технологии призваны облегчить жизнь людей», — сказал сотрудник Amazon Web Services. Грань«Но теперь кажется, что все дело в том, чтобы упростить наблюдение, депортацию и убийство людей».
в разговоре с ГраньНынешние и бывшие сотрудники OpenAI, xAI, Amazon, Microsoft и Google выразили схожее мнение по поводу изменения этического ландшафта своих компаний. Организованные группы, представляющие 700 000 технических работников Amazon, Google, Microsoft и других компаний, подписали письмо с требованием к компаниям отвергнуть требования Пентагона. Но многие видели мало шансов на то, что их работодатели – независимо от того, были ли они непосредственно вовлечены в конфликт или нет – подвергали сомнению правительство или сопротивлялись ему.
«С их точки зрения, они предпочитают зарабатывать деньги и не говорить об этом», — сказал инженер-программист Microsoft.
Пока что Anthropic держит свое слово. Генеральный директор Anthropic Дарио Амодей в четверг выступил с заявлением, в котором говорится, что «угроза Пентагона не меняет нашей позиции: мы не можем с чистой совестью принять их просьбу». Но он сказал, что никогда не был против смертоносного автономного оружия в будущем, просто «сегодня» эта технология недостаточно надежна. Amodei также предлагал сотрудничать с Министерством обороны по «НИОКР» для повышения надежности этих систем, но они предложение не приняли, пишет он в заявлении.
Однако за последние несколько лет крупные технологические компании ослабили свои правила или изменили свою миссию, чтобы получить прибыльные правительственные или военные контракты. В 2024 году OpenAI сняла запрет на «военные и военные» варианты использования из своих условий обслуживания; После этого компания подписала соглашение с производителем автономного оружия Anduril, а затем контракт с Министерством обороны, а на этой неделе Anthropic изменила свою политику ответственного масштабирования, отказавшись от своего давнего обязательства в области безопасности, чтобы гарантировать, что она останется конкурентоспособной в гонке ИИ. Крупные технологические игроки, такие как Amazon, Google и Microsoft, также разрешили оборонным и разведывательным агентствам использовать свои продукты искусственного интеллекта, в том числе согласились работать с ICE, несмотря на растущее сопротивление общественности и сотрудников.
На протяжении многих лет сопротивление технических сотрудников партнерству и сделкам, которые считались вредными для общества в целом, иногда приводило к серьезным изменениям. Например, в 2018 году тысячи сотрудников Google успешно оказали давление на компанию, чтобы она прекратила партнерство «Project Maven» с Пентагоном, а сотрудники Microsoft представили руководству петицию против ICE, подписанную почти 500 сотрудниками Microsoft, хотя Microsoft до сих пор работает с агентством. В 2020 году, после убийства Джорджа Флойда, технологические компании сделали публичные заявления о финансовых обязательствах в поддержку движения Black Lives Matter. Но в последние месяцы отрасль увидела совсем другую реальность: культуру страха и молчания, особенно на фоне администрации Трампа и сотрудничества с ICE, как недавно сообщили технические работники. Грань.
Компании идут по стопам давних партнерств по надзору и военным технологиям, которые стали более агрессивными. В их число входит Питер Тиль — соучредитель Palantir, чей генеральный директор Алекс Карп недавно сказал акционерам, что «Palantir здесь, чтобы разрушить и сделать учреждения, с которыми мы сотрудничаем, лучшими в мире, а также, когда это необходимо, запугивать врагов, а иногда и убивать их. И мы надеемся, что вы на вашей стороне». (Некоммерческая организация Protect Democracy недавно опубликовала открытое письмо с призывом к Конгрессу контролировать требования Министерства обороны о неограниченном использовании ИИ.)
OpenAI, Google, Microsoft, xAI и Amazon не сразу ответили на запросы о комментариях.
Об этом рассказал бывший сотрудник XAI. Грань«Сейчас все действительно работают над роботами-убийцами», — считает он, добавляя, что все последуют по стопам Palantir, Anduril и XAI, поскольку правительство считает, что если компания не согласна, это «в некотором роде противоречит интересам страны». “Особое внимание уделяется работе с военными, и тенденция такова, что это здорово… если ты это делаешь, ты патриот”, – сказал он.
Сотрудник Google назвал ситуацию «отвратительной демонстрацией доминирования Хегсета». Он добавил: «Снова и снова ИИ дает нам выбор относительно того, кем мы хотим быть и какое общество и будущее мы хотим. И они все чаще и более того, приходят к власти с наименее продуманными и наименее принципиальными лидерами, которых мы только можем себе представить. Я могу только поблагодарить Anthropic за то, что они настаивают на цивилизованном пути и используют свои рычаги – а они незаменимы – чтобы проложить курс к гуманному миру и гуманному будущему».
Сотрудник AWS рассказал Грань что «границы с точки зрения клиентов определенно были пересечены, крупные технологические компании готовы обратиться в суд» и что «последствия новых прибыльных сделок намеренно обеляются». Он вспомнил, как недавно получил электронное письмо от руководителя AWS, в котором рекламировался контракт на сумму более 580 миллионов долларов с ВВС США, среди других партнерских отношений, как признак успехов Amazon в области искусственного интеллекта, не признавая при этом широкого масштаба или связанного с этим вреда.
«Если правительства стремятся использовать подобные технологии, они должны создавать их сами и нести ответственность за эти решения», — сказал он.
Это разрушение может также распространиться на внутреннюю культуру, нормализуя идею о том, что компании должны всегда быть начеку. Сотрудница AWS рассказала, что за ней и ее коллегами отслеживают, насколько часто они используют ИИ в своей работе, как часто они работают в офисе и многое другое. «Я вижу, что я и мои коллеги теряем чувствительность к тому, как мы следим за собой на работе, и меня беспокоит, что это означает, что мы уже становимся наблюдательными, уступчивыми и отказываемся от слишком многого», – сказала она.
Сотрудник OpenAI заявил, что общие настроения в индустрии искусственного интеллекта за последние несколько недель «вновь открыли дверь для более широкой дискуссии о ценностях и будущем технологии». Сотрудник сказал, что антропоцентрическая ситуация в Пентагоне, недавние заголовки новостей ICE и быстрый прогресс ИИ стали одними из основных факторов, положивших начало этим внутренним дискуссиям.
Тем не менее, люди, которые являются иммигрантами или находятся в более уязвимом положении, больше боятся высказываться, сказал сотрудник OpenAI.
Похоже, что компания находится в таком положении, что может сказать «нет» и при этом выжить, говорит Антропик, бывший сотрудник XAI. Ее ориентация на корпоративный, а не потребительский бизнес в области искусственного интеллекта может сделать ее более устойчивой даже без государственных контрактов, что даст ей некоторый рычаг влияния. Инженер-программист Microsoft сказал об Anthropic в целом: «Я был удивлен, увидев, что они придерживаются какого-то принципа. Я не знаю, как долго это продлится».
«Это подойдет?» Этот вопрос у всех на устах. Сообщается, что Пентагон уже обратился к двум крупным оборонным подрядчикам, Boeing и Lockheed Martin, с просьбой предоставить информацию об их зависимости от облака Anthropic, поскольку он потенциально предпринимает шаги для обозначения Anthropic как «риска цепочки поставок». Эта классификация обычно применяется к угрозам национальной безопасности и редко, если вообще когда-либо, присваивается американской компании. Сообщается также, что компания может рассмотреть возможность применения Закона об оборонном производстве, чтобы попытаться заставить Anthropic выполнить ее запрос.
Как и любая другая компания, занимающаяся искусственным интеллектом, если Anthropic закроется, сказал сотрудник Microsoft, очень маловероятно, что она или другие вернутся к роботам-убийцам и наблюдению. «Как только вы вступите в контакт с Министерством обороны или как мы его сейчас называем… Я думаю, им будет трудно осуществлять тот надзор, о котором они заявляют. Было бы полезно, по сути, позволить себе выполнять работу, которая приносит больше всего денег».
Что касается Microsoft, он сказал, что не ожидает, что компания будет следовать каким-либо этическим принципам. Компания активно сотрудничала с Армией обороны Израиля, включая массовую слежку за палестинцами и диссидентами, несмотря на сопротивление сотрудников. (Они заявили, что в прошлом году прекратили часть партнерства.)
Об этом рассказал другой сотрудник Microsoft. Грань Хотя «Microsoft придерживается принципа «ответственного ИИ»,… в настоящее время они пытаются играть на обеих сторонах ради прибыли, а не берут на себя значимые обязательства в отношении ответственного ИИ».
Но в этом нет ничего нового, сказал сотрудник стартапа по искусственному интеллекту. По его мнению, границы часто «неопределенны, особенно в сфере искусственного интеллекта», относительно того, какие действия компании готовы делать для развития своих технологий. «С тех пор, как существует ИИ, большая часть его происходит под поверхностью».
Сотрудник AWS подчеркнул, что «сейчас нам больше, чем когда-либо, нужна межтехнологическая солидарность и последовательное видение ИИ, возглавляемое работниками».
«Меры безопасности, которые пытается реализовать Anthropic, — это отсутствие массовой слежки за американцами и отсутствие полностью автономного оружия. Это означает, что если машина собирается кого-то убить, ей нужен человек», — сказал он. «Даже если бы эта технология была идеальной (а это не так), я думаю, что большинству американцев не хотелось бы, чтобы машины убивали людей без человеческого надзора в Америке, которая стала государством массовой слежки с помощью искусственного интеллекта».