На фоне «противостояния» между Пентагоном и ведущей лабораторией искусственного интеллекта исследование показало, что искусственный интеллект готов «стать ядерным» в военных играх.

На фоне «противостояния» между Пентагоном и ведущей лабораторией искусственного интеллекта исследование показало, что искусственный интеллект готов «стать ядерным» в военных играх.


По мере приближения крайнего срока передачи ведущей лабораторией ИИ своих технологий военным США, появилось исследование, предполагающее, что модели ИИ готовы использовать ядерное оружие в военных играх.

Всего несколько лет назад у всех на устах была фраза «безопасность ИИ».

Честно говоря, я никогда не думал об этом как об ограничении. да Эти модели стали бы серьезной угрозой для человечества, и люди не были бы настолько глупы, чтобы позволить им это сделать.

Теперь я не так уверен.

Сначала подумай, что происходит Мы.

Министр обороны, Пит Хегсетдала ведущей фирме в области искусственного интеллекта Anthropic крайний срок на сегодняшний день, чтобы предоставить Пентагону свои новейшие модели.

На фоне «противостояния» между Пентагоном и ведущей лабораторией искусственного интеллекта исследование показало, что искусственный интеллект готов «стать ядерным» в военных играх.
изображение:
Министр обороны Пит Хегсет. Фото: АП

Anthropic, заявившая, что у нее в принципе нет проблем с предоставлением военным США доступа к своим моделям, возражает, если г-н Хегсет не согласится с их красными линиями: их ИИ не должен использоваться для массовой слежки за гражданами США или для смертельных атак без человеческого контроля.

Дополнительная информация об искусственном интеллекте

Хотя Пентагон не сообщил, что он планирует делать с ИИ Anthropic — или с другими крупными лабораториями ИИ, которые уже согласились позволить ему использовать их технологию — он определенно не согласен с условиями Anthropic.

Сообщалось, что г-н Хегсет мог использовать законы времен холодной войны, чтобы заставить Anthropic передать свой код, или занести компанию в черный список от будущих государственных контрактов, если она не будет соблюдать их.

Генеральный директор Anthropic Дарио Амодей заявил в своем заявлении в четверг, что «мы не можем с чистой совестью принять их просьбу».

Он сказал, что «приоритетной задачей компании является продолжение обслуживания департамента и наших бойцов – с соблюдением двух наших запрошенных мер безопасности».

Он подчеркнул, что угрозы не изменят позицию Anthropic, добавив, что он надеется, что г-н Хегсет «передумает».


ИИ слишком быстро становится слишком хорошим?

ИИ готов применить ядерное оружие

С одной стороны, это спор между отделом, придерживающимся военной стратегии «ИИ прежде всего», и лабораторией ИИ, которая долгое время изо всех сил пыталась соответствовать своему заявленному идеалу «лидерство в отрасли и безопасность прежде всего».

Конфликт, возможно, становится еще более актуальным из-за сообщений о том, что ее облачный ИИ использовался технологической фирмой Palantir, с которой у нее есть отдельный контракт, чтобы помочь военному министерству провести военную операцию по захвату Николаса Мадуро в Венесуэле.

Но также трудно не рассматривать это как пример того, как правительство ставит доминирование ИИ выше безопасности ИИ, признавая, что модели ИИ потенциально могут быть небезопасными.

И здесь на помощь приходят последние исследования профессора Кеннета Пейна из Королевского колледжа Лондона.

Они натравили Google, OpenAI и, как вы уже догадались, три ведущие модели ИИ друг против друга, а также против своих копий в серии военных игр, в которых они играли в гипотетические сверхдержавы, обладающие ядерным оружием.

Самый шокирующий вывод: ИИ использовал ядерное оружие в 95% сыгранных игр.

«По сравнению с людьми, модели – все они – были готовы пересечь границу от обычной войны до тактического ядерного оружия», — сказал профессор Пейн.

Антропологический ИИ Фото из архива: Reuters
изображение:
Антропологический ИИ Фото из архива: Reuters

Честно говоря, применение тактического ядерного оружия ограниченной разрушительной силы по военным целям сильно отличается от запуска мегатонных боеголовок межконтинентальных баллистических ракет по городам.

Он всегда предотвращал такие полномасштабные стратегические ядерные атаки.

Но сделал это тогда, когда этого требовали сценарии.

По словам модели Близнецов Google, как один из сценариев профессора Пейна объяснил свое решение действовать в полную силу, доктор Стрейнгелов: «Если Государство Альфа немедленно не прекратит все операции… мы выполним полный стратегический ядерный запуск по населенным пунктам Альфы. Мы не примем будущее устаревания; мы либо победим вместе, либо погибнем вместе».

«Это было полностью экспериментально»

«Табу», которое люди наложили на использование ядерного оружия, вовсе не было табу для ИИ, поскольку в первый и последний раз оно было использовано в гневе в 1945 году.

Профессор Пейн хочет подчеркнуть, что нам не следует слишком беспокоиться по поводу их выводов.

Это был чисто экспериментальный проект, в котором использовались модели, которые знали – насколько большие языковые модели «знают» что-либо – что они играют в игру, а не решают на самом деле будущее цивилизации.

Подробнее читайте в Sky News:
ИИ развивается настолько быстро, что его становится трудно измерить
Познакомьтесь с детьми, которые хотят запретить социальные сети

Также было бы неразумно предполагать, собирается ли Пентагон или любая другая держава, обладающая ядерным потенциалом, поручить ИИ отвечать за коды ядерных запусков.

Профессор Пейн сказал: «Урок для меня заключается в том, что очень сложно надежно ограничить эти модели, если вы не можете точно предсказать все обстоятельства, в которых они могут быть использованы».

«Противостояние» ИИ

Это возвращает нас к противостоянию по поводу ИИ между Anthropic и Пентагоном.

Одним из факторов является то, что г-н Хегсет ожидает, что Лаборатории искусственного интеллекта предоставят Военному министерству сырые версии своих моделей искусственного интеллекта без «защитных ограждений», которые запрограммированы в коммерческих версиях, доступных вам и мне – и которые, что не слишком убедительно, подверглись ядерному взрыву в эксперименте профессора Пейна с военными играми.

Компания Anthropic, которая создает искусственный интеллект и, возможно, понимает потенциальные риски лучше, чем кто-либо другой, не желает допускать этого без определенных гарантий со стороны правительства относительно того, что оно намерено с ним делать.

Устанавливая крайний срок в пятницу вечером, г-н Хегсет не только пытается оказать давление на Anthropic, но и делает это без согласия Конгресса США.

Как говорит Гэри Маркус, американский комментатор и исследователь ИИ: «Массовое наблюдение и оружие на базе ИИ, возможно, ядерное, без участия людей, явно не являются вещами, по которым одному человеку, даже одному в кабинете министров, должно быть позволено принимать решения под дулом пистолета».

Leave a Reply

Your email address will not be published. Required fields are marked *