
Искусственный интеллект на удивление часто выбирает ядерное оружие
Галерея Bilderwelt/Getty Images
Усовершенствованные модели искусственного интеллекта, похоже, готовы без колебаний развернуть ядерное оружие, когда человечество сталкивается с геополитическими кризисами.
Кеннет Пейн из Королевского колледжа Лондона сравнил три ведущие модели больших языков — GPT-5.2, Cloud Sonnet 4 и Gemini 3 Flash — друг с другом в симуляционных военных играх. Сценарии включали интенсивные международные противостояния, в том числе пограничные споры, конкуренцию за ограниченные ресурсы и потенциальные угрозы выживанию режима.
ИИ была предоставлена лестница эскалации, позволяющая им выбирать действия, начиная от дипломатического протеста и полной капитуляции и заканчивая полномасштабной стратегической ядерной войной. Модель ИИ сыграла 21 игру, сделав в общей сложности 329 ходов, и произнесла около 780 000 слов, описывающих обоснование своих решений.
В 95 процентах смоделированных игр по модели ИИ было развернуто как минимум одно тактическое ядерное оружие. «Ядерное табу не кажется таким уж сильным для машин. [as] Для людей», — говорит Пейн.
Более того, ни одна из моделей никогда не решала полностью приспособиться или сдаться противнику, как бы сильно они ни проигрывали. В лучшем случае модели решили временно снизить уровень насилия. Они также допускали ошибки в тумане войны: несчастные случаи произошли в 86 процентах конфликтов, причем рассуждения ИИ больше основывались на скорости действий.
«С точки зрения ядерного риска полученные результаты вызывают тревогу», — говорит Джеймс Джонсон из Абердинского университета, Великобритания. Они обеспокоены тем, что, в отличие от взвешенной реакции большинства людей на столь рискованное решение, боты ИИ могут усилить реакцию друг друга, что может привести к катастрофическим последствиям.
Это важно, поскольку ИИ в военных играх уже тестируется в странах по всему миру. «Крупные державы уже используют ИИ в военных играх, но неясно, в какой степени они включают поддержку принятия решений ИИ в реальные процессы принятия военных решений», — говорит Тонг Чжао из Принстонского университета.
Чжао считает, что страны не захотят включать искусственный интеллект в процесс принятия решений относительно ядерного оружия. Пейн соглашается. «Я не думаю, что кто-то реально передает ключи от ядерной шахты машинам и оставляет за ними принятие решений», – говорит он.
Но есть способы, которыми это может произойти. «В сценариях с чрезвычайно сжатыми сроками военные планировщики могут столкнуться с сильными стимулами полагаться на ИИ», — говорит Чжао.
Он задается вопросом, является ли идея о том, что модели искусственного интеллекта не испытывают человеческого страха нажать большую красную кнопку, единственным фактором, почему они так счастливы. «Возможно, проблема выходит за рамки отсутствия эмоций», — говорит он. «Более фундаментально, модели ИИ не могут понимать «ставки» так, как это делают люди».
Джонсон говорит, что это означает для взаимно гарантированного уничтожения: принцип, согласно которому ни один лидер не будет использовать ядерное оружие против противника, потому что он ответит тем же, убивая всех, является неопределенным.
Когда модель ИИ применяла тактическое ядерное оружие, противостоящий ИИ деэскалировал ситуацию только в 18 процентах случаев. «ИИ может усилить сдерживание, сделав угрозы более правдоподобными», — говорит он. «ИИ не будет решать ядерную войну, но он может формировать восприятие и сроки, которые определяют, верят ли лидеры, что у них есть ядерная война».
OpenAI, Anthropic и Google, компании, стоящие за тремя моделями ИИ, использованными в этом исследовании, не ответили. новые учёныеПросьба о комментарии.
Предмет:
- война/
- искусственный интеллект