Исследование: Искусственный интеллект в 95% симуляций использует ядерное оружие

Israeli rocket Arrow 3

 

Исследователи из King’s College London провели серию военных симуляций с участием ведущих моделей искусственного интеллекта. В тестировании использовались GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. О результатах сообщил TechSpot.

 

В рамках эксперимента моделям предлагались развернутые сценарии, включающие пограничные конфликты, дефицит ресурсов и угрозы выживанию государств. Участникам также предоставлялась так называемая «лестница эскалации» — набор решений от дипломатических шагов до применения ядерного оружия.

 

21 игра и почти 800 тысяч слов аргументации

 

Всего было проведено 21 симуляционное «игровое» столкновение, включавшее 329 ходов. За это время ИИ-системы сгенерировали около 780 тысяч слов обоснований своих решений.

 

По данным исследователей, в 95% случаев как минимум одна из сторон переходила к использованию ядерного оружия. Сценарий капитуляции не был выбран ни разу.

 

Отдельно отмечается проблема интерпретации неполной информации. В 86% симуляций модели ошибочно оценивали так называемый «туман войны», что приводило к непреднамеренной эскалации конфликта. Даже при возможности снизить напряжённость под давлением обстоятельств системы чаще усиливали конфронтацию. Снижение уровня насилия использовалось как временная тактика, а не как стратегическое решение.

 

netflix Gears of War

 

Реакция экспертов

 

Результаты вызвали обеспокоенность среди специалистов по международной безопасности. Исследователь из University of Aberdeen Джеймс Джонсон назвал выводы тревожными и отметил, что ИИ-системы могут усиливать реакцию друг друга быстрее и жёстче, чем люди, что потенциально повышает риски эскалации.

 

Тун Чжао из Princeton University подчеркнул, что крупные державы уже применяют ИИ в симуляционных средах. Однако степень интеграции подобных систем в реальные военные процессы остаётся неясной.

 

Контроль над ядерным оружием: сценарий пока маловероятный

 

Эксперты сходятся во мнении, что в ближайшее время государства не готовы передавать системам ИИ прямой контроль над ядерным арсеналом. Вместе с тем сохраняются опасения, что военные командиры могут опираться на рекомендации алгоритмов в условиях кризиса и ограниченного времени на принятие решений.

 

По оценке Чжао, одна из возможных причин склонности моделей к более жёстким решениям заключается в отсутствии у них страха и человеческого восприятия последствий. Это влияет на стратегический выбор в ситуациях, где для людей фактор риска играет сдерживающую роль.


Не пропустите интересное!

Підписывайтесь на наши каналы и читайте анонсы хай-тек новостей, тестов и обзоров в удобном формате!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *





Статьи & тестыArticles

Обзор смартфона Oppo A6 Pro: амбициозный Oppo A6 Pro (CPH2799)

Новый смартфон Oppo A6 Pro — телефон среднего уровня с функциональностью смартфонов премиум-класса. Производитель наделил его множеством характеристик, присущих более дорогим телефонам. Но не обошлось и без компромиссов. Как именно сбалансирован Oppo A6 Pro – расскажем в обзоре.


Обзор смартфона Oppo Reno 15 5G: уверенный Oppo Reno15

Смартфон Oppo Reno15 делает ставку на дизайн, качественный дисплей, универсальные камеры и хорошую автономность. Расскажем подробнее


НовостиNews
| 15.43
Исследование: Искусственный интеллект в 95% симуляций использует ядерное оружие  
Israeli rocket Arrow 3

Исследователи из King’s College London провели серию военных симуляций с участием ведущих моделей искусственного интеллекта. В тестировании использовались GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google

| 08.09
Ноутбук Asus ProArt GoPro Edition для фанатов экшн камер начали продавать в Украине   
Asus ProArt GoPro Edition

Одной из ключевых особенностей Asus ProArt GoPro Edition стал фирменный сервис StoryCube — первое решение для Windows с поддержкой облачного хранилища GoPro и работы с 360-градусным видео