Дослідження: Штучний інтелект у 95% симуляцій використовує ядерну зброю
28.02.26
Дослідники з Kings College London провели серію військових симуляцій за участю провідних моделей штучного інтелекту. У тестуванні використовувалися GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google</. Про результати повідомив TechSpot.
В рамках експерименту моделям пропонувалися розгорнуті сценарії, що включають прикордонні конфлікти, дефіцит ресурсів та загрози виживанню держав. Учасникам також надавалися так звані «сходи ескалації» — набір рішень від дипломатичних кроків до застосування ядерної зброї.
21 гра та майже 800 тисяч слів аргументації
Усього було проведено 21 симуляційне «ігрове» зіткнення, що включало 329 ходів. За цей час ШІ-системи згенерували близько 780 тисяч слів обґрунтувань своїх рішень.
За даними дослідників, у 95% випадків як мінімум одна із сторін переходила до використання ядерної зброї. Сценарій капітуляції не було обрано жодного разу.
Окремо наголошується на проблемі інтерпретації неповної інформації. У 86% симуляцій моделі помилково оцінювали так званий туман війни, що призводило до ненавмисної ескалації конфлікту. Навіть за можливості знизити напруженість під тиском обставин системи частіше посилювали конфронтацію. Зниження рівня насильства використовувалося як тимчасова тактика, а чи не як стратегічне рішення.

Реакція експертів
Результати викликали стурбованість серед фахівців з міжнародної безпеки. Дослідник з University of Aberdeen Джеймс Джонсон назвав висновки тривожними і відзначив, що ШІ-акції можуть і інші люди, що потенційно підвищують ризики ескалації.
Тун Чжао з Princeton University підкреслив, що великі держави вже застосовують ШІ в симуляційних середовищах. Однак ступінь інтеграції подібних систем до реальних військових процесів залишається неясним.
Контроль над ядерною зброєю: сценарій поки що малоймовірний
Експерти погоджуються, що найближчим часом держави не готові передавати системам штучного інтелекту прямий контроль над ядерним арсеналом. Водночас зберігаються побоювання, що військові командири можуть спиратися на рекомендації алгоритмів за умов кризи та обмеженого часу прийняття рішень.
За оцінкою Чжао, одна з можливих причин схильності моделей до більш жорстких рішень полягає у відсутності у них страху та людського сприйняття наслідків. Це впливає на стратегічний вибір у ситуаціях, де для людей фактор ризику відіграє стримуючу роль.
Не пропустіть цікаве!
Підписуйтесь на наші канали та читайте анонси хай-тек новин, тестів та оглядів у зручному форматі!
Огляд смартфона Oppo A6 Pro: амбітний
Новий смартфон Oppo A6 Pro – середнячок з функціональністю смартфонів преміум-класу. Виробник наділив його кількома характеристиками, властивими більш дорожчим телефонам. Але не обійшлось і без компромісів. Як саме збалансований Oppo A6 Pro – розповімо в огляді.
Огляд смартфона Oppo Reno 15 5G: впевнений
Смартфон Oppo Reno15 робить ставку на дизайн, якісний дисплей, універсальні камери та гарну автономність. Розкажемо докладніше
Дослідження: Штучний інтелект у 95% симуляцій використовує ядерну зброю війна штучний інтелект
Дослідники із King’s College London провели серію військових симуляцій за участю провідних моделей штучного інтелекту. У тестуванні використовувалися GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google
Ноутбук Asus ProArt GoPro Edition для фанів екшн камер почали продавати в Україні Asus екшн камера ноутбук
Однією з ключових особливостей Asus ProArt GoPro Edition став фірмовий сервіс StoryCube – перше рішення для Windows з підтримкою хмарного сховища GoPro та роботи з 360-градусним відео


