Дослідження: Штучний інтелект у 95% симуляцій використовує ядерну зброю

Israeli rocket Arrow 3

 

Дослідники з Kings College London провели серію військових симуляцій за участю провідних моделей штучного інтелекту. У тестуванні використовувалися GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google</. Про результати повідомив TechSpot.

 

В рамках експерименту моделям пропонувалися розгорнуті сценарії, що включають прикордонні конфлікти, дефіцит ресурсів та загрози виживанню держав. Учасникам також надавалися так звані «сходи ескалації» — набір рішень від дипломатичних кроків до застосування ядерної зброї.

 

21 гра та майже 800 тисяч слів аргументації

 

Усього було проведено 21 симуляційне «ігрове» зіткнення, що включало 329 ходів. За цей час ШІ-системи згенерували близько 780 тисяч слів обґрунтувань своїх рішень.

 

За даними дослідників, у 95% випадків як мінімум одна із сторін переходила до використання ядерної зброї. Сценарій капітуляції не було обрано жодного разу.

 

Окремо наголошується на проблемі інтерпретації неповної інформації. У 86% симуляцій моделі помилково оцінювали так званий туман війни, що призводило до ненавмисної ескалації конфлікту. Навіть за можливості знизити напруженість під тиском обставин системи частіше посилювали конфронтацію. Зниження рівня насильства використовувалося як тимчасова тактика, а чи не як стратегічне рішення.

 

netflix Gears of War

 

Реакція експертів

 

Результати викликали стурбованість серед фахівців з міжнародної безпеки. Дослідник з University of Aberdeen Джеймс Джонсон назвав висновки тривожними і відзначив, що ШІ-акції можуть і інші люди, що потенційно підвищують ризики ескалації.

 

Тун Чжао з Princeton University підкреслив, що великі держави вже застосовують ШІ в симуляційних середовищах. Однак ступінь інтеграції подібних систем до реальних військових процесів залишається неясним.

 

Контроль над ядерною зброєю: сценарій поки що малоймовірний

 

Експерти погоджуються, що найближчим часом держави не готові передавати системам штучного інтелекту прямий контроль над ядерним арсеналом. Водночас зберігаються побоювання, що військові командири можуть спиратися на рекомендації алгоритмів за умов кризи та обмеженого часу прийняття рішень.

 

За оцінкою Чжао, одна з можливих причин схильності моделей до більш жорстких рішень полягає у відсутності у них страху та людського сприйняття наслідків. Це впливає на стратегічний вибір у ситуаціях, де для людей фактор ризику відіграє стримуючу роль.


Не пропустіть цікаве!

Підписуйтесь на наші канали та читайте анонси хай-тек новин, тестів та оглядів у зручному форматі!

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *





Статті & тестиArticles

Огляд смартфона Oppo A6 Pro: амбітний Oppo A6 Pro (CPH2799)

Новий смартфон Oppo A6 Pro – середнячок з функціональністю смартфонів преміум-класу. Виробник наділив його кількома характеристиками, властивими більш дорожчим телефонам. Але не обійшлось і без компромісів. Як саме збалансований Oppo A6 Pro – розповімо в огляді.


Огляд смартфона Oppo Reno 15 5G: впевнений Oppo Reno15

Смартфон Oppo Reno15 робить ставку на дизайн, якісний дисплей, універсальні камери та гарну автономність. Розкажемо докладніше


НовостиNews
| 15.43
Дослідження: Штучний інтелект у 95% симуляцій використовує ядерну зброю  
Israeli rocket Arrow 3

Дослідники із King’s College London провели серію військових симуляцій за участю провідних моделей штучного інтелекту. У тестуванні використовувалися GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google

| 08.09
Ноутбук Asus ProArt GoPro Edition для фанів екшн камер почали продавати в Україні   
Asus ProArt GoPro Edition

Однією з ключових особливостей Asus ProArt GoPro Edition став фірмовий сервіс StoryCube – перше рішення для Windows з підтримкою хмарного сховища GoPro та роботи з 360-градусним відео