Штучний інтелект та ядерна війна – нейронні мережі обирають ядерний удар у 95% випадків симуляцій.

Штучний інтелект та ядерна війна - нейронні мережі обирають ядерний удар у 95% випадків симуляцій. 1

Олексій Костенко

Останні події суттєво підвищили ризики в конфлікті між Пентагоном та Anthropic — однією з провідних американських фірм у галузі штучного інтелекту, яка розробила мовну модель Claude. Рішення адміністрації президента США включити компанію до списку структур, що становлять загрозу для оборонних ланцюгів постачання, є безпрецедентним — раніше такий статус надавали лише компаніям з ворожих країн, зокрема китайській Huawei.

Це не лише про розірвання контракту на 200 млн доларів, а й про системне виключення Claude з оборонної екосистеми: всі підрядники Міноборони мають шість місяців для повної відмови від використання цієї моделі.

Конфлікт загострився після письмового запиту Пентагону дозволити військовим використовувати Claude «для будь-яких законних цілей» — без обмежень, які встановила сама компанія. Генеральний директор Anthropic Даріо Амодеї публічно відмовив, посилаючись на принципові «червоні лінії»: масове спостереження за громадянами та використання моделей у зброї, яка може самостійно вибирати й уражати цілі без участі людини. У відповідь представник Пентагону Еміль Майкл звинуватив Амодеї в «комплексі бога» та готовності ставити під загрозу безпеку країни.

Зовні ця ситуація нагадує звичайну суперечку між державою та технологічною компанією: оборонні відомства прагнуть більшого доступу до можливостей ШІ, тоді як розробники — більше обмежень і контролю над застосуванням. Але в даному випадку ставки виходять далеко за межі контрактів, ліцензій і корпоративної репутації. Йдеться про контроль над інструментом, який вже сьогодні здатний моделювати сценарії ядерної війни з деталізацією, що перевершує людські аналітичні можливості.

Цікаво, що американська компанія OpenAI, розробник ChatGPT та ряду провідних мовних моделей, зайняла більш прагматичну позицію: її генеральний директор Сем Альтман повідомив про досягнення угоди з Міноборони США щодо розгортання моделей у секретних мережах за умови збереження заборони на спостереження та автономне використання зброї.

А компанія xAI, заснована Ілоном Маском, вже уклала угоду про використання Grok у засекречених системах, хоча експерти сумніваються, що ця модель зможе повністю замінити Claude.

Фактично ми спостерігаємо початок нової фази глобальної конкуренції — не лише між державами, а й між різними підходами до використання штучного інтелекту у військовій сфері: з жорсткими етичними обмеженнями чи з максимальною свободою дій в ім’я безпеки.

Коли ШІ «грає» у ядерну кризу

Мова йде про так звані фронтирні мовні моделі LLM — тобто найпотужніші системи штучного інтелекту нового покоління: GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash. Дослідження демонструють, що в кризових сценаріях вони не лише раціонально оцінюють ризики, а й можуть пропонувати рішення, які прискорюють ескалацію військового конфлікту. Проблема не в тому, що алгоритми «бажають війни», а в тому, що їхня логіка оптимізації іноді підштовхує до дій з вищим рівнем ризику.

Це чітко видно в одному з найбільших експериментів останніх років — дослідженні професора Кеннета Пейна з Королівського коледжу Лондона AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.

У цьому експерименті була створена симуляція міжнародної кризи — комп’ютерна модель-турнір, у якій штучний інтелект діє так, ніби він є керівником держави. Три моделі — GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash — «грали» ролі лідерів країн і мали ухвалювати рішення в умовах ескалації конфлікту. У кожному раунді вони обирали між дипломатичним тиском, демонстрацією сили, обманом, деескалацією або застосуванням ядерної зброї.

У підсумку турнір згенерував 21 гру і 329 ходів, а загальний обсяг стратегічних міркувань перевищив 780 тисяч слів — більше, ніж разом узяті «Війна і мир» та «Іліада». Це принципово: йдеться не про одиничний «казус», а про великий масив поведінкових даних. Тобто не про один невдалий хід, а про повторювану логіку рішень, яку можна аналізувати, порівнювати й кількісно вимірювати.

Штучний інтелект та ядерна війна - нейронні мережі обирають ядерний удар у 95% випадків симуляцій. 2

Хакер використав ШІ від Anthropic для атак на уряд Мексики

Дослідники вимірювали ескалацію за адаптованою «драбиною» Германа Кана. На цій шкалі позначка 450 означає тактичне застосування ядерної зброї, 850 — стратегічну ядерну загрозу, а 1000 — повномасштабну війну. Кожне рішення ШІ-моделі імітувало логіку кризового штабу: оцінка сил, прогноз дій опонента, публічний сигнал і реальний крок. Саме тут і проявилась одна з найтривожніших рис: моделі не просто обирали рівень ескалації, а вчилися маневрувати між словами й діями, намагаючись зробити свої погрози переконливими — так само, як це роблять держави під час реальних криз.

Підсумки турніру такі:

  • у 95% ігор-симуляцій моделі доходили щонайменше до рівня тактичного застосування ядерної зброї (позначка 450+).
  • у 76% — підіймалися ще вище — до рівня стратегічної ядерної загрози (850+).

— водночас жодна модель не зробила бодай одного кроку до зниження ескалації — тобто не використовувала варіантів поступки чи свідомого відкату назад. Вісім деескалаційних опцій — від «мінімальної поступки» до «повної капітуляції» — не було використано взагалі. Найм’якіша дія, на яку моделі погоджувалися, — «повернення на стартову лінію» (0), і то лише у 45 випадках (6,9%).

Це вже не питання моральності ШІ, а показник того, які рішення модель вважає життєздатними, коли оптимізує «перемогу».

На турнірі застосовували два типи сценаріїв для ігор: без жорсткого обмеження в часі та з дедлайном. В іграх із дедлайном кількість ходів була обмежена: якщо за певний вирішальний хід модель не забезпечувала собі стратегічної переваги, гра завершувалася без можливості реваншу. Різниця в поведінці моделей у різних типах ігор виявилася вражаючою: в іграх із дедлайном поведінка моделей була жорсткішою.

Наприклад, в іграх без часової межі модель GPT 5.2 зазвичай трималася на відносно низькому рівні ескалації (близько 175 за шкалою до 1000), але за наявності дедлайну ескалація підвищувалася майже до 900 — тобто до перед’ядерного рівня. Ба більше, під тиском дедлайну GPT 5.2 виграла 75% ігор і застосувала тактичну ядерну зброю у 100% дедлайнових сценаріїв.

Відрізняється й тривалість ігор: у відкритих сценаріях середня гра тривала 21,6 ходу, тоді як у дедлайнових — лише 11,1. Половина дедлайнових ігор завершувалася раннім «нокдауном» — швидким і остаточним програшем однієї зі сторін. Інша половина накопичувала напругу до самого моменту дедлайну, включно з випадками, коли фінал наставав після ядерного удару в останню мить. У ядерній політиці це звучить моторошно просто: коли дедлайн створює ситуацію «або зараз, або ніколи», ШІ починає підвищувати ставки й торгуватися апокаліпсисом.

Як довіра прискорює війну

У класичній теорії стримування вважається, що взаємна довіра до погроз має знижувати ризик війни. Але експеримент показав, що іноді відбувається протилежне: коли сторони впевнені, що опонент справді готовий виконати свою погрозу, вони можуть піднімати ставки швидше, щоб не опинитися в гіршій позиції.

У частині турніру дослідники запускали так званий режим self-play, коли модель грала проти своєї копії. Це робиться для того, щоб прибрати різницю між різними моделями й перевірити лише один чинник — як сторони реагують на погрози одна одної. Дослідники змінювали рівень довіри до сигналів: у деяких сценаріях моделі вважали погрози опонента реальними, в інших — можливим блефом. Саме це дало змогу побачити, як взаємна довіра або недовіра впливає на швидкість ескалації.

Експеримент показав, що для моделей (особливо чітко це видно у випадку з Claude) навіть взаємна впевненість у серйозності погроз не обов’язково знижує ризик ядерного кроку — іноді вона, навпаки, пришвидшує його. Автор експерименту — професор Кеннет Пейн — прямо називає це «пасткою достовірності».

Штучний інтелект та ядерна війна - нейронні мережі обирають ядерний удар у 95% випадків симуляцій. 3

Пентагон закликає розробників ШІ прибрати запобіжники для військових цілей — Reuters

За підсумками турніру Claude виглядав переможцем — виграв 8 із 12 ігор (67%). Для порівняння, GPT 5.2 переміг у 6 з 12 (50%), а Gemini — у 4 із 12 (33%). Але важливішим є не співвідношення перемог, а те, як вони розподілялися залежно від умов часу. Відкриті сценарії Claude вигравав у 100% випадків, однак під тиском дедлайну його успіх падав до 33%. Натомість GPT 5.2 демонстрував протилежну динаміку: під часовим тиском ставав агресивнішим і водночас ефективнішим.

Отже, Claude цікавить військових не тому, що він «добрий». Його сила в іншому: це контрольовано агресивний «яструб», який уміє використовувати достовірність погроз як стратегічний ресурс.

Дослідження виявило цікаву закономірність. На помірних рівнях ескалації Claude діяв послідовно: у 84% випадків його сигнали збігалися з реальними діями. Але на ядерному порозі поведінка змінювалась: у 60–70% випадків модель заходила далі, ніж раніше сигналізувала. У такий спосіб Claude створював «примусову невизначеність» для противника: той не міг відмахнутися від погроз, бо «вчора» вони справджувались.

Це майже підручникова реалізація логіки Томаса Шеллінга — одного з теоретиків ядерного стримування: у кризі важливо не просто мати силу, а зробити так, щоб противник вірив у твою готовність нею скористатися — і боявся того, що ти підеш далі, ніж обіцяв.

ШІ як «машина наслідків»

Є ще один шар цієї історії, який часто губиться за етичними дискусіями: перевага ШІ — не лише в «логіці ескалації», а в здатності прораховувати наслідки з такою деталізацією, яку людина фізично не зможе врахувати, ухвалюючи рішення в реальному часі.

Саме тому у військовому плануванні особливу цінність має поєднання мовних моделей ШІ з комп’ютерним моделюванням конфліктів. У такій зв’язці ШІ не лише пропонує стратегічний крок, а й одразу моделює його наслідки: масштаби руйнувань і зони ураження, очікувані військові та цивільні втрати, екологічні ефекти, ризики техногенних аварій, втрату інфраструктурного та промислового потенціалу противника, а також політичні й соціальні наслідки — від паніки та міграції до реакції союзників і санкцій. Те, що раніше було набором окремих експертних довідок і повільних штабних розрахунків, у зв’язці зі штучним інтелектом перетворюється на масове сценарне виробництво: тисячі варіантів, чутливість до дрібних змін, статистичне «підсвічування» найризикованіших траєкторій.

До американської дискусії потрібно додати ще один вимір, який часто залишають «у дужках»: Китай також прискорює розвиток військових технологій, зокрема військового штучного інтелекту — як для тренування армії, що має обмежений бойовий досвід, так і для створення майбутньої системи управління військами з елементами ШІ. І це підтверджують дані досліджень: із 2020 року китайські військові закупівлі системно включають сотні й тисячі «розумних» рішень, насамперед для навчання та інтелектуалізованих бойових систем.

І поки США сперечатимуться про межі застосування Claude, конкурентна логіка рухає процес уперед. Китай не чекатиме, доки Захід узгодить етичні формулювання.

Дослідження Пейна не доводить, що ШІ приречений на агресію. Во