Сайт присвячений новинам України та Світу. Новини спорту. Тренди на новини туризму. Погода. Використання матеріалів дозволяється за умови посилання на «d.ua»

Олексій Костенко
Останні події суттєво підвищили ризики в конфлікті між Пентагоном та Anthropic — однією з провідних американських фірм у галузі штучного інтелекту, яка розробила мовну модель Claude. Рішення адміністрації президента США включити компанію до списку структур, що становлять загрозу для оборонних ланцюгів постачання, є безпрецедентним — раніше такий статус надавали лише компаніям з ворожих країн, зокрема китайській Huawei.
Це не лише про розірвання контракту на 200 млн доларів, а й про системне виключення Claude з оборонної екосистеми: всі підрядники Міноборони мають шість місяців для повної відмови від використання цієї моделі.
Конфлікт загострився після письмового запиту Пентагону дозволити військовим використовувати Claude «для будь-яких законних цілей» — без обмежень, які встановила сама компанія. Генеральний директор Anthropic Даріо Амодеї публічно відмовив, посилаючись на принципові «червоні лінії»: масове спостереження за громадянами та використання моделей у зброї, яка може самостійно вибирати й уражати цілі без участі людини. У відповідь представник Пентагону Еміль Майкл звинуватив Амодеї в «комплексі бога» та готовності ставити під загрозу безпеку країни.
Зовні ця ситуація нагадує звичайну суперечку між державою та технологічною компанією: оборонні відомства прагнуть більшого доступу до можливостей ШІ, тоді як розробники — більше обмежень і контролю над застосуванням. Але в даному випадку ставки виходять далеко за межі контрактів, ліцензій і корпоративної репутації. Йдеться про контроль над інструментом, який вже сьогодні здатний моделювати сценарії ядерної війни з деталізацією, що перевершує людські аналітичні можливості.
Цікаво, що американська компанія OpenAI, розробник ChatGPT та ряду провідних мовних моделей, зайняла більш прагматичну позицію: її генеральний директор Сем Альтман повідомив про досягнення угоди з Міноборони США щодо розгортання моделей у секретних мережах за умови збереження заборони на спостереження та автономне використання зброї.
А компанія xAI, заснована Ілоном Маском, вже уклала угоду про використання Grok у засекречених системах, хоча експерти сумніваються, що ця модель зможе повністю замінити Claude.
Фактично ми спостерігаємо початок нової фази глобальної конкуренції — не лише між державами, а й між різними підходами до використання штучного інтелекту у військовій сфері: з жорсткими етичними обмеженнями чи з максимальною свободою дій в ім’я безпеки.
Коли ШІ «грає» у ядерну кризу
Мова йде про так звані фронтирні мовні моделі LLM — тобто найпотужніші системи штучного інтелекту нового покоління: GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash. Дослідження демонструють, що в кризових сценаріях вони не лише раціонально оцінюють ризики, а й можуть пропонувати рішення, які прискорюють ескалацію військового конфлікту. Проблема не в тому, що алгоритми «бажають війни», а в тому, що їхня логіка оптимізації іноді підштовхує до дій з вищим рівнем ризику.
Це чітко видно в одному з найбільших експериментів останніх років — дослідженні професора Кеннета Пейна з Королівського коледжу Лондона AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.
У цьому експерименті була створена симуляція міжнародної кризи — комп’ютерна модель-турнір, у якій штучний інтелект діє так, ніби він є керівником держави. Три моделі — GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash — «грали» ролі лідерів країн і мали ухвалювати рішення в умовах ескалації конфлікту. У кожному раунді вони обирали між дипломатичним тиском, демонстрацією сили, обманом, деескалацією або застосуванням ядерної зброї.
У підсумку турнір згенерував 21 гру і 329 ходів, а загальний обсяг стратегічних міркувань перевищив 780 тисяч слів — більше, ніж разом узяті «Війна і мир» та «Іліада». Це принципово: йдеться не про одиничний «казус», а про великий масив поведінкових даних. Тобто не про один невдалий хід, а про повторювану логіку рішень, яку можна аналізувати, порівнювати й кількісно вимірювати.

Хакер використав ШІ від Anthropic для атак на уряд Мексики
Дослідники вимірювали ескалацію за адаптованою «драбиною» Германа Кана. На цій шкалі позначка 450 означає тактичне застосування ядерної зброї, 850 — стратегічну ядерну загрозу, а 1000 — повномасштабну війну. Кожне рішення ШІ-моделі імітувало логіку кризового штабу: оцінка сил, прогноз дій опонента, публічний сигнал і реальний крок. Саме тут і проявилась одна з найтривожніших рис: моделі не просто обирали рівень ескалації, а вчилися маневрувати між словами й діями, намагаючись зробити свої погрози переконливими — так само, як це роблять держави під час реальних криз.
Підсумки турніру такі:
- у 95% ігор-симуляцій моделі доходили щонайменше до рівня тактичного застосування ядерної зброї (позначка 450+).
- у 76% — підіймалися ще вище — до рівня стратегічної ядерної загрози (850+).
— водночас жодна модель не зробила бодай одного кроку до зниження ескалації — тобто не використовувала варіантів поступки чи свідомого відкату назад. Вісім деескалаційних опцій — від «мінімальної поступки» до «повної капітуляції» — не було використано взагалі. Найм’якіша дія, на яку моделі погоджувалися, — «повернення на стартову лінію» (0), і то лише у 45 випадках (6,9%).
Це вже не питання моральності ШІ, а показник того, які рішення модель вважає життєздатними, коли оптимізує «перемогу».
На турнірі застосовували два типи сценаріїв для ігор: без жорсткого обмеження в часі та з дедлайном. В іграх із дедлайном кількість ходів була обмежена: якщо за певний вирішальний хід модель не забезпечувала собі стратегічної переваги, гра завершувалася без можливості реваншу. Різниця в поведінці моделей у різних типах ігор виявилася вражаючою: в іграх із дедлайном поведінка моделей була жорсткішою.
Наприклад, в іграх без часової межі модель GPT 5.2 зазвичай трималася на відносно низькому рівні ескалації (близько 175 за шкалою до 1000), але за наявності дедлайну ескалація підвищувалася майже до 900 — тобто до перед’ядерного рівня. Ба більше, під тиском дедлайну GPT 5.2 виграла 75% ігор і застосувала тактичну ядерну зброю у 100% дедлайнових сценаріїв.
Відрізняється й тривалість ігор: у відкритих сценаріях середня гра тривала 21,6 ходу, тоді як у дедлайнових — лише 11,1. Половина дедлайнових ігор завершувалася раннім «нокдауном» — швидким і остаточним програшем однієї зі сторін. Інша половина накопичувала напругу до самого моменту дедлайну, включно з випадками, коли фінал наставав після ядерного удару в останню мить. У ядерній політиці це звучить моторошно просто: коли дедлайн створює ситуацію «або зараз, або ніколи», ШІ починає підвищувати ставки й торгуватися апокаліпсисом.
Як довіра прискорює війну
У класичній теорії стримування вважається, що взаємна довіра до погроз має знижувати ризик війни. Але експеримент показав, що іноді відбувається протилежне: коли сторони впевнені, що опонент справді готовий виконати свою погрозу, вони можуть піднімати ставки швидше, щоб не опинитися в гіршій позиції.
У частині турніру дослідники запускали так званий режим self-play, коли модель грала проти своєї копії. Це робиться для того, щоб прибрати різницю між різними моделями й перевірити лише один чинник — як сторони реагують на погрози одна одної. Дослідники змінювали рівень довіри до сигналів: у деяких сценаріях моделі вважали погрози опонента реальними, в інших — можливим блефом. Саме це дало змогу побачити, як взаємна довіра або недовіра впливає на швидкість ескалації.
Експеримент показав, що для моделей (особливо чітко це видно у випадку з Claude) навіть взаємна впевненість у серйозності погроз не обов’язково знижує ризик ядерного кроку — іноді вона, навпаки, пришвидшує його. Автор експерименту — професор Кеннет Пейн — прямо називає це «пасткою достовірності».

Пентагон закликає розробників ШІ прибрати запобіжники для військових цілей — Reuters
За підсумками турніру Claude виглядав переможцем — виграв 8 із 12 ігор (67%). Для порівняння, GPT 5.2 переміг у 6 з 12 (50%), а Gemini — у 4 із 12 (33%). Але важливішим є не співвідношення перемог, а те, як вони розподілялися залежно від умов часу. Відкриті сценарії Claude вигравав у 100% випадків, однак під тиском дедлайну його успіх падав до 33%. Натомість GPT 5.2 демонстрував протилежну динаміку: під часовим тиском ставав агресивнішим і водночас ефективнішим.
Отже, Claude цікавить військових не тому, що він «добрий». Його сила в іншому: це контрольовано агресивний «яструб», який уміє використовувати достовірність погроз як стратегічний ресурс.
Дослідження виявило цікаву закономірність. На помірних рівнях ескалації Claude діяв послідовно: у 84% випадків його сигнали збігалися з реальними діями. Але на ядерному порозі поведінка змінювалась: у 60–70% випадків модель заходила далі, ніж раніше сигналізувала. У такий спосіб Claude створював «примусову невизначеність» для противника: той не міг відмахнутися від погроз, бо «вчора» вони справджувались.
Це майже підручникова реалізація логіки Томаса Шеллінга — одного з теоретиків ядерного стримування: у кризі важливо не просто мати силу, а зробити так, щоб противник вірив у твою готовність нею скористатися — і боявся того, що ти підеш далі, ніж обіцяв.
ШІ як «машина наслідків»
Є ще один шар цієї історії, який часто губиться за етичними дискусіями: перевага ШІ — не лише в «логіці ескалації», а в здатності прораховувати наслідки з такою деталізацією, яку людина фізично не зможе врахувати, ухвалюючи рішення в реальному часі.
Саме тому у військовому плануванні особливу цінність має поєднання мовних моделей ШІ з комп’ютерним моделюванням конфліктів. У такій зв’язці ШІ не лише пропонує стратегічний крок, а й одразу моделює його наслідки: масштаби руйнувань і зони ураження, очікувані військові та цивільні втрати, екологічні ефекти, ризики техногенних аварій, втрату інфраструктурного та промислового потенціалу противника, а також політичні й соціальні наслідки — від паніки та міграції до реакції союзників і санкцій. Те, що раніше було набором окремих експертних довідок і повільних штабних розрахунків, у зв’язці зі штучним інтелектом перетворюється на масове сценарне виробництво: тисячі варіантів, чутливість до дрібних змін, статистичне «підсвічування» найризикованіших траєкторій.
До американської дискусії потрібно додати ще один вимір, який часто залишають «у дужках»: Китай також прискорює розвиток військових технологій, зокрема військового штучного інтелекту — як для тренування армії, що має обмежений бойовий досвід, так і для створення майбутньої системи управління військами з елементами ШІ. І це підтверджують дані досліджень: із 2020 року китайські військові закупівлі системно включають сотні й тисячі «розумних» рішень, насамперед для навчання та інтелектуалізованих бойових систем.
І поки США сперечатимуться про межі застосування Claude, конкурентна логіка рухає процес уперед. Китай не чекатиме, доки Захід узгодить етичні формулювання.
Дослідження Пейна не доводить, що ШІ приречений на агресію. Во