Компанія оскаржує статус загрози для національної безпеки, що може призвести до втрати державних контрактів.
Федеральний апеляційний суд у Вашингтоні відмовився зупинити рішення Міністерства оборони США стосовно Anthropic. Мова йде про визнання компанії загрозою для національної безпеки у сфері постачання. Розробник штучного інтелекту Claude вважає це політичним тиском через позицію щодо безпеки технологій, повідомляє Reuters.
Рішення суду дозволяє уряду США зберегти чинним статус компанії як загрози для ланцюгів постачання під час розгляду справи. Це фактично блокує доступ Anthropic до контрактів Пентагону та може призвести до більш широкого урядового “чорного списку”. Представники компанії зазначили, що такі наслідки можуть коштувати бізнесу мільярди доларів і завдати шкоди репутації.
“Військова влада та оперативне керівництво належать головнокомандувачу та Міністерству війни, а не технологічній компанії”, — заявив виконуючий обов’язки генерального прокурора Тодд Бланш.
Колегія суддів Апеляційного суду округу Колумбія відхилила клопотання Anthropic про призупинення рішення до остаточного розгляду. Водночас це рішення не є остаточним у справі.
У компанії зазначили, що очікують на подальший розгляд і впевнені у своїй правовій позиції. Вони стверджують, що визнання їх загрозою є незаконним.
Позов Anthropic є одним із двох, поданих проти рішень Пентагону. Раніше федеральний суд у Каліфорнії заблокував один із наказів, зазначивши, що відомство могло діяти незаконно у відповідь на позицію компанії щодо безпеки штучного інтелекту.
Конфлікт виник після того, як Anthropic відмовилася дозволити використання свого чат-бота для військового спостереження або автономної зброї. У компанії пояснюють це етичними та безпековими міркуваннями.
У своїх позовах Anthropic заявляє про порушення прав, гарантованих Першою та П’ятою поправками до Конституції США. Йдеться про обмеження свободи слова та відсутність належної процедури оскарження.
Водночас Міністерство юстиції США наполягає, що рішення не пов’язане з позицією компанії. За версією уряду, воно стало наслідком відмови Anthropic погодитися з умовами контракту, що створює ризики для використання технологій у військових операціях.
У статті “Пентагон і Claude: що за лаштунками конфлікту?” Олексій Костенко детально розкриває причини безпрецедентного рішення Міноборони США внести Anthropic до “чорного списку”. Автор посилається на дослідження Кеннета Пейна, яке показало, що провідні мовні моделі ШІ у симуляціях ядерних криз схильні до швидкої ескалації: у 95% ігор ШІ доходив до етапу застосування тактичної ядерної зброї, особливо під тиском дедлайнів.