Компанія Anthropic послаблює свою політику безпеки штучного інтелекту. Конкуренція змушує зменшити етичні обмеження, що впливають на їхні рішення.

Компанія не зупинятиме розробку небезпечних моделей.

Американська компанія Anthropic оголосила про пом’якшення своєї основної політики безпеки штучного інтелекту. Це рішення обґрунтоване зростанням конкурентного тиску та відсутністю федерального регулювання в США. Зміни відбуваються на фоні конфлікту з Пентагоном та кадрових втрат у сфері безпеки, повідомляє The Wall Street Journal.

Компанія Anthropic зазначила, що оновлює свою базову політику безпеки, щоб залишатися конкурентоспроможною серед провідних розробників ШІ. Раніше вона призупиняла розробку моделей, які вважалися небезпечними, однак тепер відмовиться від цієї практики, якщо конкурент випустить аналогічну або більш потужну систему.

Це рішення свідчить про відмову від підходу Anthropic, який протягом останніх 2,5 років позиціонував компанію як одного з найбільш безпечних гравців на ринку. Компанія стикається з жорсткою конкуренцією з боку OpenAI, xAI Ілона Маска та Google, які регулярно представляють нові інструменти без обмежень.

Anthropic також перебуває у конфлікті з Міністерством оборони США щодо використання моделі Claude. Раніше компанія повідомила Пентагону, що її інструменти не можуть бути використані для внутрішнього спостереження або автономної зброї. Міністр оборони Піт Гегсет надав компанії термін до п’ятниці, 27 лютого, для пом’якшення політики, в іншому випадку вона може втратити контракт.

“Політична ситуація змістилася в бік пріоритетності конкурентоспроможності ШІ та економічного зростання, тоді як обговорення, орієнтовані на безпеку, ще не отримали значного розвитку на федеральному рівні”, — йдеться в блозі Anthropic. 

Пресслужба компанії повідомила Time, що нова політика має на меті допомогти працювати в умовах нерівномірного регуляторного середовища та що вона не пов’язана з переговорами з Пентагоном. Водночас Anthropic пообіцяла регулярно публікувати цілі безпеки та звіти про ризики своїх моделей за участю незалежної оцінки.

Останніми тижнями кілька дослідників залишили Anthropic та інші компанії в сфері ШІ, заявляючи, що питання безпеки відходять на другий план на фоні залучення мільярдів доларів і підготовки до IPO. На початку лютого дослідник безпеки Мрінанк Шарма повідомив про своє звільнення з Anthropic, написавши колегам, що “світ знаходиться під загрозою” через розвиток ШІ та інші небезпеки. За словами джерел, його рішення частково було пов’язане зі зміною політики компанії.

Anthropic була заснована у 2021 році після того, як Даріо Амодеї та інші співзасновники залишили OpenAI, побоюючись недостатньої уваги до безпеки. У 2022 році Амодей відмовився від випуску ранньої версії Claude, остерігаючись початку небезпечних технологічних перегонів, тоді як OpenAI за кілька тижнів представила ChatGPT, що змусило Anthropic наздоганяти конкурентів.

Генеральний директор Anthropic Даріо Амодей ще наприкінці минулого місяця опублікував есе з серйозним попередженням про наближення критично небезпечного етапу в розвитку штучного інтелекту. За його прогнозами, вже за кілька років ШІ перевершить людський розум, що загрожує світові масовим безробіттям, біотероризмом та небувалим посиленням авторитарних режимів. Щоб уникнути катастрофи, розробник закликає уряди та самі технологічні компанії “прокинутися” та взяти цей процес під контроль.

GoogleСША