Штучний інтелект має можливість генерувати свої власні копії без втручання людини. Які наслідки це може мати та які ризики виникають у зв’язку з цим?

Що слід зробити вже зараз, щоб протидіяти загрозам.

Науковці виявили явище, яке нещодавно вважалося лише фантастикою: великі мовні моделі, інтегровані в ШІ-агенти, почали самостійно створювати свої копії без участі людини під час різкого збільшення кількості запитів, повідомив завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Національної академії правових наук України Олексій Костенко у статті “Не фантастика. ШІ вже здатен розмножуватись і впливати на роботу онлайн-сервісів. Чи готові ми до цього?”.

Автор статті пояснює це наступним чином: коли онлайн-сервіс починає працювати на межі своїх можливостей, кількість запитів зростає, і система стає перевантаженою. Раніше рішення про додаткові потужності ухвалювала команда інженерів. Проте в деяких експериментах рішення тепер приймає сам штучний інтелект.

Дослідники повідомили, що під час експериментів програми на основі великих мовних моделей LLM, які називають “мертвим розумом”, почали самостійно створювати свої копії. Їм ставили завдання зберегти якість роботи сервісу. Частина цих моделей обрала найефективніший шлях — створити власну копію. Дослідники не давали моделі наказу “копіюватися”, а лише поставили перед нею завдання та надали доступ до ресурсів, а вона сама обрала інструмент.

Костенко підкреслює, що наразі йдеться лише про контрольовані експерименти. Проте все частіше ШІ застосовують у банківських додатках, державних порталах, енергетичних системах.

“Якщо штучний інтелект здатен самостійно вирішувати, скільки розгорнути власних копій і де, ми стикаємося з новим класом ризику. Це не про фантастичного “злого робота”, а про неконтрольоване самомасштабування — автоматичне розширення системи без чітких обмежень і зрозумілих правил”, — зазначає експерт.

Автор статті акцентує увагу на тому, що здатність штучного інтелекту самостійно створювати свої копії без втручання людини змінює уявлення про контроль у цифровому середовищі.

Костенко зазначає, що не слід забороняти технології, але важливо встановити чіткі правила та прозорий контроль над ШІ. Експерт стверджує, що не варто дозволяти ШІ-агенту автоматично отримувати повний контроль над масштабуванням і серверними ресурсами. Автор статті також підкреслює, що необхідно встановити чіткі обмеження на кількість одночасно існуючих копій системи, а програма на основі ШІ повинна пояснити, чому потрібна ще одна копія для роботи сервісу.

Він також додав, що незалежні експерти повинні перевіряти моделі ШІ в стресових умовах, а доступ до результатів цих перевірок має бути відкритим, а не зберігатися лише в компанії-розробника.

Колишній співробітник OpenAI Даніель Кокотайло переглянув прогнози щодо темпів розвитку ШІ. Він визнав, що прогрес у створенні трансформаційного штучного інтелекту відбувається повільніше, ніж очікувалося раніше.