Олексій Костенко Коли алгоритм впливає на рішення, але не несе за них відповідальності.
Легше видати паспорт прибульцю з космосу, ніж штучному інтелекту. Це звучить провокаційно, але за цією фразою стоїть цілком практичне питання: що означає для нашої правової системи поява поруч із людиною іншого розуму? І як право реагуватиме, якщо цей розум виникає не «ззовні», а всередині вже існуючих систем — корпорацій, держав, організацій?
Уявімо: на зв’язок із людством виходить інопланетна цивілізація. Контакт — текстовий. «Вони» вирішують найскладніші задачі, проєктують експерименти, пишуть бездоганний код і створюють поезію, яку неможливо відрізнити від людської. Чи заперечували б ми їхній розум лише тому, що не можемо зазирнути «всередину»? Навряд. Тоді чому цей стандарт скепсису ми систематично застосовуємо до штучного інтелекту?
Але право цікавить не лише розум. Воно також стосується відповідальності. Людина є суб’єктом права не лише тому, що мислить, а тому, що має права, обов’язки й відповідає за свої рішення. І тут виникає складніше питання: якщо штучний інтелект здатний мислити й ухвалювати рішення, чи достатньо цього, щоб зробити його суб’єктом права? І хто нестиме відповідальність за наслідки його дій? Вже сьогодні в різних сферах суспільного життя функціонують цифрові судді, лікарі, банкіри.
Але перш ніж говорити про правосуб’єктність, варто відповісти на інше запитання: чи дійсно ми маємо підстави називати штучний інтелект «інтелектом»? Сумніви щодо цього не є новими. Чи може машина мислити? Це питання ще 1950 року піднімав Алан Тюрінг, британський математик і один із засновників сучасної комп’ютерної науки. Тобто чи можна говорити про інтелект у штучних систем? У сучасних дискусіях щодо цього існує кілька поширених заперечень-контраргументів. І вони не стосуються умовного «мас-маркету» — ChatGPT, а моделей АІ, які розробляються у великих корпораціях.
Перший контраргумент пов’язаний із так званим феноменом колективної сліпої плями. Ми продовжуємо мислити в категоріях, де вищий інтелект за замовчуванням ототожнюється з біологічною формою. Отже, якщо у ШІ немає біологічної форми — умовного «тіла», то це не інтелект. Показовою в цьому контексті є публікація в Nature, підготовлена міждисциплінарною групою дослідників у галузях штучного інтелекту, філософії, лінгвістики й data science, яка прямо вказує на когнітивну інерцію навіть у науковій спільноті. Вона полягає в небажанні визнати очевидний факт: людство перестало бути єдиним носієм ознак загального інтелекту. Ми вже не самі — принаймні в інтелектуальному вимірі.
Алан Тюрінг запропонував оцінювати здатність машини мислити не за її внутрішніми «переживаннями», а за поведінкою — тобто за тим, чи здатна вона підтримувати осмислену розмову так, що співрозмовник не відрізнить її від людини. Сучасні мовні моделі фактично реалізували цей підхід: вони ведуть зв’язні діалоги, переносять знання з однієї галузі в іншу, працюють із абстракціями.
Другий контраргумент щодо здатності машини мислити умовно назвемо «хибною планкою». Скептики часто вимагають від штучного інтелекту досконалості: універсальності, безпомилковості, всезнання. Проте загальний інтелект — і людський зокрема — ніколи не означав всевідання. Марія Кюрі не була фахівчинею з теорії чисел, Альберт Айнштайн не володів усіма мовами світу. Ми визнаємо інтелект людини на підставі достатньої глибини й широти, а не абсолютної повноти. За цими ж критеріями сучасні системи ШІ демонструють результати, зіставні з рівнем підготовлених дослідників.
Третій контраргумент — так звана теза про стохастичного папугу. Її суть у тому, що мовні моделі нібито не мислять, а лише статистично відтворюють слова, які з найбільшою ймовірністю мають стояти поруч із формулюванням запиту користувача, — подібно до папуги, який повторює почуте, не розуміючи змісту. Проте перенесення знань, узагальнення структур, здатність розв’язувати задачі, яких не було в навчальних даних, — усе це виходить за межі простого комбінування слів. А текстова форма взаємодії сама по собі не є підставою для заперечення інтелекту. Якщо ми визнаємо геніальність Стівена Гокінга, який десятиліттями спілкувався зі світом через текст і синтезатор мовлення, то очевидно, що спосіб комунікації не визначає наявності або відсутності мислення. І заперечення розуму ШІ лише через відсутність тілесної взаємодії виглядає не науковою позицією, а формою антропоцентричного упередження. Отже, питання вже не в тому, чи здатна машина мислити, а в тому, що це означає для нашого уявлення про самих себе.
Сьогодні ми переживаємо глибокий зсув у розумінні місця людини у світі. І він уже третій в історії людства. Коперник позбавив нас ілюзії про те, що ми — в центрі Всесвіту, Дарвін — біологічної винятковості, а сучасний ШІ підриває монополію на вищий розум. Так, у штучного інтелекту «зубчатий профіль» компетенцій: блискучий аналіз може поєднуватися з примітивною помилкою. Але така асиметрія характерна й для людей. Це не заперечення інтелекту, а його нетипова конфігурація.
Кожен такий зсув рано чи пізно ставить під питання ті правові й етичні норми, за допомогою яких суспільство впорядковує власне життя. Отже, нині проблема полягає не в тому, чи існує так званий загальний штучний інтелект (AGI) — тобто система, здатна діяти універсально, подібно до людського розуму. А в тому, що право, етика та соціальні інститути ще не виробили мови для співіснування з ним. Історія стискає строки: те, що раніше тривало десятиліттями, сьогодні відбувається за місяці. Визнання чи невизнання AGI — це вже не академічна гра, а питання довгострокової стабільності цивілізації. Нам потрібна нова етика й нова правова уява для співжиття з цим «Іншим» — новою формою інтелекту, технічною за походженням, але тривожно подібною до людської за інтелектуальними ознаками.
Сьогодні для права визначальною є не «природа» істоти (біологічна, технічна, гібридна), а кваліфікація — чи є вона «особою» (носієм правосуб’єктності), чи «річчю / об’єктом» (предметом правомочностей інших). Від цього залежить, хто може бути адресатом норми, на кого «покладається» обов’язок діяти або утриматися, хто відповідає за шкоду і хто реально здатний забезпечити виконання рішення суду чи адміністративного органу. І саме тут зосереджується нерв дискусії: правосуб’єктність — це «вхідний квиток» у правопорядок, але цей квиток завжди має ціну у вигляді відповідальності.
І саме тут штучний інтелект ставить право перед нетиповою ситуацією. Він, на відміну від «іншого розуму ззовні», народжується всередині наших організацій, корпорацій, інституцій і держав. Він має власника, розробника, інтегратора, оператора, замовника; має ланцюги постачання, оновлень, даних і доступів. Тому будь-яка спроба проголосити «нехай ШІ буде суб’єктом і сам відповідає» негайно підозрюється в головному гріху юридичної зради — розчиненні відповідальності. І це не абстракція: якщо «суб’єктність ШІ» стає ширмою, за якою реальні контролери ризику (люди й корпорації) знімають із себе тягар належної відповідальності та контролю, то правопорядок стріляє собі в ногу.
Правове регулювання — це не декларації й не корпоративні маніфести, а система норм, що встановлюються й застосовуються у визначеному порядку. Тому сміливі, але безперспективні заяви багатьох транснаціональних корпорацій щодо розроблення «конституцій для ШІ» — такого собі «кустарного» виробництва юридичних документів поза встановленою процедурою — нічого спільного не мають ні з конституціями держав за змістом (матеріальне право), ні з процедурою їх ухвалення й оприлюднення.
Додаймо ще один, «публіцистичний», кут зору на цю дискусію. В нашій уяві інопланетянин — це щось, що існує «зовні», тоді як ШІ виникає «всередині» наших інституцій. Тому питання суб’єктності ШІ — це не про контакт культур, а про перерозподіл влади в нашому суспільстві. Моя позиція як аналітика тут така: визнати інопланетянина суб’єктом (за умови контакту) — це спроба стабілізувати зовнішній ризик; визнати ШІ суб’єктом — означає дестабілізувати баланс обов’язків і відповідальності між громадянином, державою та корпораціями. Саме тому право інтуїтивно тримає центр тяжіння на людях і організаціях: там є активи, страхування, системи внутрішнього контролю, регуляторний нагляд, механізми примусу й виконання рішень.
Саме тому може скластися враження, що ми «щедрі» до інопланетян і «скупі» до ШІ, але насправді ми послідовні.
Право надає суб’єктність там, де це не руйнує відповідальності й дає змогу зберегти контроль над взаємодією.
У випадку «іншого розуму» суб’єктність — інструмент миру; у випадку ШІ передчасна суб’єктність легко стає інструментом уникнення відповідальності. А отже, доки суб’єктність ШІ не доведе (передусім функціонально, а не метафізично), що вона посилює захист громадян і не підміняє людської й організаційної відповідальності, право — цілком раціонально — обиратиме обережність.
Тому питання, поставлене на початку, залишається відкритим: чи може штучний інтелект бути суб’єктом права? Але воно залишається відкритим не через страх перед новим розумом, а через інше — хто відповідатиме за його рішення? Суб’єктність у праві означає не лише права, а й обов’язки, санкції, примус і виконання рішень. І якщо визнання ШІ суб’єктом призводить до розмивання відповідальності розробників, власників, користувачів чи держави, то право цілком раціонально обиратиме обережність. Отже, ідея «паспорту для ШІ» залишатиметься наразі метафорою, а не юридичною реальністю.