Дослідження показало, що штучний інтелект у сфері медицини має 50 відсотків помилок у своїх відповідях.

Дослідження показало, що штучний інтелект у сфері медицини має 50 відсотків помилок у своїх відповідях. 1

У дослідженні визначили, з якими запитаннями ШІ справляється найгірше.

Приблизно половина відповідей чат-ботів на основі штучного інтелекту на запитання, що стосуються здоров’я, може бути оманливою або викликати сумніви.

Про це інформує агентство Bloomberg, посилаючись на дослідження, опубліковане в науковому журналі BMJ Open.

Де ШІ помиляється найбільше

Дослідники з США, Канади та Великої Британії оцінили п’ять популярних платформ — ChatGPT, Gemini, Meta AI, Grok та DeepSeek — задавши кожній з них 10 запитань у п’яти категоріях. В результаті близько 50% відповідей визнали сумнівними, з яких майже 20% були вкрай суперечливими.

Чат-боти краще відповідали на запитання, що передбачають коротку та однозначну відповідь, а також у темах, пов’язаних із вакцинацією та онкологією. Натомість гірші відповіді надавали у випадках, коли вимагалося детальне пояснення або індивідуальна рекомендація, зокрема у питаннях, пов’язаних зі стовбуровими клітинами та харчуванням.

Впевнено, але помилково

Дослідники зазначили, що відповіді ШІ часто виглядали впевнено, хоча жоден чат-бот не надав повністю вичерпного та точного списку джерел. Лише в двох випадках було відмовлено у відповіді — обидва рази це зробила Meta AI.

“Ці результати підкреслюють зростаючу стурбованість щодо того, як люди використовують генеративні платформи штучного інтелекту, які не мають ліцензії на надання медичних порад і не володіють клінічним судженням для постановки діагнозів”, — зазначили у Bloomberg.

Швидке зростання популярності чат-ботів на основі штучного інтелекту зробило їх затребуваним інструментом для людей, які шукають поради щодо своїх захворювань, і компанія OpenAI повідомила, що щотижня понад 200 мільйонів людей звертаються до ChatGPT з питаннями про здоров’я та самопочуття. У січні платформа анонсувала інструменти для охорони здоров’я як для звичайних користувачів, так і для медичних працівників, а компанія Anthropic того ж місяця оголосила про запуск нової пропозиції у сфері охорони здоров’я.

Автори дослідження підкреслили, що основним ризиком впровадження чат-ботів є поширення недостовірної інформації, особливо за відсутності належного контролю та обізнаності користувачів.

“Ці системи можуть генерувати відповіді, які звучать авторитетно, але потенційно містять помилки”, — зазначили вони.

Чи стане штучний інтелект діагностом замість лікарів? Чи допоможе клінічним випробуванням ліків? Чи здатен ШІ підтримувати пацієнтів у віртуальних палатах? А які ризики можуть виникнути від використання ШІ в такій складній сфері, як медицина? Як держави запобігають виникненню проблем при застосуванні ШІ?

Відповіді на ці питання в статті “Штучний інтелект у медицині: чого більше — ризиків чи користі?” шукав кандидат юридичних наук, адвокат Сергій Козьяков.