У дослідженні визначили, з якими запитаннями ШІ справляється найгірше.
Приблизно половина відповідей чат-ботів на основі штучного інтелекту на запитання, що стосуються здоров’я, може бути оманливою або викликати сумніви.
Про це інформує агентство Bloomberg, посилаючись на дослідження, опубліковане в науковому журналі BMJ Open.
Де ШІ помиляється найбільше
Дослідники з США, Канади та Великої Британії оцінили п’ять популярних платформ — ChatGPT, Gemini, Meta AI, Grok та DeepSeek — задавши кожній з них 10 запитань у п’яти категоріях. В результаті близько 50% відповідей визнали сумнівними, з яких майже 20% були вкрай суперечливими.
Чат-боти краще відповідали на запитання, що передбачають коротку та однозначну відповідь, а також у темах, пов’язаних із вакцинацією та онкологією. Натомість гірші відповіді надавали у випадках, коли вимагалося детальне пояснення або індивідуальна рекомендація, зокрема у питаннях, пов’язаних зі стовбуровими клітинами та харчуванням.
Впевнено, але помилково
Дослідники зазначили, що відповіді ШІ часто виглядали впевнено, хоча жоден чат-бот не надав повністю вичерпного та точного списку джерел. Лише в двох випадках було відмовлено у відповіді — обидва рази це зробила Meta AI.
“Ці результати підкреслюють зростаючу стурбованість щодо того, як люди використовують генеративні платформи штучного інтелекту, які не мають ліцензії на надання медичних порад і не володіють клінічним судженням для постановки діагнозів”, — зазначили у Bloomberg.
Швидке зростання популярності чат-ботів на основі штучного інтелекту зробило їх затребуваним інструментом для людей, які шукають поради щодо своїх захворювань, і компанія OpenAI повідомила, що щотижня понад 200 мільйонів людей звертаються до ChatGPT з питаннями про здоров’я та самопочуття. У січні платформа анонсувала інструменти для охорони здоров’я як для звичайних користувачів, так і для медичних працівників, а компанія Anthropic того ж місяця оголосила про запуск нової пропозиції у сфері охорони здоров’я.
Автори дослідження підкреслили, що основним ризиком впровадження чат-ботів є поширення недостовірної інформації, особливо за відсутності належного контролю та обізнаності користувачів.
“Ці системи можуть генерувати відповіді, які звучать авторитетно, але потенційно містять помилки”, — зазначили вони.
Чи стане штучний інтелект діагностом замість лікарів? Чи допоможе клінічним випробуванням ліків? Чи здатен ШІ підтримувати пацієнтів у віртуальних палатах? А які ризики можуть виникнути від використання ШІ в такій складній сфері, як медицина? Як держави запобігають виникненню проблем при застосуванні ШІ?
Відповіді на ці питання в статті “Штучний інтелект у медицині: чого більше — ризиків чи користі?” шукав кандидат юридичних наук, адвокат Сергій Козьяков.