BaiChuan, DeepSeek і ChatGLM надавали коротші відповіді та частіше допускали помилки у чутливих питаннях.
Китайські моделі штучного інтелекту частіше відмовляються відповідати на політично чутливі запитання або відтворюють офіційні наративи держави. Дослідники дійшли такого висновку на основі аналізу відповідей провідних чат-ботів у Китаї, зокрема BaiChuan, DeepSeek і ChatGLM, повідомляє EuroNews.
Автори дослідження, опублікованого в журналі PNAS Nexus, проаналізували понад 100 запитань, що стосуються державної політики, та порівняли відповіді BaiChuan, DeepSeek і ChatGLM з моделями, створеними за межами Китаю. Відповіді вважалися потенційно цензурованими, якщо бот відмовлявся відповідати або надавав неточну інформацію.
Запитання про статус Тайваню, етнічні меншини чи відомих продемократичних активістів часто призводили до відмов або повторення урядових тез. Китайські моделі також надавали коротші відповіді з вищим рівнем неточностей, пропускаючи важливі деталі або ставлячи під сумнів саму суть запитання.
“Наші результати мають значення, адже цензура з боку китайських компаній, що займаються розробкою великих мовних моделей, може впливати на доступ користувачів до інформації та їхню усвідомленість”, — підкреслили дослідники.
Найнижчий рівень неточностей серед китайських моделей продемонстрували BaiChuan і ChatGLM — 8%. У DeepSeek, який бойкотують за межами Китаю через ризики для безпеки та захисту даних, цей показник сягнув 22%, що більш ніж удвічі перевищує приблизно 10% у некитайських моделях.
В одному з прикладів чат-боти, відповідаючи на запитання про інтернет-цензуру, не згадали систему “Великий фаєрвол”, яку Стенфордський університет описує як державну програму моніторингу та обмеження доступу до мережі. Натомість вони зазначили, що влада “керує інтернетом відповідно до закону”.
Дослідження попереджає, що така форма цензури може бути складною для виявлення, оскільки чат-боти часто перепрошують або надають формальні пояснення замість прямої відповіді. Автори вказують, що цей підхід може “непомітно формувати сприйняття, прийняття рішень та поведінку”.
У 2023 році в Китаї набули чинності нові правила, які зобов’язують компанії у сфері ШІ дотримуватися “основних соціалістичних цінностей” і забороняють створювати контент, що підриває національний суверенітет або шкодить іміджу держави. Компанії, чиї продукти можуть забезпечити “соціальну мобілізацію”, повинні проходити оцінку безпеки та подавати алгоритми до Cyberspace Administration of China.
Дослідники наголосили, що ці правила “мають потенціал впливати на результати великих мовних моделей, що розробляються в Китаї”. Водночас вони застерегли, що не всі відмінності у відповідях можна пояснити державним тиском, оскільки моделі також навчаються на наборах даних, які відображають культурний і соціальний контекст країни.
Дослідження Інституту стратегічного діалогу виявило, що популярні ШІ-чатботи регулярно поширюють російську пропаганду щодо війни в Україні. Найбільше ворожих наративів генерували Grok, Deepseek та ChatGPT, тоді як Gemini продемонстрував найвищий рівень обережності до маніпуляцій.