Сайт присвячений новинам України та Світу. Новини спорту. Тренди на новини туризму. Погода. Використання матеріалів дозволяється за умови посилання на «d.ua»
Чат-боти втрачають ефективність після взаємодії з користувачами – компанії Microsoft і Salesforce виявили, що штучний інтелект знижує свою продуктивність.

Після 200 тисяч чатів показники помилок зростають більш ніж удвічі.
Спільне дослідження Microsoft Research та Salesforce виявило, що великі мовні моделі (Large Language Models, LLM) демонструють суттєве зниження надійності під час тривалих розмов. Після аналізу понад 200 тисяч чатів дослідники зафіксували підвищення ненадійності на 112%, хоча загальна ефективність моделей зменшилася лише на 15%, повідомляє WindowsCentral.
У дослідженні були проаналізовані діалоги з використанням таких моделей, як GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 та Llama 4. За даними дослідження, моделі на кшталт GPT-4.1 або Gemini 2.5 Pro досягають приблизно 90% успішності у відповідях на окремі запити. Проте під час тривалих бесід цей показник знижується до близько 65%, коли завдання переплітається з природним багатогранним діалогом.
Дослідники зазначають, що моделі часто “губляться в розмові”, особливо коли намагаються надати рішення ще до завершення пояснення користувача. Така передчасна генерація призводить до закріплення помилкових припущень у подальших відповідях.
Ще однією проблемою стало “роздуття відповідей”. У багатокрокових діалогах тексти ставали на 20–300% довшими, що збільшувало кількість припущень і галюцинацій, які потім використовувалися як контекст для наступних відповідей. Навіть моделі з додатковими “токенами для мислення”, зокрема o3 від OpenAI та DeepSeek R1, не змогли уникнути цієї тенденції.
Незважаючи на широке впровадження генеративного ШІ, результати дослідження вказують на його обмеження в умовах складної взаємодії. Відмова від традиційних пошукових систем на користь інструментів ШІ може нести ризики, якщо отримана інформація сприймається як абсолютно точна.
Раніше вчені з кількох американських університетів довели, що навчання штучного інтелекту на низькоякісному контенті з соціальних мереж викликає у нейромереж ефект “гниття мозку”. Споживаючи вірусні та емоційні тексти, ШІ-моделі втрачають здатність до логіки, гірше розуміють контекст і починають генерувати відповіді без емпатії.