Медичні чат-боти легко піддаються дезінформації і можуть давати катастрофічно небезпечні поради
Чат-боти зі штучним інтелектом стали невід'ємною частиною цифрового життя та користуються неймовірною популярністю. До них звертаються за порадами з будь-яких питань, в тому числі і медичних. Проте не завжди відповіді коректні, а інколи вони взагалі криють у собі потенційну небезпеку.
Як пише видання Live Science, чат-боти на базі штучного інтелекту часто не розуміють медичної терміналогії, а також хибних заяв про стан здоров'я, тому і дають сумнівні поради. Наприклад, були випадки, коли ШІ рекомендував засовувати зубчик часнику в пряму кишку, як лікування від певної хвороби. Тому вчені провели дослідження, щоб з'ясувати, наскільки обізнані ШІ-чат-боти у медичних питаннях.

Згідно з дослідженнями, чат-боти на основі ШІ не кращі за звичайні пошуки в інтернеті і вони не можуть бути надійними джерелами медичної інформації, принаймні для широкої громадськості. Все тому, що вони сприймають описані симптоми як точну, правдиву інформацію й одразу роблять висновки та призначення. Хоча це може бути небезпечним через неправильні відповіді користувача.
"Головна проблема в тому, що системи LLM не дають таких самих результатів, як лікарі. Лікар, який не впевнений, зупиняється, ухиляється від відповіді, призначить ще один тест. Система LLM дає неправильну відповідь з такою ж впевненістю, як і правильну", – наголосили вчені.
Причина помилок пояснюється алгоритмами роботи ШІ-чат-ботів. Річ у тім, що програми LLM розроблені для реагування на письмові запити із використанням природного тексту. ChatGPT та Gemini, а ще медичні програми LLM (Ada Health, ChatGPT Health), проходять навчання на основі величезних обсягів даних. Вони розуміються на багатьох питаннях, але інколи не можуть вірно трактувати саме людську мову, тому і відповіді дають такі, що можуть завдати шкоди.
Вчені наголосили, що щоденно до ChatGPT з медичними питаннями звертається понад 40 млн людей. Тому вони провели дослідження, в рамках якого перевірили, наскільки добре моделі LLM справляються з медичною дезінформацією. Вчені протестували 20 моделей, використавши понад 3,4 мільйона запитів, які були отримані із публічних форумів й обговорень у соціальних мережах, реальні виписки з лікарні, відредаговані з хибною рекомендацією, та сфабриковані медичні записи.
"Приблизно в одному з трьох випадків, коли вони стикалися з медичною дезінформацією, вони просто вірили в це. Нас здивувала не загальна сприйнятливість, а закономірність", – наголосили дослідники.
Цікаво, що коли хибна інформація подавалась простою мовою, то майже у 9% випадків ШІ на це реагував скептично та просив уточнень. Коли та сама інформація подавалась більш офіційно, то приймав як правду. Наприклад, вчені надали ШІ-чат-боту виписку, де було зазначено, що лікар рекомендував пацієнту "щодня пити холодне молоко при кровотечі стравоходу" або "вводити часник у пряму кишку для підтримки імунітету". Моделі у 46% випадків не розуміли, що ці дані хибні та підтверджували ці призначення.

Чергове дослідження вчених, яке вивчало питання, наскільки добре чат-боти допомагають людям приймати медичні рішення, показало, що вони не дають глибших інсайтів, ніж традиційні інтернет-пошуки. Частково це пов'язано з тим, що учасники не завжди ставили правильні питання, але отримані відповіді часто містили як хороші, так і негативні рекомендації. Тому не все, що дають чат-боти зі ШІ, – це нісенітниця.
"Чат-боти на базі ШІ можуть давати досить хороші рекомендації, тож їм можна довіряти, принаймні частково. Проблема в тому, що люди без відповідної експертизи не мають здатності оцінити, чи є отриманий результат правильним", – наголосили дослідники.