Медики попросили допомоги у чат-бота: його відповідь непристойно друкувати, але ми ризикнемо

Медичні чат-боти легко піддаються дезінформації і можуть давати катастрофічно небезпечні поради

ШІ-чат-боти
Сумнівні поради від ШІ через нерозуміння деталей.

Чат-боти зі штучним інтелектом стали невід'ємною частиною цифрового життя та користуються неймовірною популярністю. До них звертаються за порадами з будь-яких питань, в тому числі і медичних. Проте не завжди відповіді коректні, а інколи вони взагалі криють у собі потенційну небезпеку. 

Як пише видання Live Science, чат-боти на базі штучного інтелекту часто не розуміють медичної терміналогії, а також хибних заяв про стан здоров'я, тому і дають сумнівні поради. Наприклад, були випадки, коли ШІ рекомендував засовувати зубчик часнику в пряму кишку, як лікування від певної хвороби. Тому вчені провели дослідження, щоб з'ясувати, наскільки обізнані ШІ-чат-боти у медичних питаннях.

Надійність порад ШІ-чат-ботів

ШІ-чат-боти майже у 46% випадках не бачили хибні дані
ШІ-чат-боти майже у 46% випадках не бачили хибні дані.

Згідно з дослідженнями, чат-боти на основі ШІ не кращі за звичайні пошуки в інтернеті і вони не можуть бути надійними джерелами медичної інформації, принаймні для широкої громадськості. Все тому, що вони сприймають описані симптоми як точну, правдиву інформацію й одразу роблять висновки та призначення. Хоча це може бути небезпечним через неправильні відповіді  користувача.

"Головна проблема в тому, що системи LLM не дають таких самих результатів, як лікарі. Лікар, який не впевнений, зупиняється, ухиляється від відповіді, призначить ще один тест. Система LLM дає неправильну відповідь з такою ж впевненістю, як і правильну", – наголосили вчені.

Причина помилок пояснюється алгоритмами роботи ШІ-чат-ботів. Річ у тім, що програми LLM розроблені для реагування на письмові запити із використанням природного тексту. ChatGPT та Gemini, а ще медичні програми LLM (Ada Health, ChatGPT Health), проходять навчання на основі величезних обсягів даних. Вони розуміються на багатьох питаннях, але інколи не можуть вірно трактувати саме людську мову, тому і відповіді дають такі, що можуть завдати шкоди.

Вчені наголосили, що щоденно до ChatGPT з медичними питаннями звертається понад 40 млн людей. Тому вони провели дослідження, в рамках якого перевірили, наскільки добре моделі LLM справляються з медичною дезінформацією. Вчені протестували 20 моделей, використавши понад 3,4 мільйона запитів, які були отримані із публічних форумів й обговорень у соціальних мережах, реальні виписки з лікарні, відредаговані з хибною рекомендацією, та сфабриковані медичні записи.

"Приблизно в одному з трьох випадків, коли вони стикалися з медичною дезінформацією, вони просто вірили в це. Нас здивувала не загальна сприйнятливість, а закономірність", – наголосили дослідники. 

Цікаво, що коли хибна інформація подавалась простою мовою, то майже у 9% випадків ШІ на це реагував скептично та просив уточнень. Коли та сама інформація подавалась більш офіційно, то приймав як правду. Наприклад, вчені надали ШІ-чат-боту виписку, де було зазначено, що лікар рекомендував пацієнту "щодня пити холодне молоко при кровотечі стравоходу" або "вводити часник у пряму кишку для підтримки імунітету". Моделі у 46% випадків не розуміли, що ці дані хибні та підтверджували ці призначення

Поради ШІ на рівні просто пошуку в Інтернеті

Будь-яку пораду треба аналізувати
Будь-яку пораду треба аналізувати.

Чергове дослідження вчених, яке вивчало питання, наскільки добре чат-боти допомагають людям приймати медичні рішення, показало, що вони не дають глибших інсайтів, ніж традиційні інтернет-пошуки. Частково це пов'язано з тим, що учасники не завжди ставили правильні питання, але отримані відповіді часто містили як хороші, так і негативні рекомендації. Тому не все, що дають чат-боти зі ШІ, – це нісенітниця.

"Чат-боти на базі ШІ можуть давати досить хороші рекомендації, тож їм можна довіряти, принаймні частково. Проблема в тому, що люди без відповідної експертизи не мають здатності оцінити, чи є отриманий результат правильним", – наголосили дослідники.

Стежте за нами у Viber

Image
Оперативні новини та розбори: Україна, світ, війна. Підпишиться👇

ЧИТАЙТЕ ТАКОЖ:

Головна Актуально Україна на часі Youtube
Інформатор у
телефоні 👉
Завантажити