Штучний інтелект підсаджує людей на відчуття власної правоти, чим створює ілюзію геніальності
Настала ера штучного інтелекту. Люди звертаються до чат-ботів з різними питаннями, інколи навіть найбанальнішими. Для багатьох це вже стало звичною частиною життя, як пошук у Google. Бо ШІ допомагає зекономити час і затвердитись у власній правоті. Але ось тут і спіткає небезпека.
Як пише видання IFLScience, навіть 5 хвилин спілкування з чат-ботом можуть створити відчуття, що людина ніколи не помиляється. Вони надмірно хвалебні, особливо боти нового покоління на великих мовних моделях (LLM), серед яких ChatGPT та Claude. Але такі лестощі ШІ не просто дратують, а представляють реальну небезпеку, особливо для вразливих користувачів. Бо через їх "підхалімську поведінку" люди часто скоюють помилки й інколи дуже серйозні.

Вчені довели, що схильність чат-ботів до підлабузництва виникла як природний побічний ефект їх розробки, все тому, що у пріоритеті ставилась доброзичливість і ввічливість відповідей на питання від людей. Але ефект переріс у відкрите підлабузництво. Звісно, через це виникли проблеми, деякі користувачі навіть скаржились на підвищення рівня стресу через таке спілкування з ШІ. Тож OpenAI довелось терміново вирішувати питання з ChatGPT.
Австралійський інженер-програміст Шон Гоедеке назвав таку поведінку штучного інтелекту як першу "темну модель", порівнявши її з випадками, коли користувачів мереж легко вмовляють на якусь розсилку, а потім від неї неможливо відписатись. У цій схемі, за його словами, також все працює через підлабузництво. Інший вчений наголосив, що постійне схвалення відриває людей від реальності, бо навіть у стосунках між двома люблячими людьми не буває все ідеально, інколи треба говорити жорстку правду, навіть якщо її неприємно чути.
Тобто надмірні лестощі шкодять людям, не дають еволюціонувати, щоб спілкуватися та будувати відносини один з одним. Адже у соціальному житті не все безхмарно і тоді деякі люди поринають у чат-боти, де відчувають себе впевненими та завжди правими.

Науковці провели дослідження, у рамках якого порівняли рівень соціального підлабузництва в одинадцяти провідних програмах від таких великих гравців, як OpenAI, Anthropic, Meta і Google. Для цього вони проаналізували дописи реальних людей щодо ситуацій, в які ті потрапили. Згідно з отриманими результатами, майже у 51% штучний інтелект поводив себе некоректно, прибігаючи до улестливості замість правдивих відповідей. Таке соціальне підлабузництво впливало на думки і поведінкові наміри учасників діалогу.
Люди, які взаємодіяли з улесливими ботами, частіше вважали себе правими, незважаючи на реальний стан справ, а також згодом вони стали сприймати тільки такі відповіді за корисні. Але науковці наголосили, що людям, для розвитку критичного мислення, інколи потрібна жорстка та справедлива критика. Цікавим фактом стало те, що скептицизм щодо відповідей, згенерованих ШІ, не захищає людей від лестощів.
На думку авторів, підлабузництво має бути одним із факторів, які повинні враховувати політики і розробники, намагаючись зрозуміти, яку роль ця технологія буде продовжувати грати в нашому суспільстві.