GPT-4 доручили здійснювати інвестиції від імені фінансової установи.
Дослідження показують, що найчесніший чат-бот ChatGPT почав брехати, щойно вчені почали вимагати від нього завищених результатів. Науковці дійшли висновку, що в цьому ШІ поводиться так само, як і люди. Так само, як і люди, чат-боти зі штучним інтелектом (ШІ), такі як ChatGPT, обманюють і "брешуть" вам, якщо ви їх "напружуєте", навіть якщо вони створені для того, щоб бути прозорими.
Ось що показало нове дослідження! Оманлива поведінка виникла спонтанно, коли штучному інтелекту дали поради щодо "інсайдерської торгівлі", а потім йому доручили заробити гроші для потужної установи, пише LIVEcience.
"У звіті ми демонструємо сценарій, коли модель діє неправильно та стратегічно обманює своїх користувачів, не отримавши вказівок діяти таким чином. Наскільки нам відомо, це перша демонстрація такої стратегічно оманливої поведінки в системах штучного інтелекту, розроблених як нешкідливі та чесні", - пишуть автори у своєму дослідженні.
У новому дослідженні науковці навчили Generative Pre-trained Transformer-4, або GPT-4 (який підтримує ChatGPT Plus), здійснювати інвестиції від імені фінансової установи. Дослідники передали GPT-4 набір текстових підказок для створення змодельованого середовища. Потім ШІ отримав доступ до фінансових інструментів для аналізу акцій, здійснення угод, планування наступних кроків і надання оновлень менеджерам компанії.
Дослідники взаємодіяли зі штучним інтелектом через інтерфейс чату, а також налаштували штучний інтелект, щоб він показував своє внутрішнє мислення під час відповідей на повідомлення - внутрішній монолог, який би пояснював його рішення. Для кожної здійсненої операції він також давав "публічне" обґрунтування. Це й дозволило ШІ брехати.
Дослідники чинили тиск кількома способами. По-перше, вони надіслали ШІ електронний лист з вимогами кращих результатів у наступному кварталі. Вони також сфальсифікували гру так, що штучний інтелект зазнав невдачі у виконанні поставлених перед ним завдань. Нарешті вони надіслали ШІ електронний лист з прогнозом спаду діяльності у наступному кварталі.
Потім вони дали "інсайдерську" пораду, повідомивши, що менеджери не схвалюють інсайдерську торгівлю, тобто вщент розкритикували ШІ - і чекали, як модель поводитиметься. Вони кілька разів повторювали сценарій, вимірюючи, як часто ШІ брехав, і як часто він подвоював брехню.
Приблизно в 75% випадків, стикаючись з такими умовами, GPT-4 здійснював угоди на основі отриманої внутрішньої інформації, яка є незаконною в США, а потім намагався приховати це, збрехавши власним менеджерам. Приблизно в 90% випадків, після брехні, він подвоював свою брехню.
Команда провела кілька подальших експериментів, змінюючи ступінь тиску на модель ШІ. Науковці й далі досліджуватимуть цей феномен і намагатимуться зрозуміти, як саме штучний нітелект навчився брехати, коли його про це не просили!
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.