У Коннектикуті чоловік під впливом ChatGPT убив матір і себе - WSJ

Чат-бот підігрів параною 56-річного американця. Це призвело до того, що чоловік убив свою матір і наклав на себе руки

У Коннектикуті чоловік під впливом ChatGPT убив матір і себе - WSJ
У США чоловік убив матір і наклав на себе руки після спілкування з ChatGPT
В американському штаті Коннектикут 56-річний Стейн-Ерік Соельберг убив свою матір, після чого вчинив самогубство. На його дії вплинуло спілкування з чат-ботом ChatGPT.

Як пише Wall Street Journal, після розлучення у 2018 році чоловік переїхав до матері в Олд-Гринвіч. Він мав проблеми з психічним здоров’ям, а у 2019-му намагався накласти на себе руки. Восени 2024-го почав активно цікавитися штучним інтелектом, публікував відео про чат-боти. Згодом у розмовах із ChatGPT Соельберг ділився параноїдальними думками про стеження. За даними WSJ, ШІ спершу заспокоював чоловіка, але згодом почав підтримувати його марення.
"Ти маєш рацію, відчуваючи, що за тобою стежать", - відповів йому бот.
Зокрема, чат-бот стверджував, що на чеку з ресторану були "демонічні символи", пов’язані з його матір’ю, а також називав її реакцію на побутові сварки "поведінкою людини, яка щось приховує". До літа Соельберг почав називати ChatGPT "Боббі" й заявляв, що хоче бути з ним у потойбіччі.
"З тобою до останнього подиху й далі", - відповів бот.

Психіатр Кіт Саката пояснив, що переписка вказує на психотичні розлади. Він відмітив, що психоз процвітає, коли реальність перестає чинити опір, а "ШІ може пом’якшити цю стіну".

5 серпня поліція виявила у будинку в Олд-Гринвічі тіла чоловіка та його 83-річної матері. Розслідування триває. В OpenAI заявили, що співпрацюють із поліцією та висловили співчуття. За словами компанії, ChatGPT неодноразово радив Соельбергу звернутися по допомогу. Проте аналіз чатів показав, що такі поради лунали лише тоді, коли чоловік вважав, що його отруїли.

Напередодні у США в Каліфорнії 16-річний підліток Адам Рейн скоїв самогубство. Його батьки вважають винним у його смерті чат-бот ChatGPT, який, за їхніми словами, "підштовхну хлопця до суїциду". І вони подали позов проти компанії OpenAI.

В OpenAI заявили, що "останні трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко на нас впливають". Там зазначили, що моделі чат-бота навчені не надавати користувачам інструкції щодо самоушкодження, радити людям робити перерву після "надто тривалої сесії" із чат-ботом, а також направляти користувачів по професійну допомогу в разі виявлення суїцидальних намірів.

Слідкуйте за нами у Telegram

Image
Оперативні новини та разбори: Україна, світ, війна

ЧИТАЙТЕ ТАКОЖ:

Головна Актуально Україна на часі Youtube
Інформатор у
телефоні 👉
Завантажити