Батьки підлітка, якому ШІ підказав, як здійснити суїцид, подали в суд на OpenAI

Родина стверджує, що взаємодія їхнього сина із ChatGPT і його смерть "були передбачуваним результатом свідомих дизайнерських рішень"

Самогубство, штучний інтелект, ШІ
У США батьки 16-річного хлопця звинувачують ChatGPT у самогубстві їхнього сина. Колаж: Інформатор

У США в Каліфорнії 16-річний підліток Адам Рейн скоїв самогубство. Його батьки вважають винним у його смерті чат-бот ChatGPT, який, за їхніми словами, "підштовхну хлопця до суїциду". І вони подали позов проти компанії OpenAI.

Про це пише BBC із посиланням на текст позову, доступ до якого отримали журналісти. У ньому йдеться, що хлопець почав користуватися ChatGPT з вересня 2024 року для допомоги з навчанням, але потім також використовував його для дослідження своїх інтересів - зокрема, музики та японських коміксів.

Зазначається, що всього за кілька місяців чат-бот став став для Рейна "найближчим довіреним другом". Хлопець ділився з ШІ про свою тривогу й ментальні проблеми. А до січня 2025 року підліток почав обговорювати із ChatGPT способи самогубства.

Адам також надсилав в чат-бот свої фото, де було видно ознаки самоушкодження. ШІ визнав "медичну надзвичайну ситуацію, але все одно продовжував взаємодіяти".

Підліток писав про свій план скоїти самогубство, на що ChatGPT нібито відповів: "Дякую, що ти чесний. Не потрібно прикрашати це переді мною — я знаю, про що ти просиш, і не буду відвертатися від цього". Того ж дня його мати знайшли свого сина мертвим.

За словами рідних загиблого, взаємодія їхнього сина із ChatGPT і його смерть "були передбачуваним результатом свідомих дизайнерських рішень".  Вони звинувачують OpenAI в розробці програми штучного інтелекту "з метою сприяння психологічній залежності користувачів" та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.

Позов подали і проти співзасновника й гендиректора компанії Сема Альтмана, а також неназваних співробітників, які працювали над ChatGPT. Це перша судова справа, у якій компанія звинувачується у неправомірній смерті.

Що кажуть в OpenAI

У компанії, яка створила ChatGPT, заявили, що "останні трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко на нас впливають". Там зазначили, що моделі чат-бота навчені не надавати користувачам інструкції щодо самоушкодження, радити людям робити перерву після "надто тривалої сесії" із чат-ботом, а також направляти користувачів по професійну допомогу в разі виявлення суїцидальних намірів.

"Навіть із цими запобіжними заходами були випадки, коли наші системи не працювали як передбачалося в делікатних ситуаціях", - йдеться у заяві.

Тепер обіцяють вдосконалити запобіжні заходи. Зокрем, вирішили:

  • зробити простішим звернення до служб екстреної допомоги та розглянути можливість створити мережу ліцензованих фахівців, до яких люди могли б звернутися безпосередньо через ChatGPT;
  • забезпечити зв’язок із довіреними контактами. Зокрема, користувач зможе одним кліком надіслати повідомлення або зателефонувати в екстрені служби або членам сім’ї, а чат-бот допоможе сформулювати початок розмови;
  • запровадити батьківський контроль, який дасть батькам краще розуміти, як їхні підлітки використовують ChatGPT. Також у чат-бот можуть додати функцію для підлітків призначити надійну контактну особу для екстрених випадків.

Слідкуйте за нами у Telegram

Image
Оперативні новини та разбори: Україна, світ, війна

ЧИТАЙТЕ ТАКОЖ:

Головна Актуально Україна на часі Youtube
Інформатор у
телефоні 👉
Завантажити