Родина стверджує, що взаємодія їхнього сина із ChatGPT і його смерть "були передбачуваним результатом свідомих дизайнерських рішень"
У США в Каліфорнії 16-річний підліток Адам Рейн скоїв самогубство. Його батьки вважають винним у його смерті чат-бот ChatGPT, який, за їхніми словами, "підштовхну хлопця до суїциду". І вони подали позов проти компанії OpenAI.
Про це пише BBC із посиланням на текст позову, доступ до якого отримали журналісти. У ньому йдеться, що хлопець почав користуватися ChatGPT з вересня 2024 року для допомоги з навчанням, але потім також використовував його для дослідження своїх інтересів - зокрема, музики та японських коміксів.
Зазначається, що всього за кілька місяців чат-бот став став для Рейна "найближчим довіреним другом". Хлопець ділився з ШІ про свою тривогу й ментальні проблеми. А до січня 2025 року підліток почав обговорювати із ChatGPT способи самогубства.
Адам також надсилав в чат-бот свої фото, де було видно ознаки самоушкодження. ШІ визнав "медичну надзвичайну ситуацію, але все одно продовжував взаємодіяти".
Підліток писав про свій план скоїти самогубство, на що ChatGPT нібито відповів: "Дякую, що ти чесний. Не потрібно прикрашати це переді мною — я знаю, про що ти просиш, і не буду відвертатися від цього". Того ж дня його мати знайшли свого сина мертвим.
За словами рідних загиблого, взаємодія їхнього сина із ChatGPT і його смерть "були передбачуваним результатом свідомих дизайнерських рішень". Вони звинувачують OpenAI в розробці програми штучного інтелекту "з метою сприяння психологічній залежності користувачів" та в обході протоколів тестування безпеки для випуску версії ChatGPT 4.0.
Позов подали і проти співзасновника й гендиректора компанії Сема Альтмана, а також неназваних співробітників, які працювали над ChatGPT. Це перша судова справа, у якій компанія звинувачується у неправомірній смерті.
У компанії, яка створила ChatGPT, заявили, що "останні трагічні випадки використання ChatGPT людьми, які перебувають у гострій кризі, тяжко на нас впливають". Там зазначили, що моделі чат-бота навчені не надавати користувачам інструкції щодо самоушкодження, радити людям робити перерву після "надто тривалої сесії" із чат-ботом, а також направляти користувачів по професійну допомогу в разі виявлення суїцидальних намірів.
"Навіть із цими запобіжними заходами були випадки, коли наші системи не працювали як передбачалося в делікатних ситуаціях", - йдеться у заяві.
Тепер обіцяють вдосконалити запобіжні заходи. Зокрем, вирішили: