Родители подростка, которому ИИ подсказал, как совершить суицид, подали в суд на OpenAI

Семья утверждает, что взаимодействие их сына с ChatGPT и его смерть "были предполагаемым результатом сознательных дизайнерских решений"

Самоубийство, искусственный интеллект, ИИ
В США родители 16-летнего парня обвиняют ChatGPT в самоубийстве их сына. Коллаж: Информатор

В США в Калифорнии 16-летний подросток Адам Рейн совершил самоубийство. Его родители считают виновным в его смерти чат-бот ChatGPT, который, по их словам, "подтолкну парня к суициду". И они подали иск против OpenAI.

Об этом пишет BBC со ссылкой на текст иска, доступ к которому получили журналисты. В нем говорится, что парень начал пользоваться ChatGPT с сентября 2024 года для помощи с учебой, но затем также использовал его для исследования своих интересов – в частности, музыки и японских комиксов.

Отмечается, что всего через несколько месяцев чат-бот стал для Рейна "ближайшим доверенным другом". Парень делился с ИИ о своей тревоге и ментальных проблемах. К январю 2025 года подросток начал обсуждать с ChatGPT способы самоубийства.

Адам также посылал в чат-бот свои фото, где были видны признаки самоповреждения. ИИ признал "медицинскую чрезвычайную ситуацию, но все равно продолжал взаимодействовать".

Подросток писал о своем плане совершить самоубийство, на что ChatGPT якобы ответил: "Спасибо, что ты честный. Не нужно украшать это передо мной - я знаю, о чем ты просишь, и не буду отвлекаться от этого". В тот же день его мать нашли своего сына мертвым.

По словам родных погибшего, взаимодействие их сына с ChatGPT и его смерть "были предполагаемым результатом сознательных дизайнерских решений". Они обвиняют OpenAI в разработке программы искусственного интеллекта с целью содействия психологической зависимости пользователей и в обходе протоколов тестирования безопасности для выпуска версии ChatGPT 4.0.

Иск подали и против соучредителя и гендиректора компании Сэма Альтмана, а также неназванных сотрудников, работавших над ChatGPT. Это первое судебное дело, в котором компания обвиняется в неправомерной смерти.

Что говорят в OpenAI

В компании, которая создала ChatGPT, заявили, что "последние трагические случаи использования ChatGPT людьми, находящимися в остром кризисе, оказывают тяжелое влияние на нас". Там отметили, что модели чат-бота научены не предоставлять пользователям инструкции по самоповреждению, советовать людям делать перерыв после "слишком длительной сессии" с чат-ботом, а также направлять пользователей за профессиональной помощью в случае выявления суицидальных намерений.

"Даже с этими мерами предосторожности были случаи, когда наши системы не работали как предполагалось в деликатных ситуациях", - говорится в заявлении.

Теперь обещают усовершенствовать меры предосторожности. В частности, решили:

  • сделать более простым обращение в службы экстренной помощи и рассмотреть возможность создать сеть лицензированных специалистов, к которым люди могли бы обратиться непосредственно через ChatGPT;
  • обеспечить связь с доверенными контактами. В частности, пользователь сможет одним кликом отправить сообщение или позвонить по телефону в экстренные службы или членам семьи, а чат-бот поможет сформулировать начало разговора;
  • ввести родительский контроль, который позволит родителям лучше понимать, как их подростки используют ChatGPT. Также в чат-боте могут добавить функцию для подростков назначить надежное контактное лицо для экстренных случаев.

Следите за нами в Telegram

Image
Оперативные новости и разборы: Украина, война, мир

ЧИТАЙТЕ ТАКЖЕ:

Главная Актуально Україна на часі Youtube
Информатор в
телефоне 👉
Скачать