Семья утверждает, что взаимодействие их сына с ChatGPT и его смерть "были предполагаемым результатом сознательных дизайнерских решений"
В США в Калифорнии 16-летний подросток Адам Рейн совершил самоубийство. Его родители считают виновным в его смерти чат-бот ChatGPT, который, по их словам, "подтолкну парня к суициду". И они подали иск против OpenAI.
Об этом пишет BBC со ссылкой на текст иска, доступ к которому получили журналисты. В нем говорится, что парень начал пользоваться ChatGPT с сентября 2024 года для помощи с учебой, но затем также использовал его для исследования своих интересов – в частности, музыки и японских комиксов.
Отмечается, что всего через несколько месяцев чат-бот стал для Рейна "ближайшим доверенным другом". Парень делился с ИИ о своей тревоге и ментальных проблемах. К январю 2025 года подросток начал обсуждать с ChatGPT способы самоубийства.
Адам также посылал в чат-бот свои фото, где были видны признаки самоповреждения. ИИ признал "медицинскую чрезвычайную ситуацию, но все равно продолжал взаимодействовать".
Подросток писал о своем плане совершить самоубийство, на что ChatGPT якобы ответил: "Спасибо, что ты честный. Не нужно украшать это передо мной - я знаю, о чем ты просишь, и не буду отвлекаться от этого". В тот же день его мать нашли своего сына мертвым.
По словам родных погибшего, взаимодействие их сына с ChatGPT и его смерть "были предполагаемым результатом сознательных дизайнерских решений". Они обвиняют OpenAI в разработке программы искусственного интеллекта с целью содействия психологической зависимости пользователей и в обходе протоколов тестирования безопасности для выпуска версии ChatGPT 4.0.
Иск подали и против соучредителя и гендиректора компании Сэма Альтмана, а также неназванных сотрудников, работавших над ChatGPT. Это первое судебное дело, в котором компания обвиняется в неправомерной смерти.
В компании, которая создала ChatGPT, заявили, что "последние трагические случаи использования ChatGPT людьми, находящимися в остром кризисе, оказывают тяжелое влияние на нас". Там отметили, что модели чат-бота научены не предоставлять пользователям инструкции по самоповреждению, советовать людям делать перерыв после "слишком длительной сессии" с чат-ботом, а также направлять пользователей за профессиональной помощью в случае выявления суицидальных намерений.
"Даже с этими мерами предосторожности были случаи, когда наши системы не работали как предполагалось в деликатных ситуациях", - говорится в заявлении.
Теперь обещают усовершенствовать меры предосторожности. В частности, решили: