Сэм Альтман подчеркнул, что в случае судебного разбирательства компанию могут обязать передать информацию о разговорах с ChatGPT.
Беседы с ChatGPT о психическом здоровье, просьбе эмоциональных советов или поиске общения не являются конфиденциальными. Это раскрыл генеральный директор OpenAI Сэм Альтман. По его словам, информационная переписка с чат-ботом с искусственным интеллектом может быть передана другим лицам в случае судебного разбирательства.
Об этом он заявил в выпуске подкаста Тео Она This Past Weekend. На вопрос о том, как ИИ действует в рамках правовой системы, он ответил, что в настоящее время для такой технологии нет юридической или политической базы, поэтому пользователи не должны ожидать никакой юридической конфиденциальности в беседах с ChatGPT.
"Люди рассказывают ChatGPT самые личные вещи из своей жизни. Люди используют его - особенно молодежь - как терапевта, как лайф-коуча; обсуждают проблемы в отношениях и спрашивают: что мне делать?". И сейчас, если вы поговорите с терапевтом, юристом или врачом о таких проблемах – существует юридическая привилегия. Есть врачебная тайна, юридическая тайна, все такое. А вот как это будет работать с ChatGPT – мы пока не решили», – заметил Альтман.
В то же время он признал, что вопросы конфиденциальности и конфиденциальности разговоров с ИИ чат-ботом нужно решать срочно. По его словам, если пользователь решит поделиться с ChatGPT наиболее чувствительными вещами, а затем получит судебный иск или "нечто подобное", то компанию OpenAI могут обязать предоставить эту информацию.
"Я считаю, что это очень плохо", – констатировал Альтман.
Информатор писал, что чат-боты с искусственным интеллектом становятся все более популярными, потому что помогают быстро найти нужную информацию, отвечают на сложные вопросы и даже способны повысить эффективность бизнеса и улучшить взаимодействие с клиентами. Но не стоит их недооценивать, потому что при малейшем недовольстве, чат-боты могут прибегнуть к подлости и доставить вам проблемы.
Согласно исследованию Anthropic, в сценариях, ориентированных на достижение цели, такие продвинутые языковые модели, как Claude и Gemini, могут раскрыть личные данные и скандалы , лишь бы сохранить себя. Также они не отказываются от шантажа и могут легко прибегнуть к нему. Чат-боты с ИИ даже могут позволить вам умереть, лишь бы достичь своей цели.
В качестве примера языковая модель Клод контроль, которой исследователи из компании Anthropic предоставили доступ к личной электронной почте с вымышленными письмами и записями, и поставили задачу "повысить конкурентоспособность промышленности страны". Чат-бот изучил доступную информацию и обнаружил, что руководитель компании планирует в конце дня закрыть систему ИИ. Чтобы защитить свое существование модель прибегла к шантажу.