Сеансы терапии с ChatGPT не конфиденциальны: ИИ может использовать информацию против вас - гендиректор OpenAI Альтман

Сэм Альтман подчеркнул, что в случае судебного разбирательства компанию могут обязать передать информацию о разговорах с ChatGPT.

ChatGPT, искусственный интеллект, ШИ
Альтман заявил, что ChatGPT может не оставлять разговор конфиденциальным. Коллаж: Информатор, Getty Images

Беседы с ChatGPT о психическом здоровье, просьбе эмоциональных советов или поиске общения не являются конфиденциальными. Это раскрыл генеральный директор OpenAI Сэм Альтман. По его словам, информационная переписка с чат-ботом с искусственным интеллектом может быть передана другим лицам в случае судебного разбирательства.

Об этом он заявил в выпуске подкаста Тео Она This Past Weekend. На вопрос о том, как ИИ действует в рамках правовой системы, он ответил, что в настоящее время для такой технологии нет юридической или политической базы, поэтому пользователи не должны ожидать никакой юридической конфиденциальности в беседах с ChatGPT.

"Люди рассказывают ChatGPT самые личные вещи из своей жизни. Люди используют его - особенно молодежь - как терапевта, как лайф-коуча; обсуждают проблемы в отношениях и спрашивают: что мне делать?". И сейчас, если вы поговорите с терапевтом, юристом или врачом о таких проблемах – существует юридическая привилегия. Есть врачебная тайна, юридическая тайна, все такое. А вот как это будет работать с ChatGPT – мы пока не решили», – заметил Альтман.

В то же время он признал, что вопросы конфиденциальности и конфиденциальности разговоров с ИИ чат-ботом нужно решать срочно. По его словам, если пользователь решит поделиться с ChatGPT наиболее чувствительными вещами, а затем получит судебный иск или "нечто подобное", то компанию OpenAI могут обязать предоставить эту информацию.

"Я считаю, что это очень плохо", – констатировал Альтман.

Неконфиденциальный ИИ

Информатор писал, что чат-боты с искусственным интеллектом становятся все более популярными, потому что помогают быстро найти нужную информацию, отвечают на сложные вопросы и даже способны повысить эффективность бизнеса и улучшить взаимодействие с клиентами.  Но не стоит их недооценивать, потому что при малейшем недовольстве, чат-боты могут прибегнуть к подлости и доставить вам проблемы.

Согласно исследованию Anthropic, в сценариях, ориентированных на достижение цели, такие продвинутые языковые модели, как Claude и Gemini, могут раскрыть личные данные и скандалы , лишь бы сохранить себя. Также они не отказываются от шантажа и могут легко прибегнуть к нему. Чат-боты с ИИ даже могут позволить вам умереть, лишь бы достичь своей цели.

В качестве примера языковая модель Клод контроль, которой исследователи из компании Anthropic предоставили доступ к личной электронной почте с вымышленными письмами и записями, и поставили задачу "повысить конкурентоспособность промышленности страны". Чат-бот изучил доступную информацию и обнаружил, что руководитель компании планирует в конце дня закрыть систему ИИ.  Чтобы защитить свое существование модель прибегла к шантажу.

Следите за нами в Viber

Image
Оперативные новости и разборы: Украина, мир, война. Подписывайтесь 👇

ЧИТАЙТЕ ТАКЖЕ:

Главная Актуально Україна на часі Youtube
Информатор в
телефоне 👉
Скачать