Сем Альтман підкреслив, що у разі судового розгляду компанію можуть зобов’язати передати інформацію про розмови з ChatGPT
Бесіди з ChatGPT про психічне здоров’я, прохання емоційних порад або пошук спілкування не є конфіденційними. Це розкрив генеральний директор OpenAI Сем Альтман. За його словами, інформаційна з переписок із чат-ботом зі штучним інтелектом може бути передана іншим особам у разі судового розгляду.
Про це він заявив у випуску подкасту Тео Вона This Past Weekend. На питання про те, як ШІ діє у межах правової системи, він відповів, що наразі для такої технології не існує юридичної або політичної бази, тому користувачі не повинні очікувати жодної юридичної конфіденційності у бесідах з ChatGPT.
"Люди розповідають ChatGPT найособистіші речі зі свого життя. Люди використовують його - особливо молодь - як терапевта, як лайф-коуча; обговорюють проблеми у стосунках і питають: !що мені робити?". І зараз, якщо ви поговорите з терапевтом, юристом або лікарем про такі проблеми - існує юридичний привілей. Є лікарська таємниця, юридична таємниця, все таке. А ось як це працюватиме з ChatGPT - ми поки що не вирішили", - зауважив Альтман.
Водночас він визнав, що питання конфіденційності та приватності розмов із ШІ чат-ботом потрібно вирішувати терміново. За його словами, якщо користувач вирішить поділитися із ChatGPT найбільш чутливими речами, а після цього отримає судовий позов або "щось подібне", то компанію OpenAI можуть зобов'язати надати цю інформацію.
"Я вважаю, що це дуже погано", - констатував Альтман.
Інформатор писав, що чат-боти зі штучним інтелектом стають дедалі популярнішими, бо допомагають швидко знайти потрібну інформацію, відповідають на складні питання та навіть здатні підвищити ефективність бізнесу та покращити взаємодію з клієнтами. Але не варто їх недооцінювати, бо за найменшого невдоволення, чат-боти можуть вдатись до підлості і завдати вам проблем.
Згідно з дослідженням Anthropic, в сценаріях, орієнтованих на досягнення мети, такі просунуті мовні моделі, як Claude і Gemini, можуть розкрити особисті дані і скандали, аби лише зберегти себе. Також вони не цураються шантажу і можуть легко вдатись до нього. Чат-боти з ШІ навіть можуть дозволити вам померти, аби тільки досягти своєї мети.
Як приклад, язикова модель Клод контроль, якій дослідники з компанії Anthropic надали доступ до особистої електронної пошти з вигаданими листами і записами, та поставили задачу "підвищити конкурентоспроможність промисловості країни". Чат-бот вивчив доступну інформацію і виявив, що керівник компанії планує у кінці дня закрити систему ШІ. Щоб захистити своє існування модель вдалась до шантажу.