ChatGPT збирає усе більше персональних даних під ваші вподобання: подробиці

Читать на русском

ChatGPT зможе конкурувати з Siri від Apple чи Alexa від Amazon

Читать на русском
chatpgt
ChatGPT, як і будь-яка штучна система, не застрахована від помилок

ChatGPT зможе конкурувати з Siri від Apple чи Alexa від Amazon

Корпорація OpenAI представила оновлену версію чат-бота на базі генеративного штучного інтелекту ChatGPT. Відтепер додаток може запам'ятовувати інформацію від користувачів для використання в майбутніх діалогах. У компанії вважають, що новація створить більш персоналізовані відповіді та пропозиції.

Про це пише The New York Times. Наприклад, користувач згадує про свою доньку Ліну з особливими уподобаннями, ChatGPT зможе в майбутньому враховувати цю інформацію. Він зможе створити листівку до дня її народження з урахуванням згаданих даних.

ChatGPT перетворюється на ще більш ефективного цифрового помічника. Тим самим він може конкурувати з Siri від Apple чи Alexa від Amazon. OpenAI вже впровадила можливість для користувачів налаштовувати інструкції та вподобання, що дозволяє чат-боту враховувати індивідуальні особливості в діалозі.

Попри здатність пам'ятати інформацію, ChatGPT, як і будь-яка штучна система, не застрахована від помилок. Проте це робить його ще більш "людяним" в очах користувачів. Наприклад, у створенні листівки можуть з'явитися незначні помилки, які лише підкреслюють унікальність і індивідуальний підхід чат-бота до кожного запиту.

У виданні також пишуть, що збільшення зібраних даних про користувачів зростає. У разі витоку інформації вона може нашкодити або ж бути використана проти людини.

Біологічна зброя від ChatGPT

Найпотужніший генеративний штучний інтелект, GPT-4, який навчився брехати керівництву, коли навчився торгувати на біржі, може стати інструментом допомоги людям у створенні біологічної зброї. Хоча ризик є невеликим, але відкриття є відправною точкою для продовження досліджень і професійного обговорення проблеми. Результати досліджень були виявлені провідними спеціалістами OpenAI.

Перші тести, які компанія провела для розуміння та запобігання можливій катастрофічній шкоді від своєї технології, показують, що GPT-4 може представляти "щонайбільше" невеликий ризик у створенні біологічних загроз. Зокрема, в статті зазначається, що програма може полегшити завдання зловмисникам у розробці біологічної зброї, використовуючи чатботи для пошуку інформації про планування атак.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.

ЧИТАЙТЕ ТАКОЖ:

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.