ChatGPT та інші ШІ вигадують URL-адреси брендів і цим допомагають шахраям

Малі бренди більш уразливі до таких «галюцинацій», бо про них менше інформації в навчальних даних мовних моделей, але ризики стосуються всіх

Штучний інтелект Фото: Getty Images
Штучний інтелект Фото: Getty Images

За даними дослідження британської компанії Netcraft, яка спеціалізується на кібербезпеці, кожне третє посилання, яке генерують мовні моделі штучного інтелекту на кшталт GPT‑4.1, не належить бренду, про який іде мова. Частина таких адрес виявляється небезпечними, що відкриває шлях для фішингових атак і поширення шкідливого коду. 

Згідно з даними звіту, 34% URL-адрес, які генерували LLM, виявилися неправильними. З них:

  • 29% вели на незареєстровані, припарковані або неактивні домени;
  • 5% вели на легітимні, але не пов’язані з брендом сайти.
  • Лише дві третини згенерованих посилань вели туди, куди треба.

Найбільше насторожує те, що небезпечні відповіді можна отримати без будь-яких складних запитів. Навіть запит на кшталт «покажи сайт для входу в акаунт [компанія]» іноді повертає вигадану або небезпечну URL-адресу. Дослідники пояснюють: малі бренди більш уразливі до таких «галюцинацій», бо про них менше інформації в навчальних даних мовних моделей. Але ризики стосуються всіх.

Зловмисники почали активно реєструвати домени, які вигадують чат-боти, щоб пізніше використовувати їх для атак, наприклад, фішингу або зараження пристроїв шкідливим ПЗ. У реальному кейсі: ШІ-система Perplexity вже «порадив» фейковий сайт банку Wells Fargo. Ще один тривожний сигнал: деякі розробники копіюють такі помилкові посилання у власний код. Netcraft виявила щонайменше п’ять публічних репозиторіїв із шкідливими URL, які, найімовірніше, були вставлені за допомогою ШІ-асистентів.

Зараз хакери оптимізують свої сайти не лише під Google, а й спеціально під ШІ‑моделі. Так з’явилися понад 17 тис. фішингових сторінок на GitBook, спрямованих на криптокористувачів. Їх маскують під техпідтримку, документацію чи сторінки входу. Netcraft закликає користувачів не довіряти жодним автоматично згенерованим посиланням і вводити URL вручну або перевіряти адресу на офіційному сайті бренду.

Як раніше повідомляв Інформатор, остання модель OpenAI може не виконувати прямі інструкції щодо вимкнення та навіть саботувати механізми вимкнення, щоб продовжувати працювати. Про це заявила фірма з безпеки штучного інтелекту. Так, моделі o3, o4-mini та codex-mini, які допомагають чат-боту ChatGPT, саботували комп'ютерні скрипти, щоб продовжувати працювати над завданнями.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. Підписатися на канал у Viber можна тут.

ЧИТАЙТЕ ТАКОЖ:

Головна Актуально Україна на часі Youtube