Кіберполіція радить подумайте двічі, перш ніж викладати довгі відео чи сторіз зі своїм чистим голосом у відкриті профілі, адже це - ідеальний матеріал для навчання нейромереж
Компанія Ілона Маска xAI запускає Custom Voices для свого чат-бота Grok. Тепер штучний інтелект може миттєво клонувати будь-який голос на основі короткого аудіозапису. Це може стати небезпечною зброєю в руках шахраїв. Кіберполіція 4 травня дає поради, як не стати жертвою дипфейків.
Кіберполіція радить ввести наступні заходи безпеки:
“Подумайте двічі, перш ніж викладати довгі відео чи сторіз зі своїм чистим голосом у відкриті профілі. Це - ідеальний матеріал для навчання нейромереж. Пам'ятайте: Технології розвиваються швидше, ніж ми встигаємо до них звикнути. Ваша пильність - найкращий фільтр проти маніпуляцій”, - пише Кіберполіція.

Як повідомляв Інформатор, користувачі почали отримувати фейкові повідомлення нібито від служби підтримки Signal. У повідомленні стверджується, що на пристрої зафіксована “підозріла активність”, нібито вже була “несанкціонована атака”, зловмисники намагаються отримати доступ до приватних чатів. Після цього користувача підштовхують пройти “верифікацію” прямо в чаті, причому “якнайшвидше” і “за 1 хвилину”. Жоден месенджер, включно з Signal, не буде писати вам у особисті повідомлення з вимогою “терміново підтвердити акаунт”. Якщо вас лякають і підганяють - це майже завжди шахрайство, пояснює Кіберполіція.