Стоит насторожиться, если популярный блогер имеет размытую биографию, избегает прямых ответов о происхождении рекламируемых товаров или агрессивно подталкивает к быстрым финансовым решениям в закрытых мессенджерах.
В современном цифровом пространстве набирает обороты новый вид мошенничества, где вместо реальных людей аудиторию обманывают виртуальные инфлюэнсеры, созданные с помощью искусственного интеллекта. Злоумышленники выстраивают целые цифровые личности с безупречной внешностью, профессиональными видео и поддельной социальной активностью. Эти Deepfake персоны имитируют повседневную жизнь, реагируют на тренды и постепенно втираются в доверие к подписчикам, чтобы впоследствии продвигать сомнительные инвестиции, криптосхемы или некачественные товары через фейковые магазины. О дезинформационных сообщениях рассказал Том Ванненмахер из проекта Mimikama.
Разоблачение таких схем основано на понимании того, что высокий охват и тысячи лайков в соцсетях больше не являются гарантией подлинности. Мошенники используют "социальные рутины" - повторяющиеся публикации, купленные комментарии и имитацию личного общения в директе - для создания иллюзии надежности. Аналитики подчеркивают, что такие платформы как Meta удаляют миллионы подозрительных аккаунтов, однако технологический барьер постоянно снижается. Теперь для создания убедительного образа не нужны большие средства, что позволяет преступникам масштабировать обман, запуская целые сети поддерживающих друг друга искусственных профилей.
Для того чтобы не стать жертвой манипуляции, специалисты советуют обращать внимание на специфические признаки подделки. Это может быть визуальная "слишком идеальная" картинка, которая при этом не совпадает со стилистикой разных видео на одном канале, или размытость деталей вокруг лица и неестественные движения. Также стоит насторожиться, если популярный блогер имеет размытую биографию, избегает прямых ответов о происхождении рекламируемых товаров или агрессивно подталкивает к быстрым финансовым решениям в закрытых мессенджерах. В случае подозрения на мошенничество эксперты призывают немедленно фиксировать все доказательства, сообщать платформу о поддельном профиле и ни в коем случае не передавать данные своих криптогаманцев или банковских карт.

Как сообщал Информатор, по мнению экспертов, инструменты генеративного искусственного интеллекта удивительно плохо справляются с предложением надежных паролей. Компания Irregular, специализирующаяся на безопасности с использованием искусственного интеллекта, изучила инструменты Claude, ChatGPT и Gemini и обнаружила, что все три инструмента GenAI предлагали, казалось бы, надежные пароли, которые действительно было легко угадать. Пароль, сгенерированный искусственным интеллектом, не случаен, он просто так выглядит.