У США заявили про зрив російської ІПСО: для поширення фейків РФ задіяла штучний інтелект та фальшиві акаунти у соцмережах

Читать на русском

Ботоферму розвивали кадри з російської розвідки та співробітник Russia Today на гроші Кремля

Читать на русском
Кремль, Спаська вежа, ноутбук, клавіатура, fake news
Кремль 2023 року профінансував ботоферму в соцмережі Х, де штучний інтелект створив мережу "американських акаунтів"

Ботоферму розвивали кадри з російської розвідки та співробітник Russia Today на гроші Кремля

Міністерство юстиції США заявило, що їм вдалося знешкодити велику російську операцію з дезінформації у соціальних мережах. Зловмисники використовували фейкові акаунти, підсилені штучним інтелектом, для поширення пропагандистських повідомлень Кремля у США. Цей випадок став першим, коли Сполучені Штати публічно звинуватили іноземну державу у використанні генеративного штучного інтелекту для впливу на громадську думку за кордоном.

Американські чиновники попереджають, що вороги можуть використовувати зростаючі можливості ШІ-систем для масштабного поширення дезінформації, повідомляє 9 липня Reuters. Цього разу, наприклад, було розроблено спеціальну платформу на базі штучного інтелекту для створення, контролю та управління сотнями фейкових облікових записів у соціальних мережах, які виглядали як акаунти реальних американців.

За даними слідчих, кампанія фейків з долученням ціх акаунтів керувалася із сервера, розташованого в Нідерландах, тому слідство проводилося США у співпраці з Нідерландами. За даними обвинувачення, діяльність здійснювалася через приватну розвідувальну організацію з РФ, за участю російської розвідки та високопоставленого співробітника державного російського інформаційного агентства Russia Today. З'ясовано, що їхні дії були схвалені та профінансовані Кремлем на початку 2023 року.

Акаунти "американців", за даними Reuters, публікували пропагандистські матеріали на користь Кремля, зокрема відеоролики з російським диктатором Володимиром Путіним, та критикували український уряд. Згодом акаунти в соціальній мережі X, які використовувалися для поширення дезінформації, були заблоковані. Зокрема, Мін’юст США, за даними Reuters, отримав дозвіл суду на арешт двох доменних імен та обшук майже 1000 акаунтів у соціальних мережах, ймовірно, пов’язаних із цими фейками.

Ця подія відбувається за чотири місяці до президентських виборів у США, які, за оцінками експертів з безпеки, знову стануть мішенню для хакерських атак та впливу ззовні у соціальних мережах. Американські посадовці відкрито заявили, що вони стежать за схемами, спрямованими на зрив виборів, додає Reuters.

Нагадаємо, раніше Інформатор публікував розслідування про те, як кремлівські фейки потрапляють до українських ЗМІ через псевдо-американські медіа. Частина псевдо-ЗМІ тоді виявилася пов'язаною з колишньою "фабрикою тролів" Євгена Пригожина

Боротьба соцмереж з фейками та пропагандою Росії

Наразі YouTube тестує нову функцію, яка дозволить користувачам додавати важливий контекст під відео, а також вишукуватиме фейки. Функціонал дуже нагадує Community Notes в X (Twitter), який дозволяє користувачам розвінчувати різні фейки. В Google кажуть, що ця функція може бути використана як пояснення, коли пісня є пародією, або повідомлення глядачам про те, що старі кадри зображуються як актуальна подія. І це буде актуально з огляду того, що російська пропаганда активно поширює неправдиву інформацію, маніпулюючи користувачами.

Запуск цієї на YouTube відбувається у рік виборів у США. Дезінформація під час виборів 2024 року може стати великою проблемою завдяки появі генеративного ШІ. Тому YouTube хоче зменшити поширення дезінформації.

TikTok теж буде обмежувати поширення відео з російською пропагандою. Зокрема, це стосується акаунтів, повʼязаних із державними ЗМІ Росії та Китаю. Також буде заборонена реклама цих облікових записів за межами їхніх країн. Зокрема, це робиться для того, щоб ці акаунти не використовували як інструмент пропаганди в рік великих виборів.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. Підписатися на канал у Viber можна тут.

ЧИТАЙТЕ ТАКОЖ:

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.