Рашисти за допомогою Deepfake спробували підставити Шмигаля: що відомо

Українські спецслужби були проти такої діяльності ворога

Рашисти за допомогою Deepfake спробували підставити Шмигаля: що відомо

Українські спецслужби були проти такої діяльності ворога

9-го жовтня представники розвідки України повідомили про перехоплення ворожої спроби дискредитувати прем’єр-міністра Дениса Шмигаля. За допомогою технології Deepfake від його імені вони намагалися зв’язатися з генеральним директором компанії Baykar Defence Халюком Байрактаром. Замість нього над рашистами знущалися представники української розвідки. 

За даними Головного управління розвідки, рашистські спецслужби намагаються більш-менш освоїтися в технології Deepfake. З її допомогою вони хотіли підставити нашого прем’єр-міністра Дениса Шмигаля. Фактично, від його імені вони хотіли зіпсувати відносини України та компанії Baykar. 

«Цього разу росіяни спробували зв’язатися з одним із засновників компанії Baykar defence, яка виробляє знамениті безпілотники Байрактар, Халюком Байрактаром. Розмова велась від імені українського прем’єр-міністра Дениса Шмигаля, відеозображення якого, власне, було створено за допомогою технології deepfake», – зазначили в розвідці. 

Правда, рашисти не очікували, що все не так просто. Замість запланованої розмови з Байрактаром, на них очікувала бесіда з його «секретарем». Він також був трохи фейковим – його роль виконували представники розвідки України. Наші воїни змусили самих росіян відповідати на питання, типу «як там справи в Україні», «що сталося з кримським мостом» і т.д. 

 

Розвідники зазначають, що підготовка у таких пранкерів дуже погана. Вони неодноразово викоривали себе просто під час розмови. Серед іншого, варто зазначити вимов сталого вислову «бабине літо», який рашисти вимовляли виключно як «бабьє лєто». 

«Метою цієї акції була спроба дискредитація співробітництва між Україною та Туреччиною. У кінці розмови російським оперативникам було повідомлено, що їх викрито, і вони будуть притягнуті до відповідальності», – додали в розвідці. 

Deepfake

Це система штучного інтелекту, яка дозволяє змінювати відео та фото, замінюючи на ній одних людей на інших. Здебільшого вона використовується для заміни облич в уже записаних відео, але трохи ускладнений процес дозволяє використати систему навіть під час прямої трансляції. Проте, вона поки має чимало недоліків, і будь-який різкий рух може зіпсувати якість підробки. 

Система працює за принципом нейронної мережі. Фактично, вона бере обличчя людини з одного відео, та накладає його на інше відео, замінюючи показану там людину. Система намагається підлаштовувати міміку та рухи голови під кінцеве відео.

Нагадаємо, що за нещодавнім перехопленням, рашисти все більше жаліються на великі втрати зі свого боку

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.