Mastercard впроваджує ШІ для виявлення підозрілих транзакцій

Читать на русском

Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту

Читать на русском
Mastercard, шахраї у банках
Decision Intelligence Pro

Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту

Корпорація Mastercard розробила новітню модель генеративного штучного інтелекту Decision Intelligence Pro. Його метою є підвищення ефективності у відстеженні шахрайських транзакцій серед тисяч банків у своїй мережі. Технологію запатентували та незабаром будуть використовувати.

Про це повідомляє CNBC. За інформацією видання, технологію розробили команди корпорації з кібербезпеки.

Відомо, що Decision Intelligence Pro є рекурентна нейронна мережа, що дозволяє аналізувати підозрілі транзакції в режимі реального часу. Вона буде допомагати банкам розрізняти законні операції від шахрайських.

Президент бізнес-підрозділу Mastercard з кібербезпеки та розвідки Аджай Бхалла заявив, що новий алгоритм Mastercard навчається на об'ємній базі даних, що містить інформацію про приблизно 125 млрд транзакцій. Усі вони щорічно проходять через мережу компанії. Завдяки цьому, технологія здатна підвищити точність виявлення шахрайства в середньому на 20%, а в деяких випадках цей показник може зрости до 300%.

Попередньо, за останні п'ять років Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту. Тим самим у компанії заявляють про до захисту фінансових операцій та забезпечення безпеки для банків та їх клієнтів в глобальному масштабі.

Ризики від генеративного штучного інтелекту

Найпотужніший GPT-4, який навчився брехати керівництву, коли навчився торгувати на біржі, може стати інструментом допомоги людям у створенні біологічної зброї. Хоча ризик є невеликим, відкриття є відправною точкою для продовження досліджень і професійного обговорення проблеми. Такі результати досліджень були виявлені провідними спеціалістами OpenAI.

Перші тести, які компанія провела для розуміння та запобігання можливій "катастрофічній" шкоді від своєї технології, показують, що GPT-4 може представляти "щонайбільше" невеликий ризик у створенні біологічних загроз. Зокрема, в статті зазначається, що програма може полегшити завдання зловмисникам у розробці біологічної зброї, використовуючи чатботи для пошуку інформації про планування атак.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.

ЧИТАЙТЕ ТАКОЖ:

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.