UA

Mastercard внедряет ИИ для выявления подозрительных транзакций

Читати українською

Mastercard инвестировала более $ 7 млрд в развитие кибербезопасности и искусственного интеллекта

Читати українською
Mastercard, мошенники в банках
Decision Intelligence Pro

Mastercard инвестировала более $ 7 млрд в развитие кибербезопасности и искусственного интеллекта

Корпорация Mastercard разработала новую модель генеративного искусственного интеллекта Decision Intelligence Pro. Его целью является повышение эффективности в отслеживании мошеннических транзакций среди тысяч банков в своей сети. Технологию запатентовали и скоро будут использовать.

Об этом сообщает CNBC. По информации издания, технологию разработали команды корпорации по кибербезопасности.

Известно, что Decision Intelligence Pro представляет собой рекуррентную нейронную сеть, позволяющую анализировать подозрительные транзакции в режиме реального времени. Она будет помогать банкам различать законные операции от мошеннических.

Президент бизнес-подразделения Mastercard по кибербезопасности и разведке Аджай Бхалла заявил, что новый алгоритм Mastercard обучается на объемной базе данных, содержащей информацию о примерно 125 млрд транзакциях. Все они ежегодно проходят через сеть компании. Благодаря этому технология способна повысить точность обнаружения мошенничества в среднем на 20 %, а в некоторых случаях этот показатель может возрасти до 300 %.

За последние пять лет Mastercard инвестировала более $ 7 млрд в развитие кибербезопасности и искусственного интеллекта. Тем самым в компании заявляют о защите финансовых операций и обеспечении безопасности для банков и их клиентов в глобальном масштабе.

Риски от генеративного искусственного интеллекта

Самый мощный GPT-4, который научился лгать руководству, когда научился торговать на бирже, может стать инструментом помощи людям в создании биологического оружия Хотя риск невелик, открытие является отправной точкой для продолжения исследований и профессионального обсуждения проблемы. Такие результаты исследований были обнаружены ведущими специалистами OpenAI.

Первые тесты, которые компания провела для понимания и предотвращения возможного «катастрофического» ущерба от своей технологии, показывают, что GPT-4 может представлять «как максимум» небольшой риск в разработке биологических угроз. В частности, в статье отмечается, что программа может облегчить задачу злоумышленникам по разработке биологического оружия, используя чат-боты для поиска информации о планировании атак.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите на нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.

ЧИТАЙТЕ ТАКЖЕ:

Мы используем файлы cookie, чтобы обеспечить должную работу сайта, а контент и реклама отвечали Вашим интересам.