Агресія Росії – це не лише прямий напад на Україну, але й загроза основам світового миру. Нездатність Ради Безпеки ООН зупинити імперіалістичні амбіції свого постійного члена підриває її авторитет та легітимність міжнародного права
Луна знаходиться в зростаючій фазі, а значить сприяє новим починанням, дає нам додаткову енергію
“Тихий дощ” — це лірична подорож, де похмурого осіннього вечора ти можеш залишитися наодинці зі своїми думками. Здається, місто дихає ритмом цієї пісні, й навіть на перший погляд байдужі бетонні стіни вбирають у себе цю мелодію. І кожен стає свідком цієї магії й частиною осінньої симфонії — меланхолійної, але водночас сповненої тихої надії на новий світанок.
Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту
Корпорація Mastercard розробила новітню модель генеративного штучного інтелекту Decision Intelligence Pro. Його метою є підвищення ефективності у відстеженні шахрайських транзакцій серед тисяч банків у своїй мережі. Технологію запатентували та незабаром будуть використовувати.
Про це повідомляє CNBC. За інформацією видання, технологію розробили команди корпорації з кібербезпеки.
Відомо, що Decision Intelligence Pro є рекурентна нейронна мережа, що дозволяє аналізувати підозрілі транзакції в режимі реального часу. Вона буде допомагати банкам розрізняти законні операції від шахрайських.
Президент бізнес-підрозділу Mastercard з кібербезпеки та розвідки Аджай Бхалла заявив, що новий алгоритм Mastercard навчається на об'ємній базі даних, що містить інформацію про приблизно 125 млрд транзакцій. Усі вони щорічно проходять через мережу компанії. Завдяки цьому, технологія здатна підвищити точність виявлення шахрайства в середньому на 20%, а в деяких випадках цей показник може зрости до 300%.
Попередньо, за останні п'ять років Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту. Тим самим у компанії заявляють про до захисту фінансових операцій та забезпечення безпеки для банків та їх клієнтів в глобальному масштабі.
Найпотужніший GPT-4, який навчився брехати керівництву, коли навчився торгувати на біржі, може стати інструментом допомоги людям у створенні біологічної зброї. Хоча ризик є невеликим, відкриття є відправною точкою для продовження досліджень і професійного обговорення проблеми. Такі результати досліджень були виявлені провідними спеціалістами OpenAI.
Перші тести, які компанія провела для розуміння та запобігання можливій "катастрофічній" шкоді від своєї технології, показують, що GPT-4 може представляти "щонайбільше" невеликий ризик у створенні біологічних загроз. Зокрема, в статті зазначається, що програма може полегшити завдання зловмисникам у розробці біологічної зброї, використовуючи чатботи для пошуку інформації про планування атак.
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.