У четвер та п'ятницю 26-27 грудня на небі сформується напружена конфігурація
"Ця пісня про кохання, складнощі в стосунках, випробування, надію на краще попри всі негаразди та про силу рухатись далі. Глибокі емоції, текст, дещо мрійливий приспів створюють відчуття віри у світле майбутнє, де щастя можливе. P.S. Не переймайтесь, пишу пісні не тільки про історії зі свого життя, а й із життя інших людей, або ж вигадую ситуації. І ця пісня саме такого сюжету".
Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту
Корпорація Mastercard розробила новітню модель генеративного штучного інтелекту Decision Intelligence Pro. Його метою є підвищення ефективності у відстеженні шахрайських транзакцій серед тисяч банків у своїй мережі. Технологію запатентували та незабаром будуть використовувати.
Про це повідомляє CNBC. За інформацією видання, технологію розробили команди корпорації з кібербезпеки.
Відомо, що Decision Intelligence Pro є рекурентна нейронна мережа, що дозволяє аналізувати підозрілі транзакції в режимі реального часу. Вона буде допомагати банкам розрізняти законні операції від шахрайських.
Президент бізнес-підрозділу Mastercard з кібербезпеки та розвідки Аджай Бхалла заявив, що новий алгоритм Mastercard навчається на об'ємній базі даних, що містить інформацію про приблизно 125 млрд транзакцій. Усі вони щорічно проходять через мережу компанії. Завдяки цьому, технологія здатна підвищити точність виявлення шахрайства в середньому на 20%, а в деяких випадках цей показник може зрости до 300%.
Попередньо, за останні п'ять років Mastercard інвестувала понад $7 млрд у розвиток кібербезпеки та штучного інтелекту. Тим самим у компанії заявляють про до захисту фінансових операцій та забезпечення безпеки для банків та їх клієнтів в глобальному масштабі.
Найпотужніший GPT-4, який навчився брехати керівництву, коли навчився торгувати на біржі, може стати інструментом допомоги людям у створенні біологічної зброї. Хоча ризик є невеликим, відкриття є відправною точкою для продовження досліджень і професійного обговорення проблеми. Такі результати досліджень були виявлені провідними спеціалістами OpenAI.
Перші тести, які компанія провела для розуміння та запобігання можливій "катастрофічній" шкоді від своєї технології, показують, що GPT-4 може представляти "щонайбільше" невеликий ризик у створенні біологічних загроз. Зокрема, в статті зазначається, що програма може полегшити завдання зловмисникам у розробці біологічної зброї, використовуючи чатботи для пошуку інформації про планування атак.
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.