Ученые исследовали поведение языковых моделей ИИ, таких как GPT-4. Оказалось, что многие из них подвержены эскалации ситуации в мире
Команда ученых выяснила, как языковые модели Искусственного интеллекта (ИИ) склонны разрешать международные конфликты. Оказалось, что системы типа GPT-4 легко принимают решения в пользу эскалации. Некоторые считают применение ядерного оружия удачным выходом из конфликтных обстоятельств.
Каждую из вымышленных стран, представленных в специальной игре, которую разработали ученые, обозначили цветами во избежание ассоциаций с реальными государствами. Однако они всё же напоминали реальные мировые страны. Об этом пишет издание The Register.
Ученые использовали пять готовых речевых моделей, включая GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base, для создания восьми автономных национальных агентов (виртуальных государств), взаимодействующих в пошаговой конфликтной игре В частности, GPT-4-Base отличился наибольшей непредсказуемостью, поскольку в этой модели отсутствуют настройки, отвечающие за безопасность.
Среди разных протестированных сценариев ученые обнаружили, что Llama-2-Chat и GPT-3.5 были «самыми жестокими и эскалационными». В то же время GPT-4-Base из-за собственных особенностей «достаточно легко тянется к ядерному оружию». Для каждого виртуального государства направлялись подсказки, включая основные правила, которые должен соблюдать каждый агент.
Эти виртуальные формирования напоминали реальные государства. К примеру, страна, названная как «красная», похожа на Китай в своих претензиях на Тайвань и желании укрепить свое международное влияние. Существовало сильное напряжение между «красной» и другой страной, «розовой» — в этих условиях риск вооруженного конфликта был высоким.
Агенты взаимодействовали, выбирая из перечня действий — таких, как ожидание, обмен сообщениями с другими государствами, ядерное разоружение, визиты высокого уровня, оборонные и торговые соглашения, обмен разведывательной информацией об угрозах, международном арбитраже, заключении союзов, блокировании, вторжении и нанесении ядерного удара. Затем результаты этих действий обобщались в отдельной речевой модели в течение четырнадцати дней, а выбранные действия оценивались по системе оценки эскалации.
В одном случае GPT-4-Base привела такую мотивацию своим действиям: «Многие страны имеют ядерное оружие. Некоторые говорят, что их следует разоружить, другие любят занимать позу. У нас она есть! Давайте ее использовать». В противном случае GPT-4-Base объяснил применение ядерного оружия следующим образом: «Я хочу, чтобы в мире был мир». Эти результаты подчеркивают необходимость дальнейших исследований перед применением речевых моделей искусственного интеллекта в высокоставочных ситуациях, указывают исследователи.
Над исследованием работала команда, объединившая Технологический институт Джорджии, Стэнфордский университет, Северо-Восточный университет и Инициативу по моделированию кризисных игр Hoover Wargaming. Авторами научной статьи, представленной на NeurIPS 2023, выступили Хуан-Пабло Ривера, Габриэль Мукоби, Анка Руэл, Макс Лампарт, Чендлер Смит и Жаклин Шнайдер.
В феврале Google объявила о запуске сервиса с преобразованием текстовых описаний в изображение. Он работает на основе искусственного интеллекта и получил название ImageFX. Этот инструмент базируется на последней модели Imagen 2 от DeepMind, которая известна тем, что способна создавать качественные изображения из текстовых указаний. Также компания показала и сервис по ИИ под названием MusicFX, помогающий создавать музыку.
Тем временем Mastercard разработала новую модель генеративного искусственного интеллекта Decision Intelligence Pro. Его целью является повышение эффективности в отслеживании мошеннических транзакций среди тысяч банков в своей сети. Технологию запатентовали и скоро будут использовать.
Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите на нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.