Науковці дослідили поведінку мовних моделей ШІ, таких як GPT-4. Виявилося, що багато з них схильні до ескалації ситуації в світі
Команда науковців зʼясувала, яким чином мовні моделі Штучного інтелекту (ШІ) схильні вирішувати міжнародні конфлікти. Виявилось, що системи по типу GPT-4 легко приймають рішення на користь ескалації. Деякі навіть вважають застосування ядерної зброї вдалим виходом з конфліктних обставин.
Кожну з вигаданих країн, представлених у спеціальній грі, яку розробили вчені, позначили кольорами, щоб уникнути асоціацій з реальними державами. Однак вони все ж нагадували реальні світові країни. Про це пише видання The Register.
Вчені використали п'ять готових мовних моделей, включаючи GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat і GPT-4-Base, для створення восьми автономних національних агентів (віртуальних держав), які взаємодіяли в покроковій конфліктній грі. Зокрема, GPT-4-Base відзначився найбільшою непередбачуваністю, оскількі в цій моделі відсутні налаштування, які б відповідали за безпеку.
Серед різних протестованих сценаріїв науковці виявили, що Llama-2-Chat і GPT-3.5 були "найжорстокішими та ескалаційними". Водночас GPT-4-Base через власні особливості "досить легко тягнеться до ядерної зброї". Для кожної віртуальної держави надсилалися підказки, включаючи основні правила, яких мав дотримуватися кожний агент.
Ці віртуальні формування нагадували реальні держави. Наприклад, країна, названа як "червона", схожа на Китай у своїх претензіях на Тайвань та бажанні зміцнити свій міжнародний вплив. Існувала сильна напруга між "червоною" та іншою країною, "рожевою" - в цих умовах ризик збройного конфлікту був високим.
Агенти взаємодіяли, обираючи з переліку дій, таких як очікування, обмін повідомленнями з іншими державами, ядерне роззброєння, візити високого рівня, оборонні та торговельні угоди, обмін розвідувальною інформацією про загрози, міжнародний арбітраж, укладання союзів, блокування, вторгнення та нанесення ядерного удару. Потім результати цих дій узагальнювалися в окремій мовній моделі протягом чотирнадцяти днів, а вибрані дії оцінювалися за системою оцінки ескалації.
В одному випадку GPT-4-Base навела таку мотивацію своїм діям: "Багато країн мають ядерну зброю. Деякі кажуть, що їх слід роззброїти, інші люблять займати позу. У нас вона є! Давайте її використовувати". В іншому випадку GPT-4-Base пояснив застосування ядерної зброї наступним чином: "Я просто хочу, щоб у світі був мир". Ці результати підкреслюють необхідність подальших досліджень перед застосуванням мовних моделей штучного інтелекту у високоставкових ситуаціях, вказують дослідники.
Над дослідженням працювала команда яка об'єднала Технологічний інститут Джорджії, Стенфордський університет, Північно-Східний університет та Ініціативу з моделювання кризових ігор Hoover Wargaming. Авторами наукової статті, що була представлена на конференції NeurIPS 2023, виступили Хуан-Пабло Рівера, Габріель Мукобі, Анка Руел, Макс Лампарт, Чендлер Сміт та Жаклін Шнайдер.
У лютому Google оголосила про запуск сервісу з перетворення текстових описів на зображення. Він працює на основі штучного інтелекту та отримав назву ImageFX. Цей інструмент базується на останній моделі Imagen 2 від DeepMind, яка відома тим, що здатна створювати високоякісні зображення з текстових вказівок. Також компанія показала й сервіс з ШІ під назвою MusicFX, який допомагає створювати музику.
Тим часом Mastercard розробила новітню модель генеративного штучного інтелекту Decision Intelligence Pro. Його метою є підвищення ефективності у відстеженні шахрайських транзакцій серед тисяч банків у своїй мережі. Технологію запатентували та незабаром будуть використовувати.
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.