GPT-4 несе ризик створення біологічної зброї через потужний штучний інтелект
Найпотужніший штучний інтелект, GPT-4, який навчився брехати керівництву, коли навчився торгувати на біржі, може стати інструментом допомоги людям у створенні біологічної зброї. Хоча ризик є невеликим, відкриття є відправною точкою для продовження досліджень і професійного обговорення проблеми. Такі результати досліджень були виявлені провідними спеціалістами OpenAI.
Як повідомляє Bloomberg, перші тести, які компанія провела для розуміння та запобігання можливій "катастрофічній" шкоді від своєї технології, показують, що GPT-4 може представляти "щонайбільше" невеликий ризик у створенні біологічних загроз. Зокрема, в статті зазначається, що програма може полегшити завдання зловмисникам у розробці біологічної зброї, використовуючи чатботи для пошуку інформації про планування атак.
Відзначається, що протягом останніх місяців політики та експерти висловлювали обурення стосовно можливості використання ШІ для цієї мети. OpenAI реагує на ці збурення, створюючи команду, яка спрямована на мінімізацію ризиків від ШІ. За результатами першого дослідження залучено 50 експертів з біології та 50 студентів для вивчення можливостей створення біологічних загроз з використанням GPT-4.
Порівнюючи групи, які використовували мовну модель GPT-4 та тільки інтернет, дослідники виявили певне підвищення точності та повноти для першої групи. Вони прийшли до висновку, що доступ до GPT-4 забезпечує помірне підвищення ймовірності отримання інформації для створення біологічної загрози.
Bloomberg підкреслює, що це лише одне з численних досліджень, проведених OpenAI, з метою розуміння можливого зловживання GPT-4. Інші напрямки включають вивчення потенціалу для створення кіберзагроз та як інструменту впливу на людей для зміни їхніх переконань.
ChatGPT (саме користувачі цього сервісу можуть користуватися GPT-4), чия інформація була актуальна лише до початку 2021 року, не повірив у ймовірність наступу рф до 2022 року та назвав Україну "добре підготовленою" до військового конфлікту. Варто зазначити, що ChatGPT намагається максимально обходити слово "війна", замінюючи його на нейтральний "конфлікт".
ChatGPT назвав "політичні, економічні та геостратегічні інтереси росії в регіоні, а також внутрішні політичні обставини в країні". Окрім того, у використанні військової агресії він побачив "засіб збільшення популярності у виборчих кампаніях". Що стосується "захоплення Києва за три дні" ШІ назвав це "вкрай складним та ризикованим процесом".
Нагадаємо, що штучний інтелект навчили передбачати час смерті людини: прогнози справджуються у 75% випадків. Фактори, які означають більш ранню смерть: чоловіча стать, психічні розлади, робота висококваліфікованим спеціалістом.
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.