Исследование: искусственный интеллект ChatGPT может создавать биологическое оружие

GPT-4 несет риск создания биологического оружия из-за мощного искусственного интеллекта

GPT-4 оказался в центре исследований OpenAI
OpenAI изучает возможность злоупотребления GPT-4 в биологических угрозах

Самый мощный искусственный интеллект, GPT-4, который научился лгать руководству, когда научился торговать на бирже, может стать инструментом помощи людям в создании биологического оружия Хотя риск невелик, открытие является отправной точкой для продолжения исследований и профессионального обсуждения проблемы. Такие результаты исследований были обнаружены ведущими специалистами OpenAI.

Как сообщает Bloomberg, первые тесты, которые компания провела для понимания и предотвращения возможного «катастрофического» ущерба от своей технологии, показывают, что GPT-4 может представлять «как максимум» небольшой риск в создании биологических угроз. В частности, в статье отмечается, что программа может облегчить задачу злоумышленникам по разработке биологического оружия, используя чат-боты для поиска информации о планировании атак.

Отмечается, что в последние месяцы политики и эксперты выражали возмущение относительно возможности использования ИИ для этой цели. OpenAI реагирует на эти возмущения, создавая команду, направленную на минимизацию рисков от ИИ. По результатам первого исследования привлечены 50 экспертов по биологии и 50 студентов для изучения возможностей создания биологических угроз с использованием GPT-4.

Сравнивая группы, которые использовали языковую модель GPT-4 и только интернет, исследователи обнаружили определенное повышение точности и полноты первой группы. Они сделали вывод, что доступ к GPT-4 обеспечивает умеренное повышение вероятности получения информации для создания биологической угрозы.

Bloomberg подчеркивает, что это лишь одно из многочисленных исследований, проведенных OpenAI с целью понимания возможного злоупотребления GPT-4. Другие направления включают изучение потенциала для создания киберугроз и инструмента влияния на людей для изменения их убеждений.

Что ChatGPT говорит о войне

ChatGPT (именно пользователи этого сервиса могут пользоваться GPT-4), чья информация была актуальна только к началу 2021 года, не поверил в вероятность наступления россии к 2022 году и назвал Украину «хорошо подготовленной» к военному конфликту. Следует отметить, что ChatGPT пытается максимально обходить слово «война», заменяя его на нейтральный «конфликт».

ChatGPT назвал «политические, экономические и геостратегические интересы россии в регионе, а также внутренние политические обстоятельства в стране». Кроме того, в использовании военной агрессии он увидел «средство увеличения популярности в избирательных кампаниях». Что касается «захвата Киева за три дня», ИИ назвал это «крайне сложным и рискованным процессом».

Напомним, что искусственный интеллект научили предсказывать время смерти человека: прогнозы сбываются в 75 % случаев. Факторы, означающие более раннюю смерть: мужской пол, психические расстройства, работа высококвалифицированным специалистом.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите на нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.

ЧИТАЙТЕ ТАКЖЕ:

Главная Актуально Informator.ua Україна на часі Youtube