UA

Российские хакеры активно используют западные ИИ - Microsoft

Читати українською

Microsoft и OpenAI заявляют о необходимости сотрудничества между правительствами, частным сектором и научными учреждениями для разработки эффективных стратегий защиты

Читати українською
хакеры, chat gpt
Берт: Компания не желает предоставлять доступ к своим технологиям тем, кто уже идентифицирован как потенциальная угроза

Microsoft и OpenAI заявляют о необходимости сотрудничества между правительствами, частным сектором и научными учреждениями для разработки эффективных стратегий защиты

Российские, китайские, иранские и другие хакерские группы с государственной поддержкой активизировали использование инструментов искусственного интеллекта от OpenAI Они делают это для улучшения своих навыков обмана и кибершпионажа. По информации Microsoft, эти группы применяют новые технологии для создания убедительных фишинговых атак и исследования военных технологий, которые могут применяться в войне в Украине.

Об этом информирует Reuters. В издании пишут, что использование искусственного интеллекта усиливает беспокойство о возможности злоупотреблений и подчеркивает необходимость регулирования этих технологий.

Это стало причиной полного запрета на использование продуктов искусственного интеллекта Microsoft, поддерживаемых государственными хакерскими группировками.

По словам Тома Берта, вице-президента Microsoft по безопасности клиентов, компания не желает предоставлять доступ к своим технологиям тем, кто уже идентифицирован как потенциальная угроза. Использование инструментов искусственного интеллекта хакерами для расширения их возможностей является свидетельством того, как быстро эти технологии развиваются и как важно принимать меры по предотвращению их злоупотребления.

Хакерские группы различным образом используют эти технологии: от исследования военных технологий российскими хакерами до создания фишинговых кампаний иранскими группами и написания убедительных электронных писем для мошеннических атак. В то же время, Microsoft и OpenAI заявляют о необходимости сотрудничества между правительствами, частным сектором и научными учреждениями для разработки эффективных стратегий защиты от потенциальных злоупотреблений искусственным интеллектом и обеспечения безопасности в цифровом мире.

Инновации OpenAI 

Корпорация OpenAI представила обновленную версию чат-бота на основе генеративного искусственного интеллекта ChatGPT. Теперь приложение может запоминать информацию от пользователей для использования в будущих диалогах. В компании считают, что новшество создаст более персонализированные ответы и предложения.

Об этом пишет The New York Times. К примеру, пользователь упоминает о своей дочери Лине с особыми предпочтениями, ChatGPT сможет в будущем учитывать эту информацию. Он сможет создать открытку ко дню ее рождения с учетом упомянутых данных.

ChatGPT преобразуется в еще более эффективного цифрового ассистента. Тем самым он может конкурировать с Siri от Apple или Alexa от Amazon. OpenAI уже ввела возможность для пользователей настраивать инструкции и предпочтения, что позволяет чат-боту учитывать индивидуальные особенности в диалоге.

Несмотря на возможность помнить информацию, ChatGPT, как и любая искусственная система, не застрахован от ошибок. Однако это делает его еще более "человечным" в глазах пользователей. Например, в создании открытки могут появиться незначительные ошибки, подчеркивающие уникальность и индивидуальный подход чат-бота к каждому запросу.

В издании также пишут, что увеличение собранных данных о пользователях растет. В случае утечки информации она может навредить или быть использована против человека.

Как сделать так, чтобы украинцы охотно шли защищать нашу страну? Украинский политолог рассматривает возможные действия и дает ответы на этот важный вопрос. С мотивацией и боевым духом граждан дело не такое простое, как в 2022 году.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите на нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.

ЧИТАЙТЕ ТАКЖЕ:

Мы используем файлы cookie, чтобы обеспечить должную работу сайта, а контент и реклама отвечали Вашим интересам.