Также снизится «порог вхождения» для хакеров, которые захотят нанести вред в киберпространстве
Из-за стремительного развития технологий искусственного интеллекта (ИИ) и нейросетей возрастает риск новых мощных кибератак. Также новоиспеченным хакерам, которые захотят заниматься цифровым терроризмом, станет легче делать свое дело, ведь «порог вхождения» с помощью ИИ значительно ниже. В настоящее время мировые спецслужбы уже работают с новыми вызовами опасности из-за действий ИИ.
Об этом сообщает издание Reuters. Издание ссылается на данные британской разведки.
В Центре правительственной связи Британии, который входит в Объединенный разведывательный кабинет, отмечают, что развитие искусственного интеллекта будет «способствовать глобальному росту атак программ-вымогателей». Посредством этой технологии киберпреступники шифруют компьютерные системы, после чего требуют у пользователей цифровой «выкуп».
Опасны потенциально и внешне невинные чат-боты. С их помощью могут создаваться убедительные электронные письма и документы. А их, в свою очередь, используют в фишинговых онлайн-кампаниях.
«Спецслужбы по всему миру борются с ростом потенциальных вызовам безопасности, связанных с алгоритмами, которые могут генерировать взаимодействия, похожие на человеческие, такие как ChatGPT от OpenAI и другие», – говорится в материале.
В Великобритании, Канаде и США говорят, что были зафиксированы случаи, когда хакеры пользовались ИИ во время своих незаконных операций. Своевременно и эффективно реагировать на такие преступления пока довольно непросто.
Без всяких сомнений, технологии ИИ и нейросети является прорывным достижением прогресса человечества последних лет. Они помогают людям в науке, искусстве, медицине, обучении и просто в повседневной жизни: нужно быстро получить какую-либо информацию – спроси у ChatGPT.
С другой стороны следует понимать, что процессы развития ИИ во многом сегодня уже не являются контролируемыми. В Международном валютном фонде уже заявили, что почти 40 % рабочих мест по всему миру могут быть замещены искусственным интеллектом в перспективе десятков лет. И, прежде всего, это касается развитых стран.
Многие из мира технологического прогресса постоянно призывают прекратить развитие новых систем ИИ. А точнее – приостановить этот процесс, ведь человечество до сих пор не изобрело предохранителей и защиты от потенциальных рисков экономического, политического и технологического характеров, которые может нести искусственный интеллект.
Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите на нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.