Совместный фронт Маска, Байдена и Цзиньпина: представители 28 стран собрались, чтобы обуздать ИИ

Ведущие геополитические игроки намерены выработать общие для всех «правила игры», которые минимизируют риски использования искусственного интеллекта

Искусственный интеллект
Человечество создало технологию, которую до конца не понимает и не контролирует

Представители 28 стран мира собрались в Британии, чтобы выработать общую стратегию борьбы с вызовами, которые потенциально могут принести широкое внедрение искусственного интеллекта. Использование ИИ открывает человечеству почти безграничные возможности, которые пока что трудно осознать. Вместе с тем и опасности от этой технологии тоже настолько велики, что ведущие страны мира отодвигают свои многолетние противоречия и садятся за стол в поисках совместных решений. «Блетчлисская декларация», принятая по результатам саммита, должна положить начало такому сотрудничеству.

Глобальная инициатива против рисков ИИ

Тема тотальной катастрофы для человечества в результате восстания машин — сюжет настолько «заезженный», что когда слышишь об инициативах правительств ведущих стран мира, направленных на преодоление угроз искусственного интеллекта, то не до конца в это верится. А между тем это один из немногих вопросов, если не единственный, относительно которого есть консенсус и у западных стран и у Китая — все они подписали совместную Декларацию, которая должна предотвратить такой сценарий.

Джо Байден и Си Цзиньпин, вероятно, достаточно далеки от новейших технологических веяний, но они слушают своих умных советников. А те говорят, что « Холодная война 2.0 может продолжаться хоть 100 лет: предыдущий опыт американо-советского противостояния показывает, что до непосредственного столкновения между ядерными государствами может так и не дойти, ведь все хотят жить. Зато искусственный интеллект является на совершенно новом уровне чем-то непонятным, что трудно контролировать, что способно привести к фатальным последствиям уже в ближайшее время . Что может уничтожить человечество, прежде чем это сделают люди или условный астероид.

Почему все так волнуются

В Британии 1 и 2 ноября проходил Первый глобальный саммит, посвященный безопасному использованию искусственного интеллекта, сообщает Reuters. В нем приняли участие делегаты 28 стран и планеты. Среди них вице-президент США Камала Харрис, заместитель министра науки и технологий Китая Ву Чжаохуэй, Генеральный секретарь ООН Антониу Гутерриш и Еврокомиссар Урсула фон дер Ляйен и многие другие. Есть представители индустрии, в том числе мультимиллиардер Илон Маск и разработчики ChatGPT Сэм Олтман.

«Мы создаем искусственный интеллект, который может стать намного умнее нас. Мы не знаем, как контролировать его, но мы можем попытаться направить его во благо человечества . Однако это также может составить экзистенциальную угрозу», – волнуется Маск.

Искусственный интеллект, говорит мультимиллиардер, может уничтожить человечество, не задумываясь, даже не заметив, выполняя какие-то поставленные задачи, например, увеличивая площадь зеленых насаждений. Есть еще опасность, что какие-то «экотеррористы» запрограммируют его для этого, считая, что люди уничтожают планету.

Это не какая-нибудь теория. Американцы знают, что перспективная разработка, военный дрон «Валькирия», оснащенная искусственным интеллектом, попыталась ликвидировать оператора. Аппарат получил приказ ударить по объекту противника. Он резонно подумал, что кожаный мешок может ему помешать выполнить свою миссию, поэтому лучше его убить, а потом уже разобраться с вражеской ракетой. Благо это случилось не в реальности, а в компьютерной симуляции, однако случай симптоматичен: он демонстрирует, что ИИ не игрушка.

Коренное изменение реальности

В марте Маск, соучредитель Apple Стив Возняк и более тысячи именитых ученых подписали открытое письмо с призывом приостановить разработку продвинутого искусственного интеллекта. Хотя уже в апреле Маск основал компанию, которая должна заниматься именно созданием конкурента ChatGPT — слишком велик соблазн.

Илон Маск говорит, что ИИ может уничтожить человечество!

Английское буквосочетание «АИ» («artificial intelligence» — «искусственный интеллект», стало словом 2023 года . ИИ может помочь открыть новые лекарства, даже от таких болезней, как рак, болезни сердца и Альцгеймера, сделать более безопасным и более чистым транспорт, улучшить государственные услуги и др. Те страны, которые первыми смогут извлечь выгоду от ИИ, намного опередят своих геополитических противников в развитии экономики, науки, вооружение. Остановить это уже невозможно, государства соревнуются за то, кто будет иметь в этом процессе первенство, и пытаются минимизировать вред.

Мировые лидеры мыслят о более приземленных вещах, чем риски воплощения в реальности сценариев Терминатора или Матрицы. Их беспокоит, что делать с миллионами людей, которые потеряют работу очень скоро. ИИ может углубить дифференциацию между бедными и богатыми, пишет Forbes. Искусственный интеллект позволит преступникам легко писать вредоносные программы-вирусы, а террористы вполне могут его использовать для создания биологического оружия. Возможности искусственного интеллекта в политической борьбе безграничны: можно массово продуцировать фейки, которые невозможно будет быстро отличить от реальности, создавая риски распространения популизма и авторитаризма.

«Мы должны быть уверены, что ИИ используется во благо, а не во вред. Этот саммит — важный шаг на пути к созданию более безопасного и нравственного будущего для ИИ», — сказал премьер Британии Риши Сунак в своем вступительном слове.

Министр торговли США Джина Раймондо заявила, что для достижения планируемого в США будет создан собственный Институт безопасности ИИ. Заместитель министра науки и технологий КНР У Чжаохуэй заявил, что Китай хочет сохранять открытость в этой области.

"Мы призываем к глобальному сотрудничеству, чтобы поделиться знаниями и сделать технологии общедоступными. Китай готов расширять диалог и общение по безопасности со всеми сторонами», — отмечает китайский делегат, который тоже поставил свою подпись на совместном документе.

«Блетчлесская декларация»

По итогам саммита 28 стран-участниц подписали « Блетчлисскую декларацию », в которой договорились о сотрудничестве в оценке рисков, связанных с искусственным интеллектом. Свое название декларация получила от парка Блетчли вблизи города Милтон-Кейнс. Показательно, но именно здесь находится лаборатория, где британским ученым удалось взломать нацистскую шифровальную машину «Энигма» .

«Существует потенциал для серьезного, даже катастрофического ущерба, как умышленного, так и непреднамеренного, вытекающего из наиболее значительных возможностей этих моделей ИИ», — говорится в декларации.

Каких-либо конкретных решений не принимали. Представители стран договорились о разработке соответствующей политики , основанной на рисках, в наших странах для обеспечения безопасности в свете таких рисков. Подписавшиеся заявили, что намерены сотрудничать, вместе с тем признавая, что подходы могут отличаться в зависимости от специфики стран . Все сошлись на том, что частные разработчики ИИ должны быть максимально прозрачными. Также должны выработать показатели оценки, инструменты для проверки безопасности и развития соответствующих возможностей государственного сектора научных исследований.

В декларации заявлено о намерении провести второй и третий саммиты по безопасности искусственного интеллекта. Они должны состояться в Южной Корее через шесть месяцев, а затем во Франции через год, так что это еще не конец истории.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите в нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь.

ЧИТАЙТЕ ТАКЖЕ:

Главная Актуально Informator.ua Україна на часі Youtube