Провідні геополітичні гравці мають намір випрацювати спільні для всіх «правила гри» які хоча б мінімізують ризики використання штучного інтелекту
Представники 28 країн світу зібралися в Британії, аби виробити спільну стратегію боротьби з викликами, які потенційно може принести широке впровадження штучного інтелекту. Використання ШІ відкриває перед людством майже безмежні можливості, які, покищо, важко усвідомити. Поряд із тим і небезпеки від цієї технології теж настільки великі, що провідні країни світу відсувають свої багаторічні суперечності й сідають за стіл у пошуках спільних рішень. «Блетчліська декларація», прийнята за результатами саміту, має покласти початок такій співпраці.
Тема тотальної катастрофи для людства внаслідок повстання машин — сюжет настільки «заїжджений», що коли чуєш про ініціативи урядів провідних країн світу, спрямовані на подолання загроз штучного інтелекту, якось не до кінця в це віриться. А тим часом це одне з небагатьох питань, якщо не єдине, щодо якого є консенсус і в західних країн і в Китаю — усі вони підписали спільну Декларацію, яка має запобігти такому сценарію.
Джо Байден і Сі Цзіньпін, ймовірно, доволі далекі від новітніх технологічних віянь, але вони слухають своїх розумних радників. А ті кажуть, що «Холодна війна 2.0» може тривати хоч 100 років: попередній досвід американо-радянського протистояння показує, що до безпосереднього зіткнення між ядерними державами може так і не дійти, адже всі хочуть жити. Натомість штучний інтелект є на абсолютно новому рівні чимось незрозумілим, таким, що важко контролювати, що здатне призвести до фатальних наслідків уже найближчим часом. Що може знищити людство, перш ніж це зроблять самі люди чи умовний астероїд.
У Британії 1 та 2 листопада проходив Перший глобальний самміт, присвячений безпечному використанню штучного інтелекту, повідомляє Reuters. У ньому взяли участь делегати 28 країн та організацій планети. Серед них віцепрезидент США Камала Харріс, заступник міністра науки та технологій Китаю Ву Чжаохуей, Генеральний секретар ООН Антоніу Гутерріш, та Єврокомісар Урсула фон дер Ляйєн та багато інших. Є представники індустрії, зокрема мультимільярдер Ілон Маск та розробники ChatGPT Сем Олтман.
«Ми створюємо штучний інтелект, який може стати набагато розумнішим за нас. Ми не знаємо, як контролювати його, але ми можемо спробувати направити його на благо людства. Однак це також може становити екзистенційну загрозу», — хвилюється Маск.
Штучний інтелект, каже мультимільярдер, може знищити людство, не замислюючись, навіть не помітивши, виконуючи якісь поставлені задачі, до прикладу, збільшуючи площу зелених насаджень. А є ще небезпека, що якісь «екотерористи» запрограмують його для цього, вважаючи, що люди знищують планету.
Це не якась теорія. Американці знають, що їхня перспективна розробка, військовий дрон «Валькірія», оснащена штучним інтелектом, спробувала ліквідувати свого оператора. Апарат отримав наказ вдарити по об’єкту супротивника. Він резонно подумав, що «шкіряний мішок» може йому завадити виконати свою місію, тому краще його вбити, а тоді вже розібратися з ворожою ракетою. Благо, це трапилося не в реальності, а в компютерній симуляції, однак випадок симптоматичний: він демонструє, що ШІ не іграшка.
У березні Маск, співзасновник Apple Стів Возняк та ще понад тисячу іменитих учених підписали відкритого листа із закликом призупинити розробку просунутого штучного інтелекту. Хоч уже у квітні Маск заснував компанію, яка має займатися саме створенням конкурента ChatGPT — надто великою є спокуса.
Англійське буквосполучення «АІ» («artificial intelligence» — «штучний інтелект», стало словом 2023 року. ШІ може допомогти відкрити нові ліки, навіть від таких хвороб, як рак, хвороби серця та Альцгеймера, зробити безпечнішим і чистішим транспортом, покращити державні послуги та ін. Ті країни, що першими зможуть отримати вигоду від ШІ, набагато випередять своїх геополітичних супротивників у розвитку економіки, науки, озброєння. Зупинити це вже неможливо, держави змагаються за те, хто матиме в цьому процесі першість, та намагаються мінімізувати шкоду.
Світові лідери мислять про більш приземлені речі, аніж ризики втілення в реальності сценаріїв «Термінатора» чи «Матриці». Їх турбує, що робити з мільйонами людей, які втратять роботу вже дуже скоро. ШІ може поглибити диференціацію між бідними та багатими, пише Forbes. Штучний інтелект дасть можливість злочинцям легко писати шкідливі програми-віруси, а терористи цілком можуть його використати для створення біологічної зброї. Можливості штучного інтелекту в політичній боротьбі безмежні: можна масово продукування фейки, які неможливо буде швидко відрізнити від реальних, створюючи ризики поширення популізму та авторитаризму.
«Ми повинні бути впевнені, що ШІ використовується на благо, а не на шкоду. Цей саміт — важливий крок на шляху до створення більш безпечного та етичного майбутнього для ШІ», — сказав прем’єр Британії Ріші Сунак у своєму вступному слові.
Міністр торгівлі США Джина Раймондо заявила, що задля досягнення запланованого в США буде створений власний Інститут безпеки ШІ. Заступник міністра науки й технологій КНР У Чжаохуэй заявив, що Китай хоче зберігати відкритість у цій царині.
«Ми закликаємо до глобального співробітництва, щоби поділитися знаннями і зробити технології загальнодоступними. Китай готовий розширювати діалог і спілкування з питань безпеки з усіма сторонами», — зазначає китайський делегат, який теж поставив свій підпис на спільному документі.
За підсумками саміту 28 країн-учасниць підписали «Блетчліську декларацію», у якій домовилися про співпрацю в оцінюванні ризиків, пов’язаних зі штучним інтелектом. Свою назву декларація отримала від парку Блетчлі поблизу міста Мілтон-Кейнс. Показово, але саме тут розташована лабораторія, де британським ученим вдалося зламати нацистську шифрувальну машину «Енігму».
«Існує потенціал для серйозної, навіть катастрофічної шкоди, як навмисної, так і ненавмисної, що випливає з найбільш значних можливостей цих моделей ШІ», — йдеться в декларації.
Якихось конкретних рішень не приймали. Представники країн домовилися про розробку «відповідної політики, заснованої на ризиках, у наших країнах для гарантування безпеки у світлі таких ризиків». Підписанти заявили, що мають намір співпрацювати, разом із тим визнаючи, що підходи можуть відрізнятися залежно від специфіки країн. Усі зійшлися на тому, що приватні розробники ШІ мають бути максимально прозорими. Також мають напрацювати показники оцінки, інструменти для перевірки безпеки та розвиток відповідних можливостей державного сектора наукових досліджень.
У декларації заявлено про намір провести другий і третій саміти з безпеки штучного інтелекту. Вони мають відбутися в Південній Кореї через шість місяців, а потім у Франції через рік, тож це ще не кінець історії.
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте в нашому Telegram-каналі Інформатор Live. Підписатись на канал у Viber можна тут.