"Можлива втрата контролю над цивілізацією". Ілон Маск та тисяча науковців просять призупинити роботу над ШІ

Читать на русском

Штучний інтелект може стати загрозою цивілізації, тому потрібно обережно підходити до його навчання

Читать на русском
Штучний інтелект
Бояться повстання машин?

Штучний інтелект може стати загрозою цивілізації, тому потрібно обережно підходити до його навчання

Понад тисяча науковців на чолі з мультимільярдером Ілоном Маском та співзасновником Apple Стівом Возняком підписали відкритого листа у якому закликають припинити розробку просунутого штучного інтелекту. Йдеться в першу чергу про системи, потужніші від GPT-4. На думку науковців, штучний інтелект може становити для людства екзистенційну загрозу й потрібно обережно підходити до його розробки та вивчення.

Листа опублікували на сайті Інституту майбутнього життя (Future of Life Institute). Автори закликали негайно призупинити навчання потужних систем штучного інтелекту. Експерти переконані, що не можна проводити подальше навчання систем, доки не з’являться загальні протоколи безпеки. На їхню думку, якщо це не зроблять розробники, влада повинна накласти мораторій законодавчим рішенням.

У чому причина

Автори листа вважають, що зараз людство, у тому числі й розробники, не можуть контролювати штучний інтелект. Водночас сучасні системи штучного інтелекту вже починають конкурувати з людиною.

«… і ми повинні запитати себе: чи маємо ми дозволити машинам заповнювати наші інформаційні канали пропагандою та неправдою? Чи слід автоматизувати всі роботи, включно з тими, які виконують завдання? Чи повинні ми розвивати нелюдські уми, які із часом можуть перевершити, перехитрити, зробити нас застарілими та замінити нас? Чи варто ризикувати втратою контролю над нашою цивілізацією? Такі рішення не можна делегувати невибраним технічним керівникам. Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими» — йдеться в листі.

Підписанти не вважають, що потрібно взагалі відмовитися від розробки ШІ. Йдеться лише про паузу для вивчення та аналізу ситуації.

У чому небезпека ШІ

Штучний інтелект — це не добре й не погано. Це як скальпель: можна зробити операцію на серці, а можна вбити. Але технологія розвивається вражаючими темпами й людство не встигає адаптуватися, вивчити всі можливі небезпеки та запобігти негативним наслідкам. ШІ може бути небезпечним із багатьох причин:

  • Може замінити людей. Штучний інтелект може виконувати обчислення та аналізувати дані значно швидше, ніж людина. Він вчиться миттєво, тому незабаром може скластися ситуація, коли сотні мільйонів людей виявляться непотрібними на ринку праці. А ще сотні мільйонів будуть потрібні лише для того, щоб стирати з комп’ютерів пилюку.
  • Недостатньо вивчений. Якщо система штучного інтелекту не допрацьована чи не протестована на всі можливі сценарії, це може привести до помилок та неправильних висновків.
  • Не вміє реагувати на непередбачувані випадки. Штучний інтелект може використовуватися для розв’язання дуже складних задач, наприклад, в області медицини чи як автопілот транспортних засобів. Але система не може передбачити, наприклад, що від вантажівки, на зустрічній смузі руху відвалиться колесо й покотиться прямо на вас. Подібні випадки можуть призвести до небезпеки для життя та здоров’я людей.
  • Може бути використаний для зловживання. Штучний інтелект може бути використаний для злочинів, наприклад, для збирання конфіденційної інформації або для здійснення кібератак.
  • Тотальний контроль. Уявіть, що авторитарний режим отримав доступ до технології, яка вміє визначати за тим, що Ви переглядаєте в інтернеті, ваше ставлення до влади. Та ще і пропонує силовикам, варіанти того, як найкраще Вас зламати.

Водночас подібні страхи завжди виникали, коли з’являлася якась нова технологія. Історія свідчить, що після винайдення, наприклад, комбайну, селяни не залишилися без роботи.

Ми писали про те, що Мінцифри планує додати ChatGPT у Дію. А ще ми розповідали, що Microsoft планує вбудувати ШІ у свої офісні програми.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.