Штучний інтелект може стати загрозою цивілізації, тому потрібно обережно підходити до його навчання
Понад тисяча науковців на чолі з мультимільярдером Ілоном Маском та співзасновником Apple Стівом Возняком підписали відкритого листа у якому закликають припинити розробку просунутого штучного інтелекту. Йдеться в першу чергу про системи, потужніші від GPT-4. На думку науковців, штучний інтелект може становити для людства екзистенційну загрозу й потрібно обережно підходити до його розробки та вивчення.
Листа опублікували на сайті Інституту майбутнього життя (Future of Life Institute). Автори закликали негайно призупинити навчання потужних систем штучного інтелекту. Експерти переконані, що не можна проводити подальше навчання систем, доки не з’являться загальні протоколи безпеки. На їхню думку, якщо це не зроблять розробники, влада повинна накласти мораторій законодавчим рішенням.
Автори листа вважають, що зараз людство, у тому числі й розробники, не можуть контролювати штучний інтелект. Водночас сучасні системи штучного інтелекту вже починають конкурувати з людиною.
«… і ми повинні запитати себе: чи маємо ми дозволити машинам заповнювати наші інформаційні канали пропагандою та неправдою? Чи слід автоматизувати всі роботи, включно з тими, які виконують завдання? Чи повинні ми розвивати нелюдські уми, які із часом можуть перевершити, перехитрити, зробити нас застарілими та замінити нас? Чи варто ризикувати втратою контролю над нашою цивілізацією? Такі рішення не можна делегувати невибраним технічним керівникам. Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими» — йдеться в листі.
Підписанти не вважають, що потрібно взагалі відмовитися від розробки ШІ. Йдеться лише про паузу для вивчення та аналізу ситуації.
Штучний інтелект — це не добре й не погано. Це як скальпель: можна зробити операцію на серці, а можна вбити. Але технологія розвивається вражаючими темпами й людство не встигає адаптуватися, вивчити всі можливі небезпеки та запобігти негативним наслідкам. ШІ може бути небезпечним із багатьох причин:
Водночас подібні страхи завжди виникали, коли з’являлася якась нова технологія. Історія свідчить, що після винайдення, наприклад, комбайну, селяни не залишилися без роботи.
Ми писали про те, що Мінцифри планує додати ChatGPT у Дію. А ще ми розповідали, що Microsoft планує вбудувати ШІ у свої офісні програми.
Підписуйтесь на наш Telegram-канал, щоб не пропустити важливих новин. За новинами в режимі онлайн прямо в месенджері слідкуйте на нашому Telegram-каналі Інформатор Live. Підписатися на канал у Viber можна тут.