У Сполучених Штатах Америки створили Інститут-консорціум із безпеки штучного інтелекту (ШІ), який об'єднав понад 200 провідних технологічних компаній, у тому числі OpenAI, Google, Mastercard та Visa. Цей консорціум утворює найбільшу групу з тестування та оцінки, фокусуючись на створенні основ для "нової науки про вимірювання в галузі безпеки ШІ".
Про це повідомляє Reuters. Видання пише, що міністр торгівлі США Джина Раймондо оголосила про створення Американського інституту з безпеки інтелектуальних систем (AISIC). В нього увійдуть провідні компанії, зокрема OpenAI, Google, Anthropic, Microsoft, Meta Platforms, Apple, Amazon.com, Nvidia, Palantir, Intel, JPMorgan Chase та Bank of America.
Також уряд США визначив важливу роль у встановленні стандартів та розробці необхідних інструментів для пом'якшення ризиків та максимального використання потенціалу штучного інтелекту. До об'єднання також приєдналися такі гіганти, як BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa, а також великі наукові та урядові установи.
Групі доручили роботу над пріоритетними завданнями, зазначеними в указі президента США Джо Байдена, серед яких розробка керівних принципів, оцінка можливостей, управління ризиками, безпека та захист інтелектуальних систем, а також маркування контенту. Такий консорціум є кроком у напрямку створення стандартів інтелектуальної безпеки та забезпечення контролю за розвитком штучного інтелекту.
Указ Байдена щодо ШІ
З0 жовтня 2023 року президент США Джо Байден видав указ з метою зниження ризиків, пов'язаних зі штучним інтелектом. Згідно з цим документом, розробники систем ШІ зобов'язані повідомляти результати випробувань безпеки уряду США перед оприлюдненням.
Указ має вісім основних цілей:
- Створення нових стандартів безпеки та захисту штучного інтелекту.
- Захист конфіденційності даних.
- Підтримка рівності та громадянських прав.
- Захист споживачів, пацієнтів і студентів.
- Підтримка працівників у сфері штучного інтелекту.
- Сприяння інноваціям та конкуренції.
- Продовження лідерства США в галузі технологій штучного інтелекту.
- Забезпечення відповідального та ефективного використання штучного інтелекту урядом.
Також у документі вказується на необхідність встановлення стандартів для такого тестування та розгляду різних ризиків, включаючи хімічні, біологічні, радіологічні, ядерні та кібербезпекові. Реакція на такий наказ була неоднозначною серед промислових та торгових груп.