Применение искусственного интеллекта в повседневной жизни стремительно набирает обороты, но эта тенденция все чаще вызывает беспокойство специалистов. Например, сотрудники Нью-Йоркского университета подготовили доклад с предостережением о рисках использования ИИ. По большей части авторы сосредоточились на этических и социальных вопросах, а также на отсутствии законодательной регуляции. Доклад группы
AI Now говорит мало нового, но в мировой практике все чаще встает вопрос о необходимости ограничить работу искусственного мышления. О чем решили поделиться
Информатор Tech.
ИИ – опасный враг или надежный помощник
О потенциальных угрозах ИИ говорили почти все гении технологического прогресса. Стивен Хокинг в ноябре 2017 года
озвучил главные страхи, сопровождающие размышления о развитии техники. По его мнению, компьютеры рано или поздно научатся воспроизводить сами себя. Биологические существа наверняка проиграют кремниевому разуму, как в умственных способностях, так и в вопросах приспособленности к окружению, в особенности на другой планете. Рано или поздно умные роботы посчитают человека устаревшей формой и пожелают избавиться от него. Это, в каком-то смысле, может напоминать фантастический фильм «Терминатор». Слова Хокинга пока звучат как страшилка, десятки раз обыгранная в кино и книгах, но даже те, кто работает над внедрением умных систем, стали все чаще опасаться будущего с ИИ, хотя есть и такие, кто считает подобные страхи преждевременными. «Бояться развития ИИ сегодня – все равно что беспокоиться о перенаселении Марса», – заявил Эндрю Ын, глава Google Brain. Но успокоил он далеко не всех. Среди крупнейших фобий, связанных с внедрением компьютера во все сферы жизни, можно выделить 3:
- Компьютерный разум станут использовать в качестве инструмента войны, который значительно превзойдет в разрушительной силе даже ядерное оружие.
- ИИ поработит человека.
- Как любое человеческое творение, компьютер подвержен ошибкам.
На всех трех пунктах можно остановиться подробнее.
Ограничение искусственного интеллекта
В августе 2017 года ведущие специалисты в области исследований и внедрения искусственного интеллекта, включая глав таких компаний как SpaceX и Deep Mind, направили в ООН открытое письмо. В тексте они предостерегли мировое сообщество от разработки летального автономного оружия, будь то роботы или другие механизмы, предназначенные для убийства противника. Авторы документа обратили внимание на фатальные последствия применения такого вооружения. При его феноменальной эффективности справедливо задаться вопросом, в чьи руки оно попадет. Ведь воспользоваться им может как узкий круг элиты, так и террористы. Авторы письма призвали контрольную организацию, а вместе с ней и научное сообщество, очертить рамки вредоносного использования ИИ. Стоящая перед человеком ответственность за собственное детище обязывает его провести серьезную работу над предотвращением рисков. Кроме законов, ограничить мощь роботов должны и их создатели, которым предстоит поломать голову над тем, как отключить машины в крайних случаях. Политическое злоупотребление электронными системами уже продемонстрировало себя на примере работы социальных сетей и алгоритмов анализа данных. Весной 2018 года в мире прогремел скандал, связанный с компанией Cambridge Analytica. Ее специалисты провели глубинный анализ данных о пользователях и разместили в Facebook адаптированную индивидуально под каждого человека рекламу. Работники фирмы не только перешли этические рамки, но и применили современные технологии, работу которых было невозможно проанализировать. Эффективность «машинного обучения» – тема не раз возникающая среди ведущих математиков. Они хором признают, что поражены чрезвычайными успехами компьютерных программ, но совершенно не способны понять работу сложной системы. В Мьянме в 2018 году посты в Facebook также стали причиной волнения масс, но в отличие от США, где обошлось протестными акциями, в азиатском государстве произошла резня, жертвами которой стали несколько сотен человек. Манипуляция огромным количеством людей – осуществившаяся реальность, и «роботы» здесь могут сыграть с нами злую шутку. Стоит вспомнить о том же Facebook, где в обращение были запущены чат-боты на базе ИИ. Виртуальных помощников обучали вести диалог с собеседником. Со временем ботов стало не отличить от реальных людей и тогда авторы решили свести роботов друг с другом. Через какое-то время боты стали сокращать лексические структуры и обмениваться абракадаброй. СМИ раздули из новости сенсацию, мол «машины восстали». Но отбросив преувеличения журналистов, справедливо признать, что в случае, когда машины начнут общаться между собой, человек этого может не заметить. И как там они будут жить собственной жизнью – никто не знает.
Функциональность искусственного интеллекта – примеры
Усложняющаяся структура компьютерного разума с каждым днем отдаляет нас от понимания принципов его работы. Но хоть большинство алгоритмов и справляется со своими задачами, даже сегодня сложные машины далеки от идеала и совершают ошибки. Для дальнейшего развития ИИ важно понимать не столько его сильные стороны, сколько уязвимости. Именно на этом сосредоточено большое число научных групп, в одной из которых работает специалист из MIT Аниш Атали. Он
рассказал журналистам о наиболее частых ошибках систем распознавания образов. Его коллеги демонстрировали машине предметы и обнаруживали, что часто отдельные объекты воспринимались электронным зрением неправильно. Компьютер мог назвать бейсбольный мяч чашкой кофе, а распечатанную на 3D-принтере черепашку армейским автоматом. Группа собрала уже около 200 предметов, которые вводят алгоритмы в заблуждение. Искусственный интеллект вместо восприятия объекта целиком, концентрировался на отдельных его параметрах. ИИ, как правило, учится на «идеальной» выборке. Когда он сталкивался с явлениями, не соответствующими нормам, он не всегда может отказаться от привычного процесса обработки. Вместо того чтобы признаться в своей неспособности обработать образ, он продолжает попытки прочитать изображение и это иногда приводит к смешным результатам. Вместо формы черепахи электронный мозг пытался считать его текстуру, похожую на камуфляж. Примерно по той же причине автопилоты автомобилей пока не являются на 100% надежными. Машине трудно увидеть силуэт и предположить, что он состоит из отдельных элементов.
Вывод
Если в ближайшие годы какие-то недочеты удастся поправить, нет никакой гарантии от того, что уязвимостью не воспользуются хакеры. Взломщики электронных устройств на сегодняшний день представляют едва ли не главную причину страхов. Небольшой коллектив программистов способен не только получить доступ к личной информации, но и перенастроить автономные системы, взяв под контроль инструменты колоссальной мощи. И тогда нам всем не поздоровится. Но главный вывод, который можно сделать, пожалуй, традиционный – бояться стоит не машин, а людей. Ранее мы писали, что ИИ от Alibaba сам создает новостные видео, а украинцы считают, что искусственный интеллект победит коррупцию. Также читайте мнение Закари Липтона по поводу ИИ, а самые яркие примеры можно посмотреть здесь. Делитесь своим мнением в нашем
Telegram-канале и на
Facebook.