Почему искусственный интеллект не панацея для модераторов Facebook

Почему искусственный интеллект не панацея для модераторов Facebook
В последнее время многие компании говорят об искусственном интеллекте и о том, как его можно использовать в социальных сетях для модерации контента. Но мировые эксперты относятся скептически к этому и утверждают - настолько сложной технологии нет и вряд ли она появится в обозримом будущем.  Большинство социальных сетей хранят нежелательный контент на своих платформах, используя комбинацию автоматической фильтрации и модераторов. Об этом сообщает Информатор Tech, ссылаясь на The Verge. Недавние исследования показали, что модераторы часто работают в очень стрессовых условиях. Они должны ежедневно просматривать сотни элементов подозрительного контента - от убийства до сексуального насилия - и затем решать, нарушает ли он правила платформы, часто работая по строгому графику и без надлежащего обучения или поддержки. Со временем у модераторов может появиться такая проблема, как предвзятость, поэтому в Facebook так часто утверждают, что внедрение ИИ - это решение всех проблем с нежелательным контентом на платформе. В прошлом году во время выступления перед конгрессом США Марк Цукерберг более 30 раз упомянул о необходимости внедрения ИИ как решение большинства проблем социальных сетей. The Washington Post тогда написали: «Это не решит проблемы Facebook, но решит проблему Цукерберга: заставить кого-то взять на себя ответственность». Насколько важную роль играет ИИ для Facebook и других платформ, и почему сейчас его возможности так ограничены?  

Проблемы работы алгоритмов в распознавании контекста в материалах

В настоящее время алгоритмы, использующие ИИ и машинное обучение, безусловно, помогают модерации. Они действуют как системы сортировки, например, передавая подозрительный контент модераторам, и могут отсеивать нежелательный материал самостоятельно.  Делается это с помощью визуального распознавания (например, обнаженное тело или оружие). Такой способ часто приводит к тому,  что разрешенный контент блокируется. Второй способ - сопоставление контента с индексом запрещенных элементов, что, в первую очередь, требует от людей создания указанного индекса. Последний подход используется, чтобы избавиться от очевидно запрещенного материала, нарушающего права: пропагандистские видеоролики от террористических организаций, материалы о насилии над детьми и материалы, защищенные авторским правом. В каждом случае контент превращается в уникальную строку чисел, которая быстрее обрабатывается. Технология, в целом, надежна, но все же может привести к проблемам. Например, система YouTube Content ID помечает белый шум и пение птиц в роликах, как нарушение авторских прав. Системы искусственного интеллекта обучаются анализировать новые виды изображений, например мемы Системы искусственного интеллекта обучаются анализировать новые виды изображений, например мемы Все становится намного сложнее, когда контент не может быть легко классифицирован даже людьми. Это может включать в себя контент, который алгоритмы, безусловно, распознают, но он имеет много значений (например, нагота - учитывается ли грудное вскармливание?) или зависит от контекста, например, домогательства, фальшивые новости, дезинформация и так далее. Ни у одной из этих категорий нет простых определений, и для каждой из них есть случаи без объективного статуса, в которых чей-то опыт или просто настроение в тот или иной день могут иметь значение между одним определением и другим. По словам Робин Каплана, исследователя из некоммерческой организации «Data & Society», проблема с попыткой заставить машины понять этот тип контента заключается в том, что он, по сути, просит их понять человеческую культуру - явление, слишком гибкое и тонкое, чтобы его можно было описать простыми алгоритмами и вычислительными процессами.  

Как далеко мы сможем продвинуть ИИ в нашей жизни

ИИ, как система, очень стремительно развивается. Но смогут ли алгоритмы надежно классифицировать тот или иной вид контента в будущем? Ученые Голдман и Каплан настроены скептически. По словам Голдмана, ИИ станет лучше понимать контекст, но не факт, что он скоро сможет сделать это лучше, чем человек. «ИИ не заменит рецензентов-людей в обозримом будущем», - говорит он. Каплан соглашается и указывает, что, пока люди спорят о том, как классифицировать разные типы материалов, какие шансы есть у машин? «Нет простого решения», - говорит она. «Мы будем продолжать наблюдать за проблемами». Безусловно, технология еще слишком сырая, чтобы классифицировать контент в любом контексте и ситуации, потому как наш мозг устроен гораздо сложнее любого ИИ, который постоянно учиться. Пока что стоит воспринимать эту технологию как помощь модераторам, а не их замену. Но учитывая быстрые темпы развития данной сферы, возможно, что уже через 5-10 лет все будет делать ИИ и различные алгоритмы машинного обучения, по крайней мере с классификацией контента в социальных сетях. Тем временем, ООН рассказала о лидерах в сфере ИИ и о самой популярной области в этой сфере. Напомним, что искусственный интеллект от Google продемонстрировал впечатляющие возможности.

Даниил Подгаецкий

Главная Актуально Україна на часі Youtube
Информатор в
телефоне 👉
Скачать