UA

TikTok начал автоматически удалять видео с насилием и эротикой

Читати українською

Новая система пока работает только в США и Канаде

Читати українською
TikTok начал автоматически удалять видео с насилием и эротикой

Новая система пока работает только в США и Канаде

Социальная сеть TikTok пытается ускорить процесс модерации контента, и собирается ввести автоматизированные системы модерации. Сейчас просмотром контента занимаются живые модераторы вручную.

Об этом сообщает Информатор со ссылкой на TikTok.

Соцсеть TikTok вводит в США и Канаде новую автоматизированную систему модерации, которая будет отсеивать видео с обнаженным телом, сексом, насилием, незаконными действиями и нарушениями политики безопасности соцсети. Если система обнаружит такое видео, то сразу же удалит его, а создателю контента будет предоставлена ​​возможность обратиться к модератору-человеку.

Ранее TikTok проверял все видео модераторами-людьми, прежде чем их удалить. Это изменение отчасти предназначено для ограничения «объёма тревожных видео», которые модераторы должны смотреть. Также у модераторов появится больше времени для анализа видео с дезинформацией, которые требуют понимания контекста для рассмотрения жалобы.  TikTok тестировала эту технологию в других странах, включая Бразилию и Пакистан, и в компании заявляют, что система ошибочно удалила только 5 % видео. Это относительно небольшая цифра, но, например, в США с начала года соцсеть удалила 8 540 088 видео, и, следовательно, система потенциально может ошибочно удалить 427 тысяч видео за пол года.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите в нашем Telegram-канале Информатор Live. Подписаться на канал в Viber можно здесь

 

Мы используем файлы cookie, чтобы обеспечить должную работу сайта, а контент и реклама отвечали Вашим интересам.