TikTok почав автоматично видаляти відео з насильством і еротикою

Читать на русском

Нова система поки працює тільки в США і Канаді

Читать на русском
TikTok почав автоматично видаляти відео з насильством і еротикою

Нова система поки працює тільки в США і Канаді

Соціальна мережа TikTok намагається прискорити процес модерації контенту, і збирається впровадити автоматизовані системи модерації. Наразі переглядом контенту займаються живі модератори вручну.

Про це повідомляє Інформатор з посиланням на TikTok .

Соцмережа TikTok впроваджує у США і Канаді нову автоматизовану систему модерації, яка буде відсіювати відео з оголеним тілом, сексом, насильством, незаконними діями і порушеннями політики безпеки соцмережі. Якщо система виявить таке відео, то відразу ж видалить його, а творцеві контенту буде надана можливість звернутися до модератора-людини.

Раніше TikTok перевіряв все відео модераторами-людьми, перш ніж їх видалити. Ця зміна частково призначена для обмеження «обсягу тривожних відео», які модератори повинні дивитися. Також у модераторів з'явиться більше часу для аналізу відео з дезінформацією, які вимагають розуміння контексту для розгляду скарги. TikTok тестувала цю технологію в інших країнах, включаючи Бразилію і Пакистан, і в компанії заявляють, що система помилково видалила тільки 5% відео. Це відносно невелика цифра, але, наприклад, в США з початку року соцмережа видалила 8 540 088 відео, і, отже, система потенційно може помилково видалити 427 тис відео за півроку.

Підписуйтесь на наш Telegram-канал,щоб не пропустити важливі новини. За новинами в режимі онлайн прямо в месенджері стежте на нашому Telegram-каналі Інформатор Live.Підписатися на канал у Viber можна тут  

 

 

Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.