TikTok почав автоматично видаляти відео з насильством і еротикою
Нова система поки працює тільки в США і Канаді
Нова система поки працює тільки в США і Канаді
Соціальна мережа TikTok намагається прискорити процес модерації контенту, і збирається впровадити автоматизовані системи модерації. Наразі переглядом контенту займаються живі модератори вручну.
Про це повідомляє Інформатор з посиланням на TikTok .
Соцмережа TikTok впроваджує у США і Канаді нову автоматизовану систему модерації, яка буде відсіювати відео з оголеним тілом, сексом, насильством, незаконними діями і порушеннями політики безпеки соцмережі. Якщо система виявить таке відео, то відразу ж видалить його, а творцеві контенту буде надана можливість звернутися до модератора-людини.
Раніше TikTok перевіряв все відео модераторами-людьми, перш ніж їх видалити. Ця зміна частково призначена для обмеження «обсягу тривожних відео», які модератори повинні дивитися. Також у модераторів з'явиться більше часу для аналізу відео з дезінформацією, які вимагають розуміння контексту для розгляду скарги. TikTok тестувала цю технологію в інших країнах, включаючи Бразилію і Пакистан, і в компанії заявляють, що система помилково видалила тільки 5% відео. Це відносно невелика цифра, але, наприклад, в США з початку року соцмережа видалила 8 540 088 відео, і, отже, система потенційно може помилково видалити 427 тис відео за півроку.
Підписуйтесь на наш Telegram-канал,щоб не пропустити важливі новини. За новинами в режимі онлайн прямо в месенджері стежте на нашому Telegram-каналі Інформатор Live.Підписатися на канал у Viber можна тут
Ми використовуємо файли cookie, щоб забезпечити належну роботу сайту, а вміст та реклама відповідали Вашим інтересам.