"Ми готові до будь-якого формату діалогу, але є умова - повне й безумовне припинення вогню."
Трек «Боляче» — про ті стосунки, які давно мали б залишитися в минулому, але вперто не йдуть із голови. Про людей, які вже ніби відпустили, але ловлять себе на думці, що досі болить. Для тих, хто сміється на зустрічах, але подумки все одно шукає її очі. Хто робить вигляд, що забув, — але пам’ятає.
Нова система поки працює тільки в США і Канаді
Соціальна мережа TikTok намагається прискорити процес модерації контенту, і збирається впровадити автоматизовані системи модерації. Наразі переглядом контенту займаються живі модератори вручну.
Про це повідомляє Інформатор з посиланням на TikTok .
Соцмережа TikTok впроваджує у США і Канаді нову автоматизовану систему модерації, яка буде відсіювати відео з оголеним тілом, сексом, насильством, незаконними діями і порушеннями політики безпеки соцмережі. Якщо система виявить таке відео, то відразу ж видалить його, а творцеві контенту буде надана можливість звернутися до модератора-людини.
Раніше TikTok перевіряв все відео модераторами-людьми, перш ніж їх видалити. Ця зміна частково призначена для обмеження «обсягу тривожних відео», які модератори повинні дивитися. Також у модераторів з'явиться більше часу для аналізу відео з дезінформацією, які вимагають розуміння контексту для розгляду скарги. TikTok тестувала цю технологію в інших країнах, включаючи Бразилію і Пакистан, і в компанії заявляють, що система помилково видалила тільки 5% відео. Це відносно невелика цифра, але, наприклад, в США з початку року соцмережа видалила 8 540 088 відео, і, отже, система потенційно може помилково видалити 427 тис відео за півроку.
Підписуйтесь на наш Telegram-канал,щоб не пропустити важливі новини. За новинами в режимі онлайн прямо в месенджері стежте на нашому Telegram-каналі Інформатор Live.Підписатися на канал у Viber можна тут