Руководство социальной сети TikTok объявило о начале тестирования автоматической системы удаления противоправного контента, которая базируется на специально обученной нейросети. Разработчики заявили, что видеоролики порнографического характера, а также со сценами насилия, издевательств, суицида, шок-контента и прочих незаконных действий будут немедленно удаляться с платформы. При этом автор видео сможет подать обращение к модератору-человеку для объективной оценки. Тестовый запуск автоматизированных средств модерации показал, что только 5% роликов, заблокированных системой, должны были быть допущены к публикации. Разработчики алгоритмов определения незаконного контента продолжают работать над улучшением точности анализа. До настоящего времени все видеоролики в TikTok, в отношении которых были поданы жалобы, рассматривались небольшим штатом сотрудников-модераторов. При этом процесс оценки шёл крайне медленно. На окончательную модерацию могло уходить до 7-10 дней. Нововведение призвано с
TikTok запустил систему автоматического удаления противоправного контента
12 июля 202112 июл 2021
3
1 мин