Найти тему

«ВКонтакте» будет использовать нейросеть для обнаружения враждебных высказываний

В социальной сети теперь будет работать специальный фильтр на основе нейросети, который будет помогать администраторам групп и сообществ бороться с враждебными высказываниями.

В сообщении «ВКонтакте» сказано следующее: «Администраторы групп получили специальный фильтр, который поможет в противодействии враждебным высказываниям. Фильтр работает на основе нейросети. Администраторы групп смогут самостоятельно запустить или выключить его в настройках группы. Если требуется, чтобы он работал, его надо включить, потому что по умолчанию он выключен. Новый функционал сейчас доступен для 50% групп».

Специалисты отмечают, что запущенный в социальной сети алгоритм сейчас способен определить прямые угрозы: пожелание смерти человеку, угроза совершения насильственных действий, расправы, мести и т. д. В скором будущем нейросеть также сможет распознавать и остальные часто встречаемые враждебные высказывания: уничижение личности человека по национальному, религиозному и другим признакам.

«Администраторы группы получают список отфильтрованных публикаций, но заблокированные нейросетью также можно восстановить. Проведенные тесты показали, что восстанавливаются всего около 1% заблокированных комментариев », – отмечают представители «ВКонтакте»,

Тест фильтра обнаружения враждебных высказываний начался в конце 2020 году. За это время новым функционалом удалось воспользоваться администраторам примерно 10% всех групп в социальной сети – это около 13 млн. страниц, мероприятий, сообществ. По результатам теста выяснилось, что после включения фильтра только 1,68% администраторов выключили его в дальнейшем и отказались от использования.

«Чтобы создать алгоритм, который хорошо понимал бы разговорную речь, используется огромное количество текстов на русском языке – субтитры из фильмов и сериалов, с видеороликов. Нейросеть включает в себя механизм внимания, с помощью которого искусственный интеллект принимает решения на основе важности слов и их сочетаний.

Затем разработчики анализируют логику принятых нейросетью решений, за счет чего можно быстро исправить ошибки, принимать во внимание контекст, увеличивая эффективность обучения алгоритмов. На данный момент нейросеть правильно фиксирует враждебные высказывания в 80% случаев, поэтому наша команда продолжает работу в этом направлении », – говорится в сообщении «ВКонтакте».

ЧИТАТЬ ВСЕ НОВОСТИ НА САЙТЕ | ПОДПИСЫВАЙТЕСЬ НА НАШ TELEGRAM КАНАЛ