Практически любая многопользовательская онлайн-игра может стать средством травли, но у франшизы Call of Duty в этом отношении более скверная репутация, чем у большинства других. В среду компания Activision Blizzard опубликовала в своем блоге сообщение о том, что она начала использовать искусственный интеллект для борьбы с "деструктивным поведением" в голосовом чате. Разговоры, ведущиеся между североамериканскими игроками в играх Call of Duty: Modern Warfare II и Call of Duty: Warzone, уже модерируются, а в ближайшие месяцы эта функция появится и в других регионах, и играх.
Инструмент называется ToxMod, и он создан компанией Modulate, которая себя называет "лидером в борьбе с токсичным поведением в интернете". Согласно веб-сайту Modulate, ToxMod помечает потенциально опасные разговоры, а затем проверяет их на токсичность. Иногда этот процесс включает в себя удаление фонового шума для более точного анализа. После этого ToxMod оценивает «тон, тембр, эмоции и контекст» фраз или разговоров, чтобы определить, является ли поведение игрока токсичным. На данный момент инструмент выполняет анализ ключевых слов, но также, по словам разработчиков, умеет анализировать всю суть разговора, прежде чем принимать меры против игрока.
Большинство токсичных геймеров выглядят именно так.
ToxMod пересылает разговоры, отмеченные определенным видом или степенью токсичности, команде модераторов игры, которая в конечном итоге принимает решение о принятии мер в отношении того или иного игрока. Будем надеяться, что за каждым решением о предупреждении или запрете на участие во внутриигровом голосовом чате Call of Duty будет стоять человек. По данным Activision, первые предупреждения лишь в некоторой степени помогают предотвратить повторные оскорбления, буллинга или разжигание ненависти в адрес другого игрока. В своем блоге компания заявила, что только 20% игроков не совершают повторных правонарушений после получения первого предупреждения. Те, кто совершает повторное правонарушение, подвергаются банам в чате и временным ограничениям учетных записей, хотя Activision не сообщила, насколько эффективны эти наказания.
ToxMod представляет собой второй серьезный шаг Activision по предотвращению внутриигровой токсичности за последний год. В ноябре компания представила обновленную систему сообщений, которая позволила игрокам сообщать о тех, кто использует оскорбительный текст или речь. Новый интерфейс отражал кодекс поведения игры, с которым игроки должны были согласиться в начале следующей игры, даже если они прочитали его или согласились с ним ранее.
В настоящее время бета-версия ToxMod от Activision анализирует разговоры геймеров Modern Warfare II и Warzone по всей Северной Америке. После выхода Call of Duty: Modern Warfare III 10 ноября бета-версия ToxMod будет слушать всех игроков по всему миру, за исключением Азии.