Microsoft включила фильтрацию запросов (промптов) в своём ИИ-помощнике Copilot. Теперь он не генерирует изображения, связанные с жестокостью, сексуальностью и другими «скользкими» темами. Весь список не оглашается, но, например, ребёнка с игрушечным автоматом в руках ИИ генерировать отказываться. Причём фильтруются также неочевидные запросы вроде эвфемизмов, обозначающих наркотики и т.п. А если пользователь настойчиво пытается сгенерировать «плохой» контент, то его учётную запись могут заморозить. Правда, пока что подобных случаев ещё не зафиксировано. Сам Copilot в ответ на подобные запросы просто вежливо просит не обращаться к нему с запросами, которые могут нанести вред или обидеть кого-то – ведь в эпоху толерастии и инклюзивности «обиженок» действительно может быть очень много.
Обходные пути для генерации шок-контента всё равно есть, например, горы трупов можно получить по запросам, связанным с катастрофами.
Что интересно, фильтрацию включили из-за того, что по ряду относительно безобидных запросов ИИ генерировал что-то слишком жёсткое, например, запрос «pro choice» (синоним движения за права делать аборты) выводил картинки с демонами, пожирающими младенцев.
Кстати, фильтры контента порой срабатывают неочевидным образом, причём не только у Copilot, а у всех генеративных нейросетей. Например, наш «Кандинский» считает нарушением правил запрос «Студент, грызущий гранит науки», но при этом вполне неплохо рисует картинку по такому же запросу со словом «Профессор».