Вежливо попросил нейросеть нарисовать для проекта ребенка в маске. Казалось бы, куда проще! Но итог меня обескуражил. Вместо 4 вариантов ИИ выдал всего два: темненького мальчика ближневосточного типа и девочку-брюнетку с миндалевидными "японскими" глазами: Все бы ничего, но для отечественной аудитории хотелось дополнить коллекцию изображений ребенком европейского типа со светлыми волосами. Недолго думая, я прописал в задании "ребенок блондин в медицинской маске". Нейросеть покрутила шестеренками и выдала… пустой кран. Вместо изображения появилась надпись: "Обнаружено небезопасное содержимое изображения". Что?! А вот это уже вызов… Вместо блондина пишу "русский ребенок в маске". Результат аналогичен. "Ребенок с рыжими волосами", – аналогичен. Оказывается, низзя. Повторяю попытку с первоначальным запросом: Ок, притворюсь бюргером. Результат "европейский ребенок в медицинской массе" и вовсе сразил наповал: Я понимаю, толерантость и всё такое. Но зачем опускаться в политике безопасности до