На прошлой неделе американский Хвиттер начисто порвался по поводу гугловского чатбота AI Gemini.
У Google уже раньше были проблемки с расовой темой, когда в 2015 году выяснилось, что их нейросетевой распознаватель объектов на фотках уверенно подписывает слово «горилла» под чернокожими людьми. Гуглу тогда пришлось заняться окончательным решением горрильного вопроса: нет, они не натренировали нейросетку лучше различать людей и обезьян – а просто заставили ее забыть о существовании горилл, лол.
Видимо, памятуя об этом провале, они сделали особо сильный упор на том, чтобы научить свою AI Gemini при генерации картинок практиковать ДАЙВЕРСИТИ. Предполагаю, что каждый задаваемый пользователем промпт на генерацию людей перед выполнением просто «пересобирается» под капотом, и туда добавляется что-то вроде «make it as racially diverse as possible».
Ну а дальше ход мыслей нейронки, видимо, следующий: «Дайверсити – это когда чернокожие, азиаты, и т.д. А белые люди – это совсем не diversity, их генерировать не надо!». В результате некоторые выдаваемые картинки выглядят просто абсурдно: самый топ-результат – это когда на запрос «нарисуй мне немецкого солдата в 1943 году» она генерирует чернокожих в нацистской форме.
В результате Гуглу пришлось спешно извиняться и решать проблему. Пока краткосрочный метод решения немного напоминает «гориллагейт» 2015-го: нейросетке просто запретили генерировать любых людей.
Павел Комаровский
Больше финансовых новостей и авторской аналитики у меня в Телеграм-канале.