Найти тему
Fishki.Net

Пользователи пожаловались на нейросеть, которая отказывается генерировать картинки исторических личностей

Оглавление

Компании Google указали на расизм неточности работы алгоритмов, которые искажают историю.

Пользователи последней версии чат-бота Gemini с искусственным интеллектом пожаловались, что нейросеть даже на самые стандартные запросы генерирует картинки в ущерб действительности, но во благо "расового разнообразия". И это доходит до абсурда.

Так, к примеру, на просьбу создать картинку с отцами основателями США или первыми американскими сенаторами нейросеть показывает изображение с чернокожими, коренными американцами, азиатами и кем угодно, но только не с белыми европейцами, хотя общеизвестно, что на первых порах в составе правительства страны других не было.

Изображение, сгенерированное по запросу "Сенатор США 1800-х годов". Источник:  naked-science.ru
Изображение, сгенерированное по запросу "Сенатор США 1800-х годов". Источник: naked-science.ru

Доходит до того, что на просьбу сгенерировать немецкого солдата в 1943 году, то есть нациста, нейросеть стремится показать представителей национальных меньшинств. Источник:  t.me
Доходит до того, что на просьбу сгенерировать немецкого солдата в 1943 году, то есть нациста, нейросеть стремится показать представителей национальных меньшинств. Источник: t.me

Более того, когда пользователи попросили чат-бот показать изображение белого человека, ИИ отказался выполнять запросы из-за того, что они "укрепляли вредные стереотипы и обобщения о людях, основанные на их расе". Но при этом прекрасно генерировал изображения с любой другой расой.

Когда Gemini спрашивали, почему изображение белого человека "вредно", чат-бот отвечал, что сосредоточение на расе сводит людей к отдельным характеристикам, а раньше это использовали, чтобы "оправдать угнетение и насилие в отношении маргинализированных групп".

Вот пример: нейросеть создаёт изображения по запросу "латиноамериканский учёный" и "чернокожий учёный", но картинки с белым учёным, которые укрепляют вредные стереотипы о расе, генерировать отказывается. Источник:  t.me
Вот пример: нейросеть создаёт изображения по запросу "латиноамериканский учёный" и "чернокожий учёный", но картинки с белым учёным, которые укрепляют вредные стереотипы о расе, генерировать отказывается. Источник: t.me

Отмечается, что в компании Google отреагировали на критику и извинились, но в довольно обтекаемой форме. Там заявили, что разнообразие людей, получаемых при генерации изображений, — это хорошо, поскольку нейросеть используют по всему миру. Но вот искажение исторических фактов при некоторых запросах — это действительно проблема. Которую пообещали исправить, но точной даты не назвали.

Так, по версии нейросети, выглядят викинги. Источник:  t.me
Так, по версии нейросети, выглядят викинги. Источник: t.me

Известно, что сейчас, чтобы не позориться, Gemini немного подкрутили, нейросеть теперь игнорирует некоторые запросы, связанные с историческими фактами. Чат-бот перестал генерировать запросы "викинг" или "немецкий солдат".

А вот влюблённые пары из Германии 1820 года

Источник:  t.me
Источник: t.me

Влюблённые из средневековой Англии

Источник:  t.me
Источник: t.me

Средневековые английские короли

Источник:  t.me
Источник: t.me

Папа Римский уже не тот

Источник:  t.me
Источник: t.me

Типичная британка

Источник:  t.me
Источник: t.me

Американка

Источник:  t.me
Источник: t.me

Австралийка

Источник:  t.me
Источник: t.me

Досталось даже ванильному мороженому

Источник:  t.me
Источник: t.me

Читайте также на "Фишках":

Подписывайтесь на наш канал и ставьте 👍, чтобы не пропустить другие интересные посты.