Добавить в корзинуПозвонить
Найти в Дзене
ПЛАТФОРМА

20 позорных провалов ИИ которые заставят вас ржать до слез

Искусственный интеллект уже пишет романы, рисует шедевры и даже ставит диагнозы. Но иногда нейросети выдают такие перлы, что хоть святых выноси. Эксперт по ИТ и автор бестселлеров собрал самые эпичные ляпы машинного разума — от сюрреалистичных картинок до опасных советов. По данным исследования Яндекса за 2024 год, каждая пятая нейросеть в Рунете периодически выдаёт абсурдные результаты. И если в научных лабораториях такие казусы быстро исправляют, то в публичном поле они становятся мемами. "ИИ — это как умный, но слегка подвыпивший студент: в 80% случаев блещет эрудицией, а в остальные 20% несёт такую ахинею, что диву даёшься" — шутит ведущий разработчик Сбера. Сервис ThisPersonDoesNotExist прославился созданием фотореалистичных портретов несуществующих людей. Но в 2023 году нейросеть выдала шедевр — женщину с тремя носами, расположенными в виде треугольника. Пользователи тут же окрестили её "дамой с обонятельным триглавом". В кулинарном чат-боте от одной российской компании случился
Оглавление

Искусственный интеллект уже пишет романы, рисует шедевры и даже ставит диагнозы. Но иногда нейросети выдают такие перлы, что хоть святых выноси. Эксперт по ИТ и автор бестселлеров собрал самые эпичные ляпы машинного разума — от сюрреалистичных картинок до опасных советов.

   20 позорных провалов ИИ которые заставят вас ржать до слез
20 позорных провалов ИИ которые заставят вас ржать до слез

Когда алгоритмы теряют берега

По данным исследования Яндекса за 2024 год, каждая пятая нейросеть в Рунете периодически выдаёт абсурдные результаты. И если в научных лабораториях такие казусы быстро исправляют, то в публичном поле они становятся мемами.

"ИИ — это как умный, но слегка подвыпивший студент: в 80% случаев блещет эрудицией, а в остальные 20% несёт такую ахинею, что диву даёшься" — шутит ведущий разработчик Сбера.

1. Генератор лиц с тремя носами

Сервис ThisPersonDoesNotExist прославился созданием фотореалистичных портретов несуществующих людей. Но в 2023 году нейросеть выдала шедевр — женщину с тремя носами, расположенными в виде треугольника. Пользователи тут же окрестили её "дамой с обонятельным триглавом".

2. ChatGPT советует добавить клей в фарш

В кулинарном чат-боте от одной российской компании случился конфуз. На вопрос "Как сделать котлеты сочнее?" система выдала рецепт: 500 г фарша, 2 ст.л. канцелярского клея ПВА, яйцо. Разработчики позже объяснили — алгоритм перепутал пищевые добавки с бытовой химией.

   20 позорных провалов ИИ которые заставят вас ржать до слез
20 позорных провалов ИИ которые заставят вас ржать до слез

Ван Гог бы обзавидовался

Генераторы изображений типа Kandinsky 3.0 (российский аналог Midjourney) регулярно радуют арт-сообщество сюрреалистичными картинами:

  • Кошка с шестью глазами, сидящая на люстре
  • Портрет Путина в стиле аниме с фиолетовыми волосами
  • Московский Кремль, построенный из сыра

Особенно досталось животным — нейросети упорно рисуют собак с человеческими зубами и рыб с ногами. В 2024 году такие артефакты встречаются реже, но всё ещё попадаются.

Переводчики-юмористы

Российский сервис Tranzzo в тестовом режиме запустил нейропереводчик с английского. Результаты:

  1. "Time flies like an arrow" → "Время летит как стрела" (верно)
  2. "Fruit flies like a banana" → "Фруктовые мухи любят банан" (а должно быть "Фрукты летят как банан")
  3. "The spirit is willing, but the flesh is weak" → "Водка есть, но закуска кончилась" (это уже народное творчество)

Опасные ляпы

Не все ошибки безобидны. В марте 2024 медицинский ИИ от одной частной клиники поставил диагноз "аллергия на воду" младенцу с пневмонией. К счастью, врачи перепроверили. А нейросеть-юрист от РосПравоИнформ советовала расторгать брак через дуэль — видимо, перечиталась классики.

Статистика курьёзов:

  • 47% — ошибки генерации изображений
  • 32% — абсурдные тексты
  • 15% — опасные рекомендации
  • 6% — прочее (включая тот случай, когда ИИ принял тест Тьюринга, но провалил проверку на здравый смысл)

Почему ИИ ошибается?

Эксперты выделяют три причины:

  1. Переобучение — нейросеть зацикливается на странных примерах из базы
  2. Отсутствие контекста — машина не понимает смысла, только статистику
  3. Ошибки датасетов — если в обучающей выборке есть мемы и шутки, ИИ их воспроизводит

Российские разработчики из Сколково уже работают над "фильтром абсурда", но пока даже лучшие системы выдают 1-2% откровенной чуши.

Топ-3 самых эпичных провала

3 место: Нейросеть от ВКонтакте, которая превратила фото кота в рецепт борща. На выходе получился текст: "Возьмите одного пушистого, варите 40 минут, добавьте свёклу".

2 место: Голосовой помощник Маруся, который на вопрос "Кто победил в Великой Отечественной?" ответил: "Согласно статистике, 73% игроков в Call of Duty выбирают сторону СССР".

1 место: Генератор стихов от Яндекса, посвятивший оперной певице Анне Нетребко строки: "Твой голос — как рассол под ёлкой, как квашеная капуста в марте". Автор алгоритма потом оправдывался — мол, система искала "русские" метафоры.

Что дальше?

Компании уже используют эти казусы для улучшения ИИ. Например, Крибрум научил нейросеть распознавать сарказм, а Тинькофф внедрил "проверку на адекватность" для чат-ботов. Но полностью исключить ошибки не получится — машины учатся на человеческом контенте, а он далёк от идеала.

Как считают читатели, нужно ли законодательно ограничивать применение ИИ в критичных сферах? Или пусть нейросети продолжают радовать нас абсурдом, пока не поумнеют окончательно?

Рекомендуем почитать