Искусственный интеллект уже пишет романы, рисует шедевры и даже ставит диагнозы. Но иногда нейросети выдают такие перлы, что хоть святых выноси. Эксперт по ИТ и автор бестселлеров собрал самые эпичные ляпы машинного разума — от сюрреалистичных картинок до опасных советов.
Когда алгоритмы теряют берега
По данным исследования Яндекса за 2024 год, каждая пятая нейросеть в Рунете периодически выдаёт абсурдные результаты. И если в научных лабораториях такие казусы быстро исправляют, то в публичном поле они становятся мемами.
"ИИ — это как умный, но слегка подвыпивший студент: в 80% случаев блещет эрудицией, а в остальные 20% несёт такую ахинею, что диву даёшься" — шутит ведущий разработчик Сбера.
1. Генератор лиц с тремя носами
Сервис ThisPersonDoesNotExist прославился созданием фотореалистичных портретов несуществующих людей. Но в 2023 году нейросеть выдала шедевр — женщину с тремя носами, расположенными в виде треугольника. Пользователи тут же окрестили её "дамой с обонятельным триглавом".
2. ChatGPT советует добавить клей в фарш
В кулинарном чат-боте от одной российской компании случился конфуз. На вопрос "Как сделать котлеты сочнее?" система выдала рецепт: 500 г фарша, 2 ст.л. канцелярского клея ПВА, яйцо. Разработчики позже объяснили — алгоритм перепутал пищевые добавки с бытовой химией.
Ван Гог бы обзавидовался
Генераторы изображений типа Kandinsky 3.0 (российский аналог Midjourney) регулярно радуют арт-сообщество сюрреалистичными картинами:
- Кошка с шестью глазами, сидящая на люстре
- Портрет Путина в стиле аниме с фиолетовыми волосами
- Московский Кремль, построенный из сыра
Особенно досталось животным — нейросети упорно рисуют собак с человеческими зубами и рыб с ногами. В 2024 году такие артефакты встречаются реже, но всё ещё попадаются.
Переводчики-юмористы
Российский сервис Tranzzo в тестовом режиме запустил нейропереводчик с английского. Результаты:
- "Time flies like an arrow" → "Время летит как стрела" (верно)
- "Fruit flies like a banana" → "Фруктовые мухи любят банан" (а должно быть "Фрукты летят как банан")
- "The spirit is willing, but the flesh is weak" → "Водка есть, но закуска кончилась" (это уже народное творчество)
Опасные ляпы
Не все ошибки безобидны. В марте 2024 медицинский ИИ от одной частной клиники поставил диагноз "аллергия на воду" младенцу с пневмонией. К счастью, врачи перепроверили. А нейросеть-юрист от РосПравоИнформ советовала расторгать брак через дуэль — видимо, перечиталась классики.
Статистика курьёзов:
- 47% — ошибки генерации изображений
- 32% — абсурдные тексты
- 15% — опасные рекомендации
- 6% — прочее (включая тот случай, когда ИИ принял тест Тьюринга, но провалил проверку на здравый смысл)
Почему ИИ ошибается?
Эксперты выделяют три причины:
- Переобучение — нейросеть зацикливается на странных примерах из базы
- Отсутствие контекста — машина не понимает смысла, только статистику
- Ошибки датасетов — если в обучающей выборке есть мемы и шутки, ИИ их воспроизводит
Российские разработчики из Сколково уже работают над "фильтром абсурда", но пока даже лучшие системы выдают 1-2% откровенной чуши.
Топ-3 самых эпичных провала
3 место: Нейросеть от ВКонтакте, которая превратила фото кота в рецепт борща. На выходе получился текст: "Возьмите одного пушистого, варите 40 минут, добавьте свёклу".
2 место: Голосовой помощник Маруся, который на вопрос "Кто победил в Великой Отечественной?" ответил: "Согласно статистике, 73% игроков в Call of Duty выбирают сторону СССР".
1 место: Генератор стихов от Яндекса, посвятивший оперной певице Анне Нетребко строки: "Твой голос — как рассол под ёлкой, как квашеная капуста в марте". Автор алгоритма потом оправдывался — мол, система искала "русские" метафоры.
Что дальше?
Компании уже используют эти казусы для улучшения ИИ. Например, Крибрум научил нейросеть распознавать сарказм, а Тинькофф внедрил "проверку на адекватность" для чат-ботов. Но полностью исключить ошибки не получится — машины учатся на человеческом контенте, а он далёк от идеала.
Как считают читатели, нужно ли законодательно ограничивать применение ИИ в критичных сферах? Или пусть нейросети продолжают радовать нас абсурдом, пока не поумнеют окончательно?