Релиз GPT-5 должен был стать моментом триумфа OpenAI. Сам Альтман заранее сравнивал модель с экспертом уровня PhD, а в соцсетях подогревал ожидания кадрами из Звёздных войн. Но уже через несколько часов после запуска вместо оваций последовал шквал критики — от Reddit до Hacker News.
Опрос на Polymarket зафиксировал драматичный обвал доверия: 📉 с 75 % до 14 % буквально за час. Более 3 000 пользователей подписали петицию о возвращении старой модели.
🚫 Где GPT-5 споткнулся
- ♟ Шахматы — ошибки в простейших задачах, нарушение правил хода фигур.
- 👁 Визуальное восприятие — путаница в частях и целом на изображениях, проблемы с мультимодальностью.
- 🔀 Routing — новый механизм автоматического выбора подсистем оказался нестабилен.
- 📊 Бенчмарки — на ARC-AGI-2 уступает даже Grok 4 Heavy.
🔍 Почему это важно
Эта история — симптом системного кризиса подхода «просто увеличим масштаб». Arizona State University опубликовал исследование, показавшее, что Chain of Thought-рассуждения ломаются при малейшем выходе за рамки тренировочных данных. По сути, спустя полтриллиона долларов и десятки миллиардов параметров мы упёрлись в ту же стену, что и нейросети конца 90-х — невозможность обобщать.
Это подтверждает, что LLM, какими бы большими они ни были, не становятся AGI. Проблемы с рассуждением, миромоделью и пониманием контекста — не баги реализации, а ограничения самой архитектуры.
💡 Личное мнение
Вместо того чтобы гнаться за «миллиардными» моделями, индустрии стоит наконец вложиться в нейросимволический ИИ — гибрид, который совмещает статистическую обработку данных с явными структурированными моделями мира. Это единственный путь, где алгоритм не просто угадывает вероятное слово, а действительно понимает, о чём идёт речь.
OpenAI всё ещё имеет сильный UX и имя на слуху, но техническое лидерство — под вопросом. Если GPT-5 — это максимум, что можно выжать из текущего подхода, то пора признать: «просто скейлить» — путь в тупик.
🔗 Источники: