Найти в Дзене
Цифровая Переплавка

GPT-5: когда «уровень PhD» оказался маркетинговой метафорой

Оглавление
На иллюстрации в плоском графическом стиле изображена критика GPT-5: в центре — лист с надписью «GPT-F» и красным крестом, символизирующим провал, вокруг — логотип OpenAI, шахматная доска с предупреждающим знаком, грустное лицо на экране смартфона, падающий график и красные стрелки, отражающие негативную реакцию и падение доверия к модели.
На иллюстрации в плоском графическом стиле изображена критика GPT-5: в центре — лист с надписью «GPT-F» и красным крестом, символизирующим провал, вокруг — логотип OpenAI, шахматная доска с предупреждающим знаком, грустное лицо на экране смартфона, падающий график и красные стрелки, отражающие негативную реакцию и падение доверия к модели.

Релиз GPT-5 должен был стать моментом триумфа OpenAI. Сам Альтман заранее сравнивал модель с экспертом уровня PhD, а в соцсетях подогревал ожидания кадрами из Звёздных войн. Но уже через несколько часов после запуска вместо оваций последовал шквал критики — от Reddit до Hacker News.

Опрос на Polymarket зафиксировал драматичный обвал доверия: 📉 с 75 % до 14 % буквально за час. Более 3 000 пользователей подписали петицию о возвращении старой модели.

🚫 Где GPT-5 споткнулся

  • Шахматы — ошибки в простейших задачах, нарушение правил хода фигур.
  • 👁 Визуальное восприятие — путаница в частях и целом на изображениях, проблемы с мультимодальностью.
  • 🔀 Routing — новый механизм автоматического выбора подсистем оказался нестабилен.
  • 📊 Бенчмарки — на ARC-AGI-2 уступает даже Grok 4 Heavy.

🔍 Почему это важно

Эта история — симптом системного кризиса подхода «просто увеличим масштаб». Arizona State University опубликовал исследование, показавшее, что Chain of Thought-рассуждения ломаются при малейшем выходе за рамки тренировочных данных. По сути, спустя полтриллиона долларов и десятки миллиардов параметров мы упёрлись в ту же стену, что и нейросети конца 90-х — невозможность обобщать.

Это подтверждает, что LLM, какими бы большими они ни были, не становятся AGI. Проблемы с рассуждением, миромоделью и пониманием контекста — не баги реализации, а ограничения самой архитектуры.

💡 Личное мнение

Вместо того чтобы гнаться за «миллиардными» моделями, индустрии стоит наконец вложиться в нейросимволический ИИ — гибрид, который совмещает статистическую обработку данных с явными структурированными моделями мира. Это единственный путь, где алгоритм не просто угадывает вероятное слово, а действительно понимает, о чём идёт речь.

OpenAI всё ещё имеет сильный UX и имя на слуху, но техническое лидерство — под вопросом. Если GPT-5 — это максимум, что можно выжать из текущего подхода, то пора признать: «просто скейлить» — путь в тупик.

🔗 Источники: