Найти в Дзене
Social Mebia Systems

«Альтман вынес приговор Transformer»: что значит обещание AGI через два года

В недавнем выступлении в Стэнфорде генеральный директор OpenAI Сэм Альтман заявил, что эпоха архитектуры Transformer подходит к концу, а в ближайшие годы мир увидит принципиально новую базовую архитектуру — «следующий Transformer». Более того, по его словам, появление AGI может произойти в течение двух лет, а современные крупные модели уже достаточно умны, чтобы помогать в поиске и открытии этой новой парадигмы. Эти громкие заявления вызвали бурную реакцию научного и индустриального сообщества: от скепсиса до восторга — и заставляют всерьёз задуматься о следующем цикле архитектурной миграции в ИИ. Ключевые тезисы Альтмана Альтман и обсуждающие его инновации указывают на фундаментальную проблему: у классических attention‑механизмов вычислительная сложность по длине последовательности растёт квадратично — при увеличении контекста в 10× вычисления увеличиваются примерно в 100×. Это делает работу с очень длинными контекстами и масштабирование моделей всё более дорогостоящим. По словам Альт

В недавнем выступлении в Стэнфорде генеральный директор OpenAI Сэм Альтман заявил, что эпоха архитектуры Transformer подходит к концу, а в ближайшие годы мир увидит принципиально новую базовую архитектуру — «следующий Transformer».

Более того, по его словам, появление AGI может произойти в течение двух лет, а современные крупные модели уже достаточно умны, чтобы помогать в поиске и открытии этой новой парадигмы.

Эти громкие заявления вызвали бурную реакцию научного и индустриального сообщества: от скепсиса до восторга — и заставляют всерьёз задуматься о следующем цикле архитектурной миграции в ИИ.

Ключевые тезисы Альтмана

  • Появление новой базовой архитектуры неизбежно; Transformer не вечен, как когда‑то LSTM уступил место другим подходам.
  • Современные LLM уже могут выступать инструментом для открытия новой архитектуры: «модель помогает человеку найти архитектуру, которая заменит модель».
  • AGI может наступить в горизонте ~2 лет; это не конец человеческой деятельности, но радикально поменяет темпы научной и продуктовой работы.
  • Следующий крупный скачок в продуктах произойдёт в сферах программируемых интеллектуальных агентов и автоматизации знаний.

Альтман и обсуждающие его инновации указывают на фундаментальную проблему: у классических attention‑механизмов вычислительная сложность по длине последовательности растёт квадратично — при увеличении контекста в 10× вычисления увеличиваются примерно в 100×.

Это делает работу с очень длинными контекстами и масштабирование моделей всё более дорогостоящим. По словам Альтмана, подобный «вычислительный провал» стимулирует поиск новых архитектур, дающих существенно лучшее соотношение эффективности/качества.

Примеры, которые уже претендуют на роль «последователя»

  • Mamba — семейство архитектур на базе state‑space models (SSM), предложенное Albert Gu и Tri Dao. Вместо полного попарного внимания они поддерживают фиксированное состояние памяти и обеспечивают линейную по времени обработку последовательностей. По данным материала, к 2026 году Mamba дошла до третьего поколения и получила признание (ICLR 2026).
  • Промышленные реализации: NVIDIA в 2025 выпустила серию Nemotron‑H, где 92% attention‑слоёв заменяются Mamba‑слоями — рост пропускной способности в 3–5× при сохранении точности. По сценарию, целые продуктовые линии уже переходят на гибридные решения.
  • Другие игроки и гибриды: AI21 (Jamba), IBM (Bamba), xLSTM (Sepp Hochreiter), Microsoft (Phi‑4‑mini‑flash‑reasoning) — все экспериментируют с микшированием SSM, улучшенными LSTM‑вариантами и новыми нейронными операторами.
  • Liquid Neural Networks (Liquid AI) и LFM2.5 — подходы на основе непрерывных дифференциальных уравнений, дающие адаптивность и способность «обучаться на ходу», показывают высокую эффективность при малом числе параметров.

Альтман описывает самоподдерживающуюся цепочку: модели становятся умнее → с их помощью ускоряется научный поиск → вероятность открытия «ядерной» архитектуры возрастает → новая архитектура делает модели ещё сильнее.

Исследование и инженерия архитектур — приоритет инвестиций: команды должны балансировать между масштабированием существующих LLM и поиском более эффективных базовых блоков. Новые архитектуры часто требуют переосмысления аппаратных ускорителей и компиляторов — поэтому симбиоз чип‑инжиниринга и алгоритмов становится критичным.

Как и в прошлом, переход к новой архитектуре создаёт шанс для «малых» игроков сделать «одну идею» и потеснить гигантов — Альтман прямым текстом провозгласил, что появятся компании, способные превзойти OpenAI.

Но ускоренное наступление AGI и замена архитектур ставят вопросы о контроле, безопасности, прозрачности и экономических последствиях.

Прогноз «AGI за 2 года» — смелый, но спорный. История показывает, что крупные технологические сдвиги редко укладываются в жёсткие сроки. Даже при появлении новой архитектуры предстоит миграция экосистемы — инструментов, датасетов, аппаратуры и практик — что займёт годы.

Производительность в бенчмарках ≠ безопасность и надёжность в реальном мире; новые архитектуры потребуют тщательной проверки.

Заявление Сэма Альтмана — мощный сигнал: архитектурная эра Transformer может действительно завершиться, но это не катастрофа — это шанс для следующего качественного скачка. История нейросетей учит: смена парадигм создаёт лидеров и новых продуктов, но также требует осознанного перехода и внимания к безопасности.

Если прогноз сбудется, мы стоим на пороге новой архитектурной революции — и она начнётся не просто из лабораторий, а из симбиоза людей и умных систем, которые помогут открыть будущее.

Источник материала: YouTube.

Хотите создать уникальный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/