Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

🧠 AGI как инженерная задача: почему одних моделей уже недостаточно

Когда обсуждают искусственный общий интеллект, чаще всего спорят о том, какая модель «умнее» — GPT-5, Claude или Gemini. Но в статье Vinci Rufus звучит важная мысль: AGI — это не про размер модели, а про архитектуру системы. Крупные LLM уже вышли на асимптоту: Это напоминает историю процессоров: когда частоты упёрлись в потолок, индустрия спаслась не «разгоном», а переходом на многопоточность и новые архитектуры. Автор предлагает трёхслойную схему, которая близка к тому, как работает мозг: Я полностью согласен с этим подходом. Сегодняшние LLM напоминают отличных «гитаристов-виртуозов»: они могут сыграть соло, но не умеют работать в оркестре. AGI же — это симфония, где важна согласованность партии памяти, планировщика, специализированных «инструментов» и дирижёра-оркестратора. Инженерный вызов здесь колоссален: Именно специалисты по распределённым системам, а не только ML-исследователи, будут определять ближайшее будущее AGI. Путь к AGI не лежит через «GPT-6 с триллионами параметров». О
Оглавление
На картинке изображена концепция AGI как инженерной задачи: сервер и схема процессов символизируют инфраструктуру и оркестрацию, а мозг справа показывает конечную цель — интеллект.
На картинке изображена концепция AGI как инженерной задачи: сервер и схема процессов символизируют инфраструктуру и оркестрацию, а мозг справа показывает конечную цель — интеллект.

Когда обсуждают искусственный общий интеллект, чаще всего спорят о том, какая модель «умнее» — GPT-5, Claude или Gemini. Но в статье Vinci Rufus звучит важная мысль: AGI — это не про размер модели, а про архитектуру системы.

🚧 Почему масштабирование не спасает

Крупные LLM уже вышли на асимптоту:

  • 📏 увеличение параметров даёт лишь косметические улучшения;
  • 🧩 модели всё так же не держат долгосрочный контекст;
  • 🎲 вероятностная природа делает их ненадёжными в длинных рассуждениях.

Это напоминает историю процессоров: когда частоты упёрлись в потолок, индустрия спаслась не «разгоном», а переходом на многопоточность и новые архитектуры.

🧩 Что действительно нужно для AGI

Автор предлагает трёхслойную схему, которая близка к тому, как работает мозг:

  • 🛠 Базовый слой:
    сервис контекста (динамические knowledge graphs, обновляемые в реальном времени),
    сервис памяти (с забыванием и переупорядочиванием, как у человека),
    детерминированный оркестратор, который управляет стохастическими шагами и умеет откатывать ошибки.
  • 🧠 Слой возможностей:
    специализированные модели для математики, планирования, визуальной логики,
    символический движок для точных вычислений,
    система планов и целей, превращающая «хочу построить дом» в подзадачи.
  • 🌌 Слой возникновения:
    интеллект рождается из взаимодействия всех компонентов, а не из одной сверхмодели.

🧠 Моё видение

Я полностью согласен с этим подходом. Сегодняшние LLM напоминают отличных «гитаристов-виртуозов»: они могут сыграть соло, но не умеют работать в оркестре. AGI же — это симфония, где важна согласованность партии памяти, планировщика, специализированных «инструментов» и дирижёра-оркестратора.

Инженерный вызов здесь колоссален:

  • 🛡 нужна отказоустойчивость (чтобы сбой одной модели не рушил систему),
  • 🔍 мониторинг качества и дрейфа вывода,
  • 🚀 обновления без остановки всей системы.

Именно специалисты по распределённым системам, а не только ML-исследователи, будут определять ближайшее будущее AGI.

🔮 Вывод

Путь к AGI не лежит через «GPT-6 с триллионами параметров». Он лежит через инженерное проектирование систем, где несколько моделей и сервисов взаимодействуют так, чтобы из их совместной работы рождался интеллект.

🔗 Источник: Vinci Rufus — AGI is an engineering problem, not a model training problem
https://www.vincirufus.com/posts/agi-is-engineering-problem/