Когда обсуждают искусственный общий интеллект, чаще всего спорят о том, какая модель «умнее» — GPT-5, Claude или Gemini. Но в статье Vinci Rufus звучит важная мысль: AGI — это не про размер модели, а про архитектуру системы. Крупные LLM уже вышли на асимптоту: Это напоминает историю процессоров: когда частоты упёрлись в потолок, индустрия спаслась не «разгоном», а переходом на многопоточность и новые архитектуры. Автор предлагает трёхслойную схему, которая близка к тому, как работает мозг: Я полностью согласен с этим подходом. Сегодняшние LLM напоминают отличных «гитаристов-виртуозов»: они могут сыграть соло, но не умеют работать в оркестре. AGI же — это симфония, где важна согласованность партии памяти, планировщика, специализированных «инструментов» и дирижёра-оркестратора. Инженерный вызов здесь колоссален: Именно специалисты по распределённым системам, а не только ML-исследователи, будут определять ближайшее будущее AGI. Путь к AGI не лежит через «GPT-6 с триллионами параметров». О
🧠 AGI как инженерная задача: почему одних моделей уже недостаточно
24 августа 202524 авг 2025
1
1 мин