Найти в Дзене
NeuroTechnus

Что такое SAI? Янн Лекун объясняет, почему AGI определен неверно

Что, если вся индустрия искусственного интеллекта, от стартапов до технологических гигантов, гонится за целью, которую нельзя ни чётко определить, ни надёжно измерить? Именно этот провокационный вопрос лежит в основе новой научной статьи Яна Лекуна, одного из "крёстных отцов" глубокого обучения, и его команды. Они утверждают, что сама концепция искусственного общего интеллекта (AGI) стала перегруженным и противоречивым понятием, которое служит слабой научной мишенью для оценки реального прогресса. Вместо погони за этим призрачным идеалом исследователи предлагают радикально сменить ориентир. Их позиция ясна: AGI определен неверно, встречайте сверхразумный адаптивный интеллект (SAI) [1].
Эта идея не просто игра в терминологию, а призыв к фундаментальному переосмыслению будущего ИИ. Далее мы подробно рассмотрим, что скрывается за концепцией SAI и почему адаптивность, а не универсальность, может стать истинным ключом к созданию систем, превосходящих человеческие возможности. Центральный ар
Оглавление

Что, если вся индустрия искусственного интеллекта, от стартапов до технологических гигантов, гонится за целью, которую нельзя ни чётко определить, ни надёжно измерить? Именно этот провокационный вопрос лежит в основе новой научной статьи Яна Лекуна, одного из "крёстных отцов" глубокого обучения, и его команды. Они утверждают, что сама концепция искусственного общего интеллекта (AGI) стала перегруженным и противоречивым понятием, которое служит слабой научной мишенью для оценки реального прогресса. Вместо погони за этим призрачным идеалом исследователи предлагают радикально сменить ориентир. Их позиция ясна: AGI определен неверно, встречайте сверхразумный адаптивный интеллект (SAI) [1].
Эта идея не просто игра в терминологию, а призыв к фундаментальному переосмыслению будущего ИИ. Далее мы подробно рассмотрим, что скрывается за концепцией SAI и почему адаптивность, а не универсальность, может стать истинным ключом к созданию систем, превосходящих человеческие возможности.

Критика AGI от Яна Лекуна: почему человеческий интеллект - плохой эталон

Центральный аргумент новой работы Яна Лекуна и его команды -это
развернутая критика AGI, ставящая под сомнение саму цель, к которой, как
принято считать, стремится вся индустрия ИИ. Речь идет о концепции AGI
(искусственного общего интеллекта). AGI - это гипотетический тип
искусственного интеллекта, способный понимать, обучаться и применять
интеллект для решения любой задачи, которую может выполнить человек. В
статье подробно разбирается, почему AGI определен неверно, и критикуется
его отсутствие четкого и измеримого определения. По мнению
исследователей, термин «искусственный общий интеллект» (AGI) не имеет
чёткого определения и является слабой научной целью, поскольку
человеческий интеллект не универсален и, следовательно, не может служить надежным эталоном для подражания.

Ключевая проблема начинается с распространенного заблуждения, что
человеческий интеллект является «общим». Лекун утверждает, что мы
кажемся универсальными лишь потому, что оцениваем интеллект с точки
зрения задач, сформированных нашей биологией и потребностями выживания.
Мы преуспеваем в восприятии, моторике, планировании и социальном
взаимодействии, но за пределами этого спектра наши способности
ограничены. Во многих областях — от сложных вычислений до анализа
огромных массивов данных — машины уже давно нас превосходят. Эта точка
зрения подчеркивает, что человеческий интеллект лучше понимать как
специализированный и адаптивный, а не как общий в каком-либо универсальном смысле [3]. Мы не универсальные решатели проблем, а скорее высокоадаптивные специалисты в своей экологической нише.

Эта ограниченность человеческого разума напрямую ведет ко второй
проблеме — отсутствию единого определения AGI. Поскольку многие
трактовки неявно опираются на человекоцентричный стандарт, они наследуют
его размытость и непоследовательность. В результате термин
«искусственный общий интеллект» (AGI) стал слишком перегруженным и
используется по-разному как в академических кругах, так и в индустрии
[2].
Одни определяют AGI как систему, способную выполнять все задачи
человека. Другие фокусируются на экономической полезности, широкой
компетентности или способности к открытому мышлению и обучению. Эти
определения неэквивалентны и не создают единой, четкой цели для
исследований.
Отсутствие консенсуса и измеримых
критериев превращает погоню за AGI из научной задачи в преследование
философского идеала, что замедляет реальный прогресс в области ИИ.

Новая цель — SAI: от статических тестов к скорости адаптации

В ответ на концептуальный тупик, связанный с AGI, Ян Лекун и его
соавторы предлагают сместить фокус исследований на новую, более четкую и
измеримую цель. Но что такое сверхразумный адаптивный интеллект (SAI)?
Вместо погони за расплывчатым «общим» интеллектом они вводят это
понятие. Согласно их определению, SAI — это предложенная альтернатива
AGI, определяемая как интеллект, который может быстро адаптироваться,
чтобы превосходить людей в любых задачах, а также осваивать новые
полезные задачи за пределами человеческой области.
Ключевым показателем является
скорость адаптации. Этот подход кардинально меняет саму суть оценки
прогресса в области ИИ, перенося акцент с накопленных знаний на
потенциал к обучению.

Ключевой сдвиг парадигмы заключается в переходе от вопроса «Что
система уже умеет делать?» к вопросу «Как быстро система может научиться
делать что-то новое?». Вместо того чтобы пытаться составить
исчерпывающий список человеческих компетенций и проверять ИИ по нему,
концепция SAI выдвигает на первый план динамическую способность к
обучению. Таким образом,
скорость адаптации как метрика
интеллекта является более важным показателем, чем статическое
перечисление компетенций или фиксированные бенчмарки. Это не просто
семантическое различие, а фундаментальное переосмысление того, что мы
считаем признаком развитого интеллекта. Система может не обладать
навыками игры в шахматы или написания стихов «из коробки», но если она
способна освоить эти и любые другие навыки быстрее и эффективнее
человека, она соответствует критериям SAI.

Такая переориентация решает одну из главных проблем AGI — его
инженерную неопределенность. Оценка интеллекта как статического набора
навыков является неверной абстракцией, поскольку пространство возможных
задач и умений практически безгранично. Создание бенчмарка, который бы
охватывал все, что может делать человек, — невыполнимая задача.
Измерение скорости, с которой система может специализироваться при
столкновении с новой областью или средой, предлагает гораздо более
надежный и масштабируемый
инженерный подход. Это позволяет оценивать не накопленные знания,
которые могут быстро устареть, а фундаментальную способность к росту и
развитию.

В конечном счете, предлагается новый термин — сверхразумный
адаптивный интеллект (SAI), определяемый как способность быстро
адаптироваться и превосходить людей в любых задачах, включая новые. Эта
концепция перенаправляет исследовательские усилия с создания
«всезнающей» системы на разработку универсального «ученика».
Фокус на адаптивности,
а не на универсальности в ее статическом понимании, становится новой
путеводной звездой, способной вывести отрасль из состояния
концептуальной неопределенности и задать ясный вектор для будущего
развития искусственного интеллекта.

Архитектура будущего: специализация, самообучение и модели мира

Вместо погони за мифической монолитной моделью, одинаково хорошо
решающей все задачи, команда Лекуна предлагает прагматичный и более
эффективный путь — модульную специализацию. Идея заключается в том, что
стремление к универсальности часто приводит к посредственности. Будущие
архитектуры ИИ, способные достичь уровня SAI, скорее всего, будут
представлять собой не гигантский «мозг на все руки», а сложную
иерархическую систему из множества взаимосвязанных, но
узкоспециализированных модулей. Каждый такой компонент будет отточен для
своей области: один — для сверхточного распознавания образов, другой —
для долгосрочного планирования, третий — для понимания естественного
языка. Такой подход не только повышает производительность в конкретных
задачах, но и делает всю систему более интерпретируемой и надежной,
избегая компромиссов, неизбежных при попытке создать
единого «мастера на все руки».

Но как обучать такую сложную систему быстрой адаптации к новым
задачам, особенно в реальном мире, где размеченные данные — это роскошь,
а не правило? Здесь на сцену выходит ключевая технология, которую Лекун
продвигает уже много лет, —
самообучение (self-supervised learning)
в ИИ. Самообучение — это парадигма машинного обучения, при которой
модель учится на неразмеченных данных, генерируя свои собственные
сигналы для обучения. Это позволяет системам ИИ извлекать знания из
огромных объемов информации без необходимости ручной разметки. Вместо
того чтобы пассивно ждать инструкций от человека, модель активно
исследует данные, учась предсказывать их скрытые или будущие части. Этот
метод является фундаментальным для достижения адаптивности, заложенной в
концепцию SAI, и его эффективность подтверждается в других передовых
разработках, таких как агент SIMA 2 от Google DeepMind, где принципы
самообучения
[1] играют центральную роль в освоении сложных виртуальных миров.

Однако для подлинно глубокого понимания мира недостаточно просто
предсказывать следующее слово в тексте или следующий кадр в видео.
Современные авторегрессивные большие языковые модели, несмотря на их
впечатляющие возможности, часто демонстрируют лишь поверхностное,
статистическое понимание. Они не улавливают базовые законы физики,
причинно-следственные связи и долгосрочные последствия действий. Чтобы
преодолеть это ограничение, Лекун и его соавторы делают ставку на
модели мира (world models)
в ИИ. Модели мира — это внутренние представления или симуляции
окружающей среды, которые позволяют ИИ-системам предсказывать будущие
состояния, планировать действия и понимать динамику мира. Они
поддерживают адаптацию с нулевым и малым количеством примеров. По сути,
это компактная, выученная симуляция реальности, которая позволяет агенту
«проигрывать» различные сценарии в своем «воображении», прежде чем
действовать в реальном мире. Это обеспечивает гораздо более надежное
планирование и способность адаптироваться к непредвиденным ситуациям.

Этот архитектурный подход не является чисто теоретическим; он уже
активно исследуется и находит отражение в конкретных проектах. В статье
указываются архитектуры скрытого предсказания, такие как JEPA, Dreamer 4
и Genie 2, как примеры направления, которое следует исследовать в этой
области
[4].
В отличие от моделей, предсказывающих каждый пиксель, эти системы
учатся прогнозировать развитие событий на более высоком, абстрактном
уровне представлений. Это делает их вычислительно эффективнее и
устойчивее к незначительным деталям. Важно понимать, что это не готовые
решения для SAI, а скорее
важные шаги и указатели на
пути к созданию систем с глубоким пониманием мира. Именно комбинация
этих идей — специализация, самообучение и модели мира — формирует
техническое видение того, как можно отказаться от погони за монолитным
AGI в пользу более достижимого и мощного SAI.

Дебаты и критика: монокультура LLM и спорные моменты новой концепции

В своей новой работе Ян Лекун и его исследовательская команда
выступают с серьезным предостережением против того, что они называют
архитектурной монокультурой LLM и LMM в современной индустрии
искусственного интеллекта. Сегодняшний ландшафт передовых разработок
характеризуется беспрецедентной степенью однородности, где безраздельно
доминируют авторегрессионные большие языковые и мультимодальные модели.
По мнению исследователей, такая текущая
архитектурная однородность
в передовом ИИ критически сужает пространство поиска альтернативных
решений и может существенно замедлить глобальный технологический
прогресс. Команда Лекуна подчеркивает, что авторегрессионные системы
имеют фундаментальные архитектурные недостатки. Главным из них является
неизбежное накопление ошибок на длинных горизонтах планирования и
генерации, что делает их применение в сложных, многошаговых задачах
физического мира крайне ненадежным и хрупким.

Однако этот призыв к радикальному отходу от текущей парадигмы
вызывает закономерные вопросы и активные дебаты в научном сообществе.
Многие эксперты отмечают, что авторегрессионные LLM и LMM, несмотря на
все их очевидные недостатки и ограничения, продемонстрировали
беспрецедентные
эмерджентные способности и
масштабируемость, которые нельзя просто отбросить как тупиковую
монокультуру. Способность этих гигантских моделей решать нетривиальные
задачи, которым они не обучались напрямую, стала главным драйвером
текущего инвестиционного и научного бума, и игнорировать этот
эмпирический успех было бы недальновидно.

Сама концепция сверхразумного адаптируемого интеллекта (SAI),
предложенная Лекуном в качестве более измеримой альтернативы, также
подвергается тщательному критическому анализу. Возникает резонный
вопрос: не является ли это просто
сменой терминологических декораций?
Определение сверхразумности и адаптивности в рамках SAI может быть
столь же сложным для точного количественного измерения и достижения
широкого консенсуса, как и в случае с AGI, просто смещая фокус с одних
нерешенных метрических проблем на другие. Более того, скорость адаптации
агента к новым условиям, на которую делает главную ставку новая
концепция, хотя и крайне важна, сама по себе не гарантирует глубины
понимания контекста, способности к сложным абстрактным рассуждениям или
этического поведения, которые традиционно ассоциируются с подлинно общим
интеллектом.

Спорным выглядит и базовый тезис команды о специализированной природе
человеческого мышления. Хотя человеческий интеллект действительно имеет
выраженные специализации, обусловленные эволюционным выживанием, его
уникальная способность к переносу знаний и эффективному обучению в
совершенно новых, нетипичных областях является именно тем, что многие
ученые подразумевают под
общностью AGI. Наконец, в
индустрии все чаще звучат скептические мнения о том, что столь жесткая
критика AGI может быть попыткой перенаправить фокус глобальных
исследований в сторону, более выгодную для текущих разработок команды
Лекуна, а не абсолютно объективной оценкой. Активное продвижение
самоконтролируемого обучения и архитектуры мировых моделей идеально
согласуется с долгосрочными интересами его собственной лаборатории, что
заставляет рассматривать концепцию SAI не только как смелый научный
манифест, но и как прагматичный стратегический ход в напряженной
конкурентной борьбе за вектор развития будущего искусственного
интеллекта.

Риски и сценарии: к чему приведёт смена парадигмы в ИИ?

Смена парадигмы, предложенная Лекуном, — это не просто академическая
дискуссия. Она несёт в себе как значительные возможности, так и ощутимые
риски, способные повлиять на всю отрасль. Во-первых, существует
экономический риск:
отвлечение инвестиций и ресурсов от уже успешных направлений AGI в
сторону новой, менее определённой концепции SAI может замедлить текущие
проекты. Во-вторых, на научном уровне это грозит фрагментацией
сообщества. Отсутствие единой цели способно ослабить синергию и
затормозить общий прогресс.

Технологические риски также очевидны. Чрезмерное увлечение
самообучением без глубокого понимания его ограничений может породить
системы с непредсказуемыми ошибками и предвзятостью. Наконец,
социальный риск
заключается в неверном толковании самого термина «сверхразумный
адаптивный интеллект». Это может привести либо к завышенным ожиданиям,
либо, наоборот, к недооценке реальных угроз со стороны систем, способных
к быстрой адаптации без должного контроля. Подобные риски неверного
применения и толкования возможностей систем ИИ уже проявляются в таких
явлениях, как дипфейки, о чём мы писали в статье «Угроза дипфейков: как
ИИ-нудификация стала цифровым насилием»
[2].

Учитывая эти факторы, можно выделить три основных сценария дальнейшего развития событий. Позитивный сценарий
предполагает, что концепция SAI получит широкое признание и станет
катализатором инноваций в области самообучения и моделей мира. Это
приведёт к созданию более гибких и безопасных ИИ. В рамках нейтрального
сценария идеи Лекуна стимулируют здоровую дискуссию, а SAI становится
одним из перспективных направлений наряду с AGI, способствуя
диверсификации исследований. Негативный же сценарий влечёт за собой
путаницу и разногласия в сообществе. Переопределение целей замедлит
прогресс, а отказ от проверенных архитектур приведёт к неэффективному
расходованию ресурсов и потере фокуса.

Переосмысление интеллекта или академический спор?

Работа Яна Лекуна и его команды — это не просто очередная
академическая статья, а фундаментальный вызов устоявшимся представлениям
о конечной цели исследований в области ИИ. Отвергая расплывчатый и
перегруженный противоречивыми смыслами термин AGI, авторы предлагают
новую, инженерно-ориентированную парадигму —
сверхразумный адаптивный интеллект
(SAI). Ключевая идея заключается в кардинальной смене фокуса: вместо
попыток воспроизвести человеческий интеллект во всей его
неоднозначности, следует стремиться к созданию систем, чья главная
метрика — скорость адаптации к новым задачам, в том числе и тем, что
лежат далеко за пределами человеческих возможностей.

Этот сдвиг — от оценки по статическим бенчмаркам к измерению
динамической способности к обучению — представляет собой нечто большее,
чем просто замену одного акронима другим. По сути, это призыв
переосмыслить саму суть того, что мы считаем «сильным» ИИ, и заложить в
его основу
инженерную прагматичность. Станет ли это
предложение катализатором для разработки более гибких и по-настоящему
мощных систем, способных быстро специализироваться под конкретные нужды
реального мира? Или же оно рискует остаться предметом узких
академических споров, в то время как индустрия, вложившая миллиарды в
текущие подходы, продолжит двигаться по инерции?

Время покажет, какой термин в итоге закрепится в лексиконе
исследователей и инженеров. Однако сама по себе инициированная Лекуном
дискуссия уже является неоценимым вкладом и значительным шагом вперед.
Она заставляет все AI-сообщество задаваться вопросом о необходимости
четких, измеримых и практически достижимых целей, отходя от
квазифилософских конструкций. Независимо от исхода этого спора,
стремление к созданию более
строгого научного и
инженерного фундамента для будущего искусственного интеллекта — это
именно тот вектор развития, который принесет реальную пользу в
долгосрочной перспективе.