Туринговский лауреат и бывший главный ИИ‑учёный Meta Янн Лекун всё громче выступает против доминирующей сегодня парадигмы «больше данных–больше параметров–больше RLHF». В свежем двухчасовом интервью The Information Bottleneck он не только объяснил, почему в 65 лет запускает стартап AMI, но и фактически объявил войну мейнстримной стратегии гонки за AGI.
«Путь к суперразуму через LLM — это полная ерунда»
Лекун формулирует свою позицию жестко:
- стратегия «натренируем гигантский LLM, дольём синтетики, наймём тысячи людей на пост‑тренинг и добавим немного RL» — «совершенно несостоятельна»;
- индустрия одержима идеей догнать или превзойти «человеческий интеллект», но при этом игнорирует куда более тяжёлый барьер — уровень «интеллекта собаки».
По его мнению, сегодняшние LLM блистательно умеют:
- воспроизводить текстовые шаблоны;
- цитировать, комбинировать, стилизовать знания.
Но:
- почти не обладают настоящим пониманием физического мира,
- слабо в предсказании последствий действий,
- ещё хуже — в планировании в реальной, непрерывной, шумной среде.
Отсюда его «еретическая» оценка сроков: даже «собачий уровень» ИИ в горизонте 10 лет — уже оптимистичный сценарий. А разговоры о близком AGI он называет «полной чушью».
Ставка на world models: от «красивых картинок» к моделям мира
Лекун уходит из Meta и запускает компанию AMI (Advanced Machine Intelligence), чтобы реализовать альтернативную дорожную карту:
- не LLM как центр Вселенной,
- а world models — модели мира, способные:
- строить абстрактные представления о среде;
- предсказывать её эволюцию во времени;
- использовать предсказания для планирования действий.
Ключевые отличия от мейнстрима:
- Не пиксели и не токены, а абстрактные представления.
LLM разбивают мир на дискретные символы; визуальные генераторы учатся «рисовать, похожее на».
Лекун настаивает:
- полезный ИИ должен работать в пространстве представлений,
- отбрасывать непредсказуемый шум,
- учиться на компактных, информативных признаках (JEPA‑подход — Joint Embedding Predictive Architecture).
- Не реконструкция входа, а предсказание.
Классические автоэнкодеры и многие self‑supervised‑подходы стремятся «восстановить» исходный сигнал. Лекун многолетними экспериментами убедился:
- это ведёт к раздутым, избыточным репрезентациям;
- правильная цель — хорошо предсказывать будущее (в представлениях), а не идеально восстанавливать прошлое.
- Не генерация картинки, а моделирование динамики.
Видео‑генерация впечатляет, но может не иметь никакого реального понимания физики.
Лекун сравнивает это с уровнем: «знаем статистику пикселей, но не законы движения объектов».
Мир же требует обратного:
- пусть модель не прорисовывает каждый пиксель,
- главное — чтобы правильно ухватывала причинно‑следственную структуру.
Почему «уровень собаки» — главный барьер
Лекун соглашается с так называемым парадоксом Моравека:
- компьютеры легко обыгрывают человека в шахматы и го;
- но до сих пор не умеют двигаться, чувствовать и действовать в мире хотя бы как кошка или собака.
По его оценке:
- освоить физический мир, восприятие, моторику, здравый смысл в 3D‑среде — самая сложная часть пути;
- от «собаки до человека» добавляется в основном язык, и здесь прогресс уже неплох — современные LLM частично играют роль «языковых зон мозга».
Следовательно:
- обсуждать AGI сейчас — преждевременно;
- реальная научная задача на ближайшие десятилетия — модели, которые по-настоящему понимают и предсказывают мир, а не просто болтают о нём.
Критика LLM‑подхода и «монокультуры Силиконовой долины»
Лекун видит в текущей индустрии опасную монокультуру:
- крупные игроки (OpenAI, Meta, Google, Anthropic и др.) гонятся за одной и той же целью: всё больше LLM, всё больше синтетических данных, всё больше RLHF;
- любая компания, которая отклонится от этой линии, рискует «выпасть из гонки», поэтому все усиливают одну и ту же парадигму.
Он считает, что это:
- стратегически рискованно — настоящий прорыв может прийти с совершенно другой архитектуры;
- научно ограниченно — LLM по определению плохи в обработке непрерывных, высокоразмерных, шумных наблюдений (видео, физика, сложная сенсорика).
Своей компанией AMI Лекун демонстративно уходит с этого магистрального шоссе и пытается проложить альтернативный маршрут — вокруг world models и планирующих систем.
Безопасность: «LLM не сделаешь безопасным микропатчами»
На фоне дискуссий о рисках ИИ Лекун занимает промежуточную позицию:
- не разделяет апокалиптических сценариев «искусственный сверхразум уничтожит человечество»;
- но согласен, что LLM‑архитектура по своей природе трудно контролируема:
- «джейлбрейки» неизбежны;
- фильтрация контента после генерации — дорого, хрупко и плохо масштабируется;
- выбор «менее токсичного ответа из N вариантов» — вычислительный абсурд.
Он предлагает иной принцип: архитектуры с жёсткими ограничениями и целевыми функциями:
- система должна:
- иметь модель мира;
- планировать действия;
- быть сконструирована так, чтобы любая траектория планирования удовлетворяла встроенным безопасным ограничениям (аналог низкоуровневых правил для бытовых роботов — не бить людей, ограничивать движение с инструментами и т. п.);
- тогда безопасность — не вопрос «запретить фразы», а вшитое в структуру системы свойство.
Поэтому он и говорит:
«Мы не должны пытаться чинить LLM бесконечными фильтрами, нам нужен другой тип систем».
Конфликты в Meta и «Alex Wang не мой преемник»
Интервью касается и внутренних раскладов в Meta:
- LeCun подчёркивает, что Alex Wang не «наследует» его научную роль:
- Вангу отведена позиция управляющего всем AI‑напрвлением компании (исследование, модели, инфраструктура, продукты);
- он — менеджер и координатор, а не исследователь.
- Сам FAIR (исследовательское крыло Meta) уже смещён к более прикладным, краткосрочным задачам, теснее связан с командой больших моделей (TBD Lab) и продуктами (например, SAM теперь формально в продуктовой линии).
Всё это Лекун трактует как признак общего тренда: Meta, как и другие гиганты, движется к большему закрытию и более прикладному фокусу, оставляя меньше пространства для долгосрочного фундаментального поиска.
Почему Лекун начинает стартап в 65 — и чему он его подчиняет
Сам он мотивирует своё решение просто:
- считает, что увеличение «общего уровня интеллекта» в мире — безусловное благо,
- образование и ИИ — две стороны одного и того же процесса,
- сильный ИИ — не только риск, но и колоссальный ресурс, если подойти к инженерии и управлению ответственным образом.
При этом он открыто признаётся:
- неоднократно «опаздывал» с публикациями и видел, как идеи реализуют другие;
- не переживает по поводу приоритета терминов вроде world model — они появились ещё в 1960‑х в системах управления и ракетной технике;
- считает, что проблема не в том, кто первым придумал слово, а в том, кто построит действующую систему.
В сухом остатке
Линия Лекуна — это вызов текущему AI‑консенсусу:
- LLM — мощные, но тупиковые как единственная дорога к «сильному ИИ»;
- главная проблема — научиться интеллект‑уровню живого организма в физическом мире, а не добить ещё пару benchmark’ов по языку;
- модель мира + планирование + встроенные ограничения — его кандидат на основу следующего поколения систем.
Согласиться с ним или нет — открытый вопрос. Но сам факт, что один из архитекторов современной глубокой нейросетевой революции так резко идёт против доминирующего сегодня курса, показывает: в ИИ назревает не только гонка масштабов, но и гонка концепций.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru
Сайт https://www.smssystems.ru/razrabotka-ai/