По его мнению, текущая парадигма больших языковых моделей упирается в потолок. Да, сейчас все говорят про «агентные системы». Но если строить их просто как надстройку над LLM - фундамент изначально слабый. Проблема в том, что LLM не умеют по-настоящему планировать действия. Они не понимают мир, не моделируют последствия, а в основном предсказывают следующий токен по статистике. Это выглядит умно, но это не то же самое, что иметь внутреннюю модель мира и причинно-следственные связи. Чтобы получить по-настоящему интеллектуальное поведение, нужна архитектура другого класса - не просто «больше параметров», а другой принцип работы. И это, по сути, заявка на то, что эпоха «просто масштабируем трансформеры» подходит к пределу.
⚡️ Yann LeCun считает, что одними только LLM до человеческого уровня интеллекта или суперинтеллекта не добраться
31 января31 янв
5
~1 мин