Мы привыкли к тому, что искусственный интеллект «думает вслух». Chain-of-Thought, рассуждения в тексте, многошаговые ответы — всё это выглядит почти по-человечески. Но новое исследование с интригующим названием Scaling Latent Reasoning via Looped Language Models (Масштабирование скрытого рассуждения с помощью циклических языковых моделей) предлагает радикально иной путь: убрать текст из процесса мышления вообще. Архитектура Ouro ломает привычную логику LLM. Вместо того чтобы рассуждать через генерацию токенов, модель выполняет итерационные вычисления прямо в скрытом пространстве. И делает это не во время инференса, а уже на этапе предобучения. Результат — компактные модели на 1.4B и 2.6B параметров, которые по качеству рассуждений догоняют, а иногда и превосходят 12B-гигантов. Текст — это интерфейс для человека, а не естественная среда для вычислений. Когда мы заставляем модель «думать словами», мы: Ouro идёт другим путём: мысль = трансформация скрытых состояний, а не последовательност
Когда ИИ думает молча: почему «скрытое мышление» — это следующий шаг эволюции моделей
4 января4 янв
3 мин