Добавить в корзинуПозвонить
Найти в Дзене
ProAi

Olmo 3.1: Allen Institute выпустил модели, которые догоняют Qwen и Llama. Вот что изменилось

Представляете: Allen Institute for AI (Ai2) только недавно похвасталась своим самым мощным семейством моделей Olmo 3, а уже вернулась с улучшенной версией — Olmo 3.1. Команда не сидела сложа руки: расширила RL-тренировки (это такие специальные методы обучения, где модель учится через усиление результатов) и создала ещё более способные варианты. Новые Olmo 3.1 сосредоточены на трёх ключевых вещах: эффективность, прозрачность, контроль. То есть, если вы корпорация или исследовательская лаборатория — вам будет интересно. Ai2 обновила два основных варианта из трёх версий Olmo 2: Кроме того, осталась Olmo 3-Base — всё ещё хороша для программирования, понимания текстов и математики. Плюс отлично подходит для дополнительной тренировки под ваши нужды. Вот тут интересно. Чтобы апгрейдить Think 32B, исследователи просто продолжили процесс обучения с усилением, но дольше и интенсивнее. Слушайте, что они написали: «После запуска Olmo 3, мы возобновили RL-тренировку для 32B Think — учили 21 день на
Оглавление
   Новая версия Olmo 3.1 от Allen Institute демонстрирует значительный прогресс в области открытых языковых моделей, конкурируя с Qwen и Llama.
Новая версия Olmo 3.1 от Allen Institute демонстрирует значительный прогресс в области открытых языковых моделей, конкурируя с Qwen и Llama.

Представляете: Allen Institute for AI (Ai2) только недавно похвасталась своим самым мощным семейством моделей Olmo 3, а уже вернулась с улучшенной версией — Olmo 3.1. Команда не сидела сложа руки: расширила RL-тренировки (это такие специальные методы обучения, где модель учится через усиление результатов) и создала ещё более способные варианты.

Новые Olmo 3.1 сосредоточены на трёх ключевых вещах: эффективность, прозрачность, контроль. То есть, если вы корпорация или исследовательская лаборатория — вам будет интересно.

Ai2 обновила два основных варианта из трёх версий Olmo 2:

  • Olmo 3.1 Think 32B — флагман для продвинутых исследований, тот самый помощник для серьёзных задач
  • Olmo 3.1 Instruct 32B — создана для диалогов, понимания инструкций, работы с инструментами

Кроме того, осталась Olmo 3-Base — всё ещё хороша для программирования, понимания текстов и математики. Плюс отлично подходит для дополнительной тренировки под ваши нужды.

Как получилась Olmo 3.1?

Вот тут интересно. Чтобы апгрейдить Think 32B, исследователи просто продолжили процесс обучения с усилением, но дольше и интенсивнее. Слушайте, что они написали:

«После запуска Olmo 3, мы возобновили RL-тренировку для 32B Think — учили 21 день на 224 GPU, прогоняя дополнительные циклы через наш датасет Dolci-Think-RL», — сказали в компании. Результат? Это уже не шутки.

Получилась Olmo 3.1 32B Think с заметными улучшениями:

  • 5+ пунктов прироста на AIME (это сложная математика)
  • 4+ пункта на ZebraLogic (логические задачи)
  • 4+ пункта на IFEval (следование инструкциям)
  • 20+ пунктов на IFBench (комплексное тестирование)

Плюс улучшилась работа с кодом и многошаговыми задачами. То есть, модель стала заметно умнее.

Для Instruct версии применили проверенный рецепт из младшей 7B модели и масштабировали на 32B. Результат: «готовая к реальным приложениям» модель для чата и работы с инструментами.

Кто быстрее: Olmo или соперники?

На тестах Olmo 3.1 показала себя уверенно. Think версия обогнала Qwen 3 32B на AIME 2025 и держится вровень с Gemma 27B. А Instruct версия вообще бьёт конкурентов: даже Gemma 3 отстала по математике.

«Это наша самая способная полностью открытая chat-модель на данный момент, — похвастались разработчики, — и, по нашим оценкам, самая сильная полностью открытая 32B-модель для инструкций на рынке».

Кстати, Ai2 не забыла и про RL-Zero 7B для математики и кода — обе модели получили более долгую и стабильную тренировку.

Открытость как конкурентное преимущество

Вот что действительно выделяет Olmo — компания проектировала эти модели так, чтобы дать контроль и понимание. Звучит просто, но это большое дело.

Организации могут:

  • Смотреть и понимать, на чём тренировалась модель
  • Добавлять свои данные в микс
  • Переучивать модель с этими новыми данными

Это давнее кредо Ai2. Они даже создали инструмент OlmoTrace — штука, которая показывает, откуда в выходе модели взялось то или иное утверждение (ищет в тренировочных данных).

«Olmo 3.1 Think 32B и Olmo 3.1 Instruct 32B доказывают: открытость и производительность могут расти вместе», — подчеркнула компания. Расширяя модели, они не потеряли прозрачность над данными, кодом и решениями при тренировке.

Пока что новые модели доступны в Ai2 Playground или на Hugging Face. API доступ обещают позже.

Olmo 3.1 показала, что открытые модели могут конкурировать с закрытыми аналогами. Это важный поворот в развитии AI — и есть о чём следить.🔔 Чтобы не пропустить важные новости про развитие open-source моделей, прозрачность в AI и последние релизы, подпишитесь на мой канал «ProAI» в Telegram!