Добавить в корзинуПозвонить
Найти в Дзене
Neurogen

🏦 T-pro-it-2.0: Новое поколение гибридных рассуждающих моделей

🏦 T-pro-it-2.0: Новое поколение гибридных рассуждающих моделей Команда t-tech представила коллекцию моделей T-pro 2.0 — гибридные модели рассуждения, построенные на основе Qwen 3 32B и показывающие неплохие результаты в русскоязычных бенчмарках. 🔘Что особенного в T-pro-it-2.0? 🧠Гибридное рассуждение Модель может работать в двух режимах: - Thinking mode — для сложных задач с пошаговым рассуждением - Non-thinking mode — для быстрых ответов на простые вопросы 📊 Впечатляющие результаты T-pro-it-2.0 превосходит базовую модель Qwen 3 32B по всем ключевым метрикам 🔘Полная коллекция форматов - T-pro-it-2.0 — основная модель (265 лайков!) - T-pro-it-2.0-eagle — оптимизированная версия - T-pro-it-2.0-GGUF — для локального запуска - T-pro-it-2.0-FP8 — сжатая версия - T-pro-it-2.0-AWQ — квантизованная модель 🔘Качество обучения 📚Данные для обучения: - 40B токенов данных для предобучения (1/3 — задачи на рассуждение) - ~500K высококачественных инструкций для файнтюнинга - ~100K тщате

🏦 T-pro-it-2.0: Новое поколение гибридных рассуждающих моделей

Команда t-tech представила коллекцию моделей T-pro 2.0 — гибридные модели рассуждения, построенные на основе Qwen 3 32B и показывающие неплохие результаты в русскоязычных бенчмарках.

🔘Что особенного в T-pro-it-2.0?

🧠Гибридное рассуждение

Модель может работать в двух режимах:

- Thinking mode — для сложных задач с пошаговым рассуждением

- Non-thinking mode — для быстрых ответов на простые вопросы

📊 Впечатляющие результаты

T-pro-it-2.0 превосходит базовую модель Qwen 3 32B по всем ключевым метрикам

🔘Полная коллекция форматов

- T-pro-it-2.0 — основная модель (265 лайков!)

- T-pro-it-2.0-eagle — оптимизированная версия

- T-pro-it-2.0-GGUF — для локального запуска

- T-pro-it-2.0-FP8 — сжатая версия

- T-pro-it-2.0-AWQ — квантизованная модель

🔘Качество обучения

📚Данные для обучения:

- 40B токенов данных для предобучения (1/3 — задачи на рассуждение)

- ~500K высококачественных инструкций для файнтюнинга

- ~100K тщательно отобранных примеров для preference tuning

🔥Рекомендованные параметры:

- Простые запросы: temperature ≤ 0.3

- Стандартные задачи: temperature ≈ 0.6

- Сложные рассуждения: temperature ≥ 0.8

🔘Практический пример

Модель справляется с математическими задачами, показывая пошаговое решение:

prompt = (

"Пожалуйста, вычисли определённый интеграл ∫_0^1 x² eˣ dx, "

"пошагово объясни решение и укажи окончательный результат."

)

И получает детальное решение с промежуточными рассуждениями

Ответ модели

🔘Простой запуск

Модель поддерживает запуск через:

- SGLang (рекомендуется)

- HuggingFace Transformers

- vLLM

Контекст: до 32K токенов (расширяется до 128K)

Hugging Face