Mistral 3 Mistral Large 3 - флагман: • 675B параметров (активны 41B) • Sparse Mixture-of-Experts (MoE) - первая MoE-модель Mistral после легендарной Mixtral • Мультимодальность: текст + изображения (визуальный энкодер на 2.5B параметров) • Контекстное окно 256K токенов • Обучена с нуля на 3000 GPU NVIDIA H200 Ministral 3 - семья компактных моделей для edge-устройств: • Три размера: 3B, 8B, 14B параметров • Для каждого размера три варианта: Base, Instruct, Reasoning • Все с поддержкой изображений и мультиязычности • Могут работать на ноутбуках, смартфонах, дронах😏 🔘Характеристики Производительность Mistral Large 3: • #2 в LMArena среди open-source моделей без reasoning (#6 в общем зачёте) • 81% точности на MMLU benchmark • Лучшая модель для неанглоязычных диалогов • Конкурирует с GPT-4 и Claude, оставаясь открытой Ministral 3: • 14B Reasoning: 85% на AIME 2025 - задачи олимпиадного уровня по математике • Лучшее соотношение цена/качество среди всех open-source моделей • Генерирует