Microsoft выпустила Phi-3.5-MoE — усовершенствованную модель искусственного интеллекта, которая по возможностям рассуждения может соперничать с гораздо более крупными моделями, сохраняя при этом компактную и эффективную архитектуру. Модель предназначена для коммерческого и исследовательского использования на нескольких языках. Phi-3.5-MoE использует архитектуру "смешанных экспертов" (Mixture-of-Experts, MoE), которая активирует только ключевые блоки параметров для конкретной задачи, позволяя эффективно использовать вычислительные ресурсы. Эта модель, имеющая 42 миллиарда параметров с активацией только 6,6 миллиардов, демонстрирует высокую производительность в задачах сложного рассуждения, математики, многозадачности и кодирования. Она опережает модели, такие как Llama 3.1 от Meta и Gemma 2 от Google, но уступает GPT-4o mini в ряде тестов. Модель поддерживает контекст длиной до 125 000 токенов, что делает её пригодной для обработки длинных текстов. Phi-3.5-MoE доступна в открытом дост
Новый ИИ от Microsoft: превосходство над более крупными моделями
19 ноября 202419 ноя 2024
14
1 мин