Добавить в корзинуПозвонить
Найти в Дзене
File Energy

Microsoft выпустил три собственные ИИ-модели, а Google открыл Gemma 4 под Apache 2.0 в один день

2 апреля 2026 года произошло то, что индустрия обсуждала несколько недель подряд: два технологических гиганта одновременно сделали заявления, каждое из которых было бы достаточным поводом для отдельного разговора. Microsoft анонсировал три фундаментальные модели собственной разработки. Google выпустил Gemma 4 под лицензией Apache 2.0. Совпадение дат выглядит случайным, но ставки очевидны: и Microsoft, и Google продемонстрировали, что больше не собираются отступать на рынке открытых и собственных ИИ-инструментов. Чтобы понять, что именно произошло и почему это важно, нужно смотреть не только на технические параметры моделей, но и на контекст, в котором они появились. Контекст у каждого из игроков свой, и он многое объясняет. В ноябре 2025 года Microsoft создал команду MAI Superintelligence под руководством Мустафы Сулеймана, CEO Microsoft AI. С момента её формирования прошло ровно шесть месяцев до апрельского объявления. За это время команда выпустила MAI-Image-2 в марте, а теперь сдела
Оглавление

2 апреля 2026 года произошло то, что индустрия обсуждала несколько недель подряд: два технологических гиганта одновременно сделали заявления, каждое из которых было бы достаточным поводом для отдельного разговора. Microsoft анонсировал три фундаментальные модели собственной разработки. Google выпустил Gemma 4 под лицензией Apache 2.0. Совпадение дат выглядит случайным, но ставки очевидны: и Microsoft, и Google продемонстрировали, что больше не собираются отступать на рынке открытых и собственных ИИ-инструментов.

Чтобы понять, что именно произошло и почему это важно, нужно смотреть не только на технические параметры моделей, но и на контекст, в котором они появились. Контекст у каждого из игроков свой, и он многое объясняет.

Как Microsoft за шесть месяцев прошёл путь от реселлера чужих моделей к конкуренту OpenAI

В ноябре 2025 года Microsoft создал команду MAI Superintelligence под руководством Мустафы Сулеймана, CEO Microsoft AI. С момента её формирования прошло ровно шесть месяцев до апрельского объявления. За это время команда выпустила MAI-Image-2 в марте, а теперь сделала его публично доступным вместе с двумя новыми моделями, полностью составив мультимодальный стек.

Три модели охватывают ровно те задачи, которые приносят корпоративным клиентам наибольшую операционную ценность. MAI-Transcribe-1 переводит речь в текст на 25 языках с точностью Word Error Rate 3,9% по бенчмарку FLEURS, что превосходит GPT-Transcribe, Gemini 3.1 Flash и Whisper-large-v3. Пакетная скорость транскрипции составляет 2,5 раза выше существующего Azure Fast предложения. Цена начинается от $0,36 за час, что Сулейман в интервью назвал "вдвое дешевле GPU-стоимости конкурирующих решений аналогичного класса". Примечателен масштаб команды: по словам Сулеймана, MAI-Transcribe-1 создали десять человек.

MAI-Voice-1 генерирует 60 секунд аудио менее чем за одну секунду на одном GPU. Разработчики получили возможность создавать кастомные голоса на основе коротких фрагментов записи. Цена: $22 за миллион символов. MAI-Image-2, дебютировавший на MAI Playground 19 марта, теперь доступен через Foundry в широком коммерческом режиме. Модель занимает третье место в рейтинге семейств моделей на Arena.ai и обеспечивает вдвое более быструю генерацию изображений по сравнению с предшественником. Уже 14 апреля Microsoft выпустил MAI-Image-2-Efficient — оптимизированный вариант на 22% быстрее флагмана, в 4 раза эффективнее по пропускной способности на GPU, и на 41% дешевле по цене за изображение.

Все три модели доступны через Microsoft Foundry и новый MAI Playground. Скорость, с которой команда переходит от анонса к коммерческой доступности, разительно контрастирует с тем, как Microsoft работал в ИИ ещё год назад. Компания, которая два года строила рынок ИИ преимущественно как дистрибьютор чужих моделей, теперь отправляет собственные разработки на своём расписании и по своей цене.

Почему отношения Microsoft и OpenAI трещат по швам и что это означает для рынка

Хватит ли Microsoft самостоятельности? Ответ напрямую связан с тем, как изменились отношения с OpenAI. До октября 2025 года Microsoft по условиям первоначального соглашения 2019 года фактически не имел права самостоятельно разрабатывать системы уровня AGI. Ререговорация партнёрства, завершённая осенью прошлого года, убрала этот запрет и открыла путь к независимому исследовательскому направлению.

Тем временем OpenAI методично снижает зависимость от Microsoft Azure: компания распределяет вычислительную инфраструктуру между CoreWeave, Google и Oracle. В апреле 2026 года главный директор по выручке OpenAI Дениз Дрессер отправила внутренний меморандум, в котором партнёрство с Microsoft было названо фактором, "ограничивающим нашу способность встречать корпоративных клиентов там, где они находятся". Параллельно, Microsoft ещё в середине 2024 года внёс OpenAI в список конкурентов в годовом отчёте. Оба игрока публично сохраняют лояльность, но логика их действий рассказывает другую историю.

Gemma 4 и лицензия Apache 2.0 как стратегический ход Google за право на экосистему

В тот же день, 2 апреля, Google DeepMind выпустил четвёртое поколение открытых весовых моделей Gemma. Семейство состоит из четырёх вариантов: E2B (2,3 млрд эффективных параметров для мобильных устройств), E4B (4,5 млрд), 26B в архитектуре Mixture of Experts и 31B Dense для рабочих станций. Все четыре построены на той же исследовательской базе, что и проприетарный Gemini 3.

Технические показатели впечатляют сами по себе. Флагманская 31B модель набрала 89,2% на AIME 2026 (математический бенчмарк с жёсткими условиями), 80,0% на LiveCodeBench v6, рейтинг Codeforces ELO 2150. На Arena.ai она занимает третью строчку в глобальном рейтинге, не среди открытых моделей, а среди всех, включая закрытые коммерческие. Для сравнения: Gemma 3 27B без режима reasoning набирала 20,8% на AIME и 29,1% на LiveCodeBench. Прирост на порядок.

Но если бы речь шла только о бенчмарках, Gemma 4 была бы ещё одним хорошим открытым релизом в чрезвычайно конкурентном апреле 2026 года. В тот же день Alibaba выпустил Qwen 3.6-Plus с контекстным окном в один миллион токенов. У конкурирующей модели окно достигает десяти миллионов. Исключительно по этому параметру Gemma 4 проигрывает обоим: 256K у флагмана и 128K у edge-моделей.

Главным событием апрельского релиза стала лицензия. Впервые за всю историю семейства Gemma Google выпустил модели под Apache 2.0. Никаких пользовательских соглашений. Никаких "Harmful Use" оговорок, требующих юридической интерпретации. Никаких ограничений на коммерческое использование, перераспределение или доработку. Разработчик может взять Gemma 4, дообучить на проприетарных данных, выпустить под собственным брендом и конкурировать даже с продуктами самого Google, и всё это полностью легально по стандартной лицензии, которую юридические отделы уже умеют читать.

Что лицензионный вопрос означал для разработчиков все эти годы

Gemma 3 была технически сильной моделью. Многие разработчики это понимали. Но стандартный диалог с юридическим отделом заканчивался одинаково: кастомная лицензия Google требовала анализа, этот анализ занимал время, а Qwen или Mistral просто работали под Apache 2.0. Стартапы, получившие инвестиции и озабоченные чистотой цепочки прав, переходили к конкурентам не потому, что те были лучше, а потому что там не было юридического риска.

Apache 2.0 устраняет этот барьер полностью. Можно модифицировать. Можно перераспределять коммерчески. Можно использовать для построения продуктов, конкурирующих с Google. Нет порогов по выручке. Нет лимитов по числу пользователей. Нет требований к отчётности об использовании. CEO Hugging Face Клеман Делонг назвал это "огромной вехой" прямо в день объявления, и за этой оценкой стоит практическое понимание того, сколько команд не могли работать с Gemma по нетехническим причинам.

Gemma 4 на edge-устройствах и нативная мультимодальность как конкурентная ставка

Среди технических характеристик релиза несколько заслуживают особого внимания. E2B и E4B модели поддерживают нативный аудиовход для распознавания речи: это отличает их от большинства конкурентов в соответствующем весовом классе. Все четыре варианта обрабатывают изображения при переменных соотношениях сторон, распознают рукописный текст и таблицы. Функциональные вызовы встроены в модели на этапе обучения, а не реализованы через инструкции, что снижает накладные расходы на промпт-инжиниринг при построении агентных пайплайнов.

Google называет Gemma 4 "байт на байт наиболее производительным открытым семейством" и добавляет, что edge-варианты оптимизированы для миллиардов Android-устройств. NVIDIA сотрудничал с Google над оптимизацией для своих GPU-линеек. Ollama и llama.cpp получили поддержку с первого дня. Unsloth выпустил квантизированные версии для дообучения в тот же день, что и сама модель.

Два события одного дня показали разные вещи. Microsoft продемонстрировал, что способен строить конкурентоспособный мультимодальный стек малыми командами с высокой скоростью итерации. Google показал, что открытость, понятая буквально, без юридических звёздочек и специальных условий, может стать стратегическим преимуществом в борьбе за экосистему разработчиков. Оба хода сделаны в одном направлении: к миру, где ни OpenAI, ни какая-либо другая компания не является единственным поставщиком инфраструктуры для генеративного ИИ.

https://fileenergy.com/sozdanie-i-prodvizhenie-sajtov