Найти в Дзене
ProAi

Американская компания бросает вызов китайским гигантам в гонке открытых языковых моделей

Знаете, что странного произошло в 2025 году? Самые передовые открытые языковые модели начали делать не в Кремниевой долине, а в Пекине и Ханчжоу. Представляете? Вся мощь американских инноваций, а лидируют китайцы. Лаборатории из Китая — Alibaba’s Qwen, DeepSeek, Moonshot и Baidu — яростно разрабатывают огромные открытые модели Mixture-of-Experts (MoE), часто с дружелюбными лицензиями и впечатляющими результатами на тестах. Да, OpenAI тоже выпустила свои открытые модели этим летом — gpt-oss-20B и 120B, — но спроса на них не так много. Почему? Просто есть альтернативы получше. Но, погодите. Американская компания решила вернуть себе роль лидера. И это маленький стартап! Arcee AI анонсировала выпуск Trinity Mini и Trinity Nano Preview — первых двух моделей семейства Trinity. Это открытые MoE-модели, полностью обученные в США. Да, слышите? Американские данные, американская инфраструктура, американский контроль. Попробовать первую модель можно прямо сейчас: откройте chat.arcee.ai и поговорит
Оглавление
   Американская технологическая компания запускает амбициозный проект открытых языковых моделей, бросая вызов доминированию китайских IT-гигантов в области искусственного интеллекта.
Американская технологическая компания запускает амбициозный проект открытых языковых моделей, бросая вызов доминированию китайских IT-гигантов в области искусственного интеллекта.

Знаете, что странного произошло в 2025 году? Самые передовые открытые языковые модели начали делать не в Кремниевой долине, а в Пекине и Ханчжоу. Представляете? Вся мощь американских инноваций, а лидируют китайцы.

Лаборатории из Китая — Alibaba’s Qwen, DeepSeek, Moonshot и Baidu — яростно разрабатывают огромные открытые модели Mixture-of-Experts (MoE), часто с дружелюбными лицензиями и впечатляющими результатами на тестах. Да, OpenAI тоже выпустила свои открытые модели этим летом — gpt-oss-20B и 120B, — но спроса на них не так много. Почему? Просто есть альтернативы получше.

Но, погодите. Американская компания решила вернуть себе роль лидера. И это маленький стартап!

Arcee AI анонсировала выпуск Trinity Mini и Trinity Nano Preview — первых двух моделей семейства Trinity. Это открытые MoE-модели, полностью обученные в США. Да, слышите? Американские данные, американская инфраструктура, американский контроль.

Попробовать первую модель можно прямо сейчас: откройте chat.arcee.ai и поговорите с ней. Разработчикам интересно? Скачивайте код на Hugging Face, запускайте, переделывайте под себя — всё это бесплатно и под лицензией Apache 2.0, что означает: никаких проблем с коммерческим использованием.

Да, модели поменьше, чем топовые модели-гиганты. Но это редкий случай: американский стартап разработал открытые модели с нуля, на своей инфраструктуре, с собственным набором данных. Это, правда, не шутка.

Вот что написал Lucas Atkins, технический директор Arcee: «Я в одновременно гордости и адском истощении — это невероятно волнительно, что эти модели наконец вышли. Особенно Mini». Чувствуется, да? Человек работал как одержимый.

Третья модель, Trinity Large, уже в обучении — это будет 420 миллиардов параметров. Планируют запустить в январе 2026. И вот что главное: Atkins написал в манифесте Trinity: «Мы хотим добавить то, чего не хватает: серьёзное открытое семейство моделей, обученное полностью в Америке, которое компании и разработчики смогут по-настоящему контролировать».

От маленьких моделей к большим амбициям

Для Arcee AI это переломный момент. До этого компания славилась компактными моделями для бизнеса. Собрала уже 29,5 миллиона долларов инвестиций, включая 24 миллиона Series A в 2024 году. Выпустила AFM-4.5B и SuperNova — обе решали проблемы регуляции и стоимости для корпораций.

А теперь Arcee поднимается выше. Не просто дополнительная обработка, а полный цикл: от предварительного обучения до развёртывания. Модели, готовые к долгому контексту, синтетическим данным и даже живой переподготовке.

Любопытно: Mini и Nano сначала задумывались как подготовка к Large. Но они так хорошо получились во время экспериментов, что решили выпустить их отдельно.

Техническое сердце: что здесь интересного?

Trinity Mini — это 26 миллиардов параметров, но активны только 3 миллиарда. Рассчитана на быструю работу, вызовы функций, использование инструментов. Trinity Nano Preview поменьше — 6 миллиардов параметров, 800 миллионов активных. Более экспериментальная, с характером, но менее стабильна в рассуждениях.

Обе используют новую архитектуру Arcee — Attention-First Mixture-of-Experts (AFMoE). Звучит сложно? Давайте разберёмся просто.

Представьте call-центр со 128 специалистами. Но для каждого звонка нужны не все — только несколько, в зависимости от вопроса. Это экономит время и энергию. Классный MoE работает именно так.

Но AFMoE делает выбор эксперта не как переключатель — включить или выключить. Это больше похоже на регулировку громкости. Модель может плавно взвешивать ответы нескольких специалистов одновременно. Гораздо умнее!

«Attention-first» — это про внимание. Как вы читаете роман и некоторые части запоминаются ярче других? AFMoE делает это сознательно: локальное внимание (на то, что было только что) плюс глобальное (на важные моменты из прошлого). И ещё есть «gated attention» — это вроде регулятора громкости для каждого потока внимания. Помогает подчеркнуть нужное и приглушить лишнее.

Результат: модель стабильнее во время обучения, работает эффективнее, понимает более длинные разговоры, рассуждает чётче.

Что может делать Trinity Mini?

В Trinity Mini 128 экспертов, активны 8 за раз, плюс один всегда-включённый. Контекст доходит до 131 тысячи токенов — это, если проще, примерно 100 тысяч слов. Можно загрузить целую книгу и она её поймёт.

Тесты показывают: Trinity Mini конкурирует с гораздо более крупными моделями. Даже опережает OpenAI-овские открытые модели в некоторых задачах:

  • MMLU (знания в разных областях): 84.95 из 100
  • Math-500 (математика): 92.10
  • GPQA-Diamond (сложные вопросы): 58.55
  • BFCL V3 (работа с инструментами): 59.67

По скорости работы: 200+ токенов в секунду. Это значит, что ответ появляется быстро — за несколько секунд даже для длинных вопросов. Вполне годится для реальных приложений.

Trinity Nano меньше и не такая надёжная на сложных краях, но показывает: можно запустить MoE даже с меньше чем миллиард активных параметров.

Где её взять и сколько стоит?

Обе модели открыты под Apache 2.0 — это значит: делайте с ними что хотите, в том числе коммерческое использование.

Trinity Mini доступна тремя способами:

  • Hugging Face — скачайте и запустите сами
  • OpenRouter — используйте через API
  • chat.arcee.ai — просто общайтесь в чате

Цена через OpenRouter:

  • $0.045 за миллион входных токенов
  • $0.15 за миллион выходных токенов
  • На OpenRouter есть бесплатный пробный период

Модель уже интегрирована в приложения: Benchable.ai, Open WebUI, SillyTavern. Работает в Hugging Face Transformers, VLLM, LM Studio, llama.cpp — в общем, везде, где нужна.

Данные — это серьёзно: роль DatologyAI

Arcee контролирует собственные данные для обучения. Это огромное отличие от многих открытых моделей, которые берут данные просто с интернета — кто-то авторские, кто-то сомнительного качества.

Помогает компания DatologyAI — стартап, основанный бывшим исследователем Meta и DeepMind Ari Morcos.

DatologyAI автоматизирует фильтрацию данных: удаляет дубликаты, повышает качество, убирает шум и авторские риски. Для Trinity собрали корпус из 10 триллионов токенов в три фазы: 7 триллионов общих данных, 1.8 триллиона высокого качества, 1.2 триллиона — это математика и код.

Это же партнёрство помогло с AFM-4.5B, но для Trinity масштаб намного больше. Arcee говорит: именно фильтры Datology позволили Trinity научиться лучше работать с математикой, вопросами и инструментами.

Интересная деталь: для Trinity Large они создали 10 триллионов синтетических токенов — то есть искусственно сгенерированных данных. Плюс 10 триллионов из отобранного интернета. Итого 20 триллионов токенов для полнофункциональной модели.

Инфраструктура: как они это вообще делают?

Чтобы обучать большие модели в США, нужна серьёзная инфраструктура. За это отвечает Prime Intellect — стартап 2024 года с миссией демократизировать доступ к вычислениям. Начинали с идеи распределённого рынка GPU.

Prime Intellect обучили модель INTELLECT-1 (10 миллиардов параметров) на GPU разных людей в пяти странах. Но потом поняли: да, распределение работает, но для моделей под 100 миллиардов параметров централизованная инфраструктура всё равно эффективнее.

Для Trinity они предоставили: 512 GPU H200 для Mini и Nano, модифицированный TorchTitan runtime, собственный pipeline. Для Trinity Large — 2048 GPU B300 в одном кластере.

И тут главное: всё это под американской юрисдикцией. Известное происхождение компонентов, контролируемая безопасность. Это не маленькая деталь для компаний и правительств.

Почему это важно: стратегия «суверенитета моделей»

Arcee делает ставку на идею: будущее корпоративного AI зависит от контроля над циклом обучения. Не просто дополнительная настройка чужой модели, а полный контроль от данных до развёртывания.

Когда системы становятся умнее и работают с инструментами самостоятельно, вопросы соответствия нормам и контроля целей становятся критичными. Может, даже важнее, чем просто хорошие результаты на тестах.

Atkins написал в манифесте: «Когда приложения становятся амбициознее, граница между моделью и продуктом смещается. Чтобы строить такой софт, нужно контролировать веса и pipeline обучения, не только инструкцию на этапе использования».

Это отличает Trinity от других открытых моделей. Не просто улучшали чужую базовую модель, а построили свою — с нуля. От данных до развёртывания. С партнёрами, которые верят в открытость и независимость.

Что дальше: Trinity Large

Сейчас обучают Trinity Large — 420 миллиардов параметров, та же AFMoE-архитектура, но больше экспертов. 20 триллионов токенов: половина синтетических от Datology, половина из отобранного интернета.

Запуск планируют на январь 2026. После этого — полный технический отчёт.

Если получится — это будет одна из немногих полностью открытых моделей масштаба frontier, обученная в США. Arcee станет серьёзным игроком в открытой экосистеме, когда большинство американских попыток либо закрыты, либо основаны на не-американских фундаментах.

Возвращение открытого исходного кода в Америку

Смотрите, в ландшафте, где самые амбициозные открытые модели делают китайские лаборатории, Arcee делает редкий ход: возвращает американское лидерство в открытой разработке.

С партнёрами по данным и инфраструктуре, построенной с нуля для долгосрочной адаптации — это смелое заявление о будущем американского AI. Показывает: маленькие, неизвестные компании всё ещё могут толкать границы и инновировать открыто, даже когда индустрия становится всё более продуктивной и коммерцией.

Вопрос, конечно, остаётся: сможет ли Trinity Large сравниться с лучше финансируемыми конкурентами? Но Mini и Nano уже в работе. Архитектура сильная. Может быть, Arcee уже доказывает свой тезис: что суверенитет модели, а не просто её размер, определит следующую эру AI.

Интересно следить за тем, как американские компании возвращают себе позиции в гонке открытых языковых моделей? Хотите быть в курсе таких поворотов в мире AI?🔔 Подписывайтесь на мой канал «ProAI» в Telegram, чтобы не пропустить главные новости об открытых моделях, инновациях в AI и стратегиях технологических компаний!