Inception Labs выпустил самую быструю рассуждающую LLM в мире Mercury 2 основана на диффузионной архитектуре. Если говорить упрощённо, то она генерирует все токены сразу параллельно. Из-за этого пропадает узкое место традиционных LLM, когда текст генерируется последовательно, токен за токеном. В Inception говорят, что Mercury 2 в пять раз быстрее всех существующих аналогов. Качество при этом конкурентоспособное, если сравнивать с другими быстрыми моделями типа Haiku 4.5 и GPT-5 Mini. Попробовать можно бесплатно в чате https://chat.inceptionlabs.ai/. Для доступа к API нужно оставить заявку на сайте.
Inception Labs выпустил самую быструю рассуждающую LLM в мире
1 марта1 мар
~1 мин