Stefano Ermon (Inception Labs) представил Mercury 2 — первый «рассуждающий» dLLM (Diffusion Large Language Model). В основе,- диффузия вместо авторегрессии. Результат — пятикратный рост производительности и скорость свыше 1000 токенов в секунду. 🏗 Диффузия вместо печатной машинки Главное отличие: обычные LLM работают как печатная машинка (авторегрессионно, токен за токеном). Mercury 2 работает как редактор — параллельно и итеративно уточняет весь контекст сразу. Это позволяет модели ловить собственные ошибки прямо в процессе генерации и радикально снижать стоимость инференса. 📺 Аналогия: Эволюция форматов Это как переход от записи звука на виниловую дорожку (где одна царапина губит всё) к цифровому мастерингу. В авторегрессии ошибка в первом токене ведет к галлюцинации всей цепочки. Mercury 2 «перерисовывает» ответ, пока он не станет верным, что делает её идеальной для сложных многошаговых агентов. ⚡️ Агентский дедлайн Скорость в 1000 токенов/сек — это не просто цифра. Это воз
Mercury 2: Диффузионный ИИ врывается в мир агентских рассуждений со скоростью 1000 токенов/сек
25 февраля25 фев
1 мин