Но круто больше, чем непонятно. Упорный гражданин захардкодил интерпретатор WASM прямо в веса трансформера, чтобы не терять в качестве. То есть, по сути, он впихнул внутрь LLM виртуалочку, способную выполнять вычисления, а не угадывать и делать предположения о том, сколько будет два плюс три, как это заведено у них сейчас. Вообще, идея крутая. Вместо того, чтобы пытаться тренировать модель до посинения, достаточно просто выдать ей калькулятор и научить решать практические вещи. https://www.percepta.ai/blog/can-llms-be-computers