3 подписчика
Сейчас все, что связано с LLM, завязано на GPU. Компании скупают их десятками. Но, возможно, года через три GPU уже будут не так нужны, так как никто ничего перемножать не будет. Потому что люди перейдут на однобитные модели. Тутarxiv.org/...pdff неплохо написано про их преимущества.
А ведь нет умножений - можно и на FPGA ускоритель сделать.
Думаю, что одеобитные и тернаные модели -то путь к реальному пониманию того, как работает мозг. Ведь вряд ли там что помножается.
За последний год появилось достаточно много обнобитных моделей, так что направление вполне жизнеспособное.
Около минуты
2 ноября 2025