Обещают запускать языковые модели до 120 млрд параметров полностью локально (без интернета, облака и «дайте RTX»), потребляя всего 65 Вт: внутри 12‑ядерный ARM, TurboSparse «будит» только нужные нейроны, а Powerinfer делит нагрузку между CPU и ускорителем. Данные шифруются и остаются на устройстве, уже поддерживаются Llama/DeepSeek/Mistral, а полную презентацию везут на CES в январе 2026... Зачем? Не знаю. Прикольно :) Русский ИТ бизнес
Tiiny AI занесли в Гиннесс: их Pocket Lab - «AI‑суперкомпьютер» размером с пауэрбанк
ВчераВчера
~1 мин