Tiiny AI Pocket Lab (он же Tiiny AI Pocket, или просто Tiiny) — это тот самый проект карманного "локального AI-суперкомпьютера", о котором я упоминал раньше. Это устройство размером с powerbank (142 × 80 × 22 мм, вес 300 г), позиционируемое как самый маленький персональный AI-суперкомпьютер в мире (подтверждено Guinness World Records для мини-ПК с локальным запуском 100B+ LLM).
На февраль 2026 года оно ещё не вышло в продажу — проект находится в фазе предзаказа на Kickstarter.
- Официальный запуск кампании на Kickstarter — февраль 2026.
- Ориентировочная дата доставки (estimated delivery) — август 2026.
- Пока что можно оставить refundable депозит $9.90 на сайте, чтобы заблокировать скидку и место в очереди. После запуска Kickstarter депозит засчитывается в полную стоимость.
- Приоритетная доставка: США, Германия, Великобритания, Франция, Италия, Испания, Нидерланды, Сингапур. Другие страны — возможно за доплату.
- Нет в обычных магазинах типа Amazon пока — это краудфандинг + прямые предзаказы от производителя.
Цена
- Супер ранняя bird цена (super early-bird): $1,399 (ретейл ~$1,500+).
- С депозитом $9.90 сейчас — скидка $100, итого $1,299 (и Tiiny обещает, что это будет самая низкая цена за всю жизнь продукта).
- Депозит полностью возвратный (refundable) — пишешь на support@tiiny.ai, возвращают в течение 7 рабочих дней (минус комиссии банка за твой счёт).
- Нет подписки или ежемесячных платежей — все AI-функции локальные и бесплатные навсегда.
Конфигурация (аппаратные спецификации)
Похоже, единственная конфигурация (все источники указывают одни и те же specs, без вариантов):
- Процессор: 12-ядерный ARM v9.2 CPU.
- AI-ускоритель: Кастомный heterogeneous модуль (SoC + NPU 30 INT8 TOPS + dNPU 160 INT8 TOPS) → всего ~190 TOPS (INT8).
- Память: 80 ГБ LPDDR5X (6400 MT/s, unified memory — очень много для такого размера!).
- Хранение: 1 ТБ PCIe 4.0 SSD.
- Производительность: Запускает до 120B-параметровых LLM полностью локально (оффлайн, приватно), скорость генерации ~18–40 токенов/с (зависит от модели).
- Другие фичи: Bluetooth 5.3 LE, Wi-Fi 6 (до 2.4 Гбит/с), 3× USB Type-C, встроенный микрофон + моно-аудио выход, TDP 30 Вт (система ~65 Вт, нужен адаптер минимум 65 Вт).
- Особенности: Полностью локальный AI (нет облака, приватность 100%), поддержка больших моделей для "PhD-level reasoning", генерация изображений, кодинг и т.д. прямо на устройстве. OTA-обновления, включая "hardware upgrades" (OTA? Возможно софт-улучшения NPU).
Это не обычный мини-ПК — акцент именно на мощный локальный AI-инференс (LLM до 120B) в карманном форм-факторе, без облачных API. Целевая аудитория: разработчики, исследователи, энтузиасты приватного AI, кто хочет экспериментировать с большими моделями без облака и без огромных серверов.
Риски/реальность: Это стартап, Kickstarter, Guinness-сертификат и CES-присутствие. Если интересно — депозит маленький и refundable, можно мониторить.
Tiiny AI Pocket Lab и Olares One: Краткое сравнение тут (кликай)
Tiiny AI Pocket Lab и Olares One — это два разных устройства в нише локального AI, но они не прямые конкуренты по форм-фактору и назначению. Tiiny — карманный (pocket-sized) "суперкомпьютер" для мобильности и приватности, Olares One — мощный мини-десктоп (3.5 литра, как маленький ПК на столе) для максимальной производительности.
Форм-фактор
- Карманный (142 × 80 × 22 мм, 300 г) — действительно помещается в карман, как powerbank. Guinness рекорд как самый маленький мини-ПК с 100B+ LLM. Tiiny — если нужна мобильность и "везде с собой".
- Мини-десктоп (320 × 197 × 55 мм, ~3.5 л) — на столе, не портативный, но компактный для такой мощи. Olares — если нужен стационарный зверь.
Производительность AI
- ~190 TOPS (INT8), кастомный NPU/dNPU + ARM CPU. Запускает до 120B моделей локально (~18–40 токенов/с в зависимости от модели). Tiiny — для "нормальной" работы с большими моделями, но медленнее.
- ~1824 TOPS (благодаря RTX 5090 Mobile). Гораздо выше throughput: 100–150+ токенов/с на моделях (vLLM/Ollama), лидирует в бенчмарках по LLM, image/video gen. Olares One гораздо круче по сырой скорости и большим/сложным задачам (MoE-модели, высокая concurrency, генерация изображений/видео).
Память / Хранение
- 80 ГБ LPDDR5X (unified) + 1 ТБ SSD.
- 96 ГБ DDR5 + 2 ТБ NVMe SSD + 24 ГБ GDDR7 VRAM (отдельная на GPU). Olares — больше и быстрее для тяжёлых контекстов/мультимодальных задач.
Процессор / GPU
- 12-ядерный ARM v9.2 + кастом heterogeneous NPU (без дискретной GPU). Tiiny — энергоэффективный ARM, тише и холоднее.
- Intel Core Ultra 9 275HX (24 ядра) + NVIDIA RTX 5090 Mobile (24 ГБ). Olares — топовый x86 + Nvidia GPU, лучше для CUDA-оптимизированных моделей, inference и творчества.
Потребление
- 30 Вт TDP, ~65 Вт система — супер-энергоэффективно. Tiiny — если важна автономность/портативность.
- Выше (RTX 5090 Mobile жрёт много), но тихий кулер (23–39 дБ).
ОС / Экосистема
- TiinyOS (Linux-based, one-click модели, OTA-обновления). Полностью локально, приватно. Tiiny — проще, фокус на LLM-инференсе
- Olares OS (open-source на Kubernetes, 200+ apps в App Market, self-hosting, personal cloud). Olares — богаче для полноценного "личного облака" (файлы, автоматизация, агенты).
Цена
- ~$1,299–1,399 (super early bird с депозитом). Tiiny в 2+ раза дешевле.
- ~$2,899 (Kickstarter/early), MSRP ближе к $3,999–4,000.
Для кого
- Энтузиасты приватного AI, кто хочет "в кармане" большие модели без облака, разработчики на ходу.
- Профессионалы, креаторы, кто хочет максимум скорости/throughput локально (замена подпискам на ChatGPT/Claude/Midjourney). Зависит от нужд.
Вывод: круче ли Tiiny чем Olares One? Olares One круче по абсолютной производительности — это "зверь" с RTX 5090 Mobile, который рвёт в скорости генерации, поддержке concurrency, image/video gen и тяжёлых моделях. Он ближе к "замене облачным подпискам навсегда" для серьёзных задач (бенчмарки показывают лидерство над Mac Studio M3 Ultra в AI-throughput).
Но Tiiny круче в своей нише: если тебе нужен именно карманный, супер-приватный, энергоэффективный девайс для запуска 70–120B моделей где угодно (оффлайн, без шума/тепла), без огромного стола — Tiiny выигрывает по портативности, цене и "wow-фактору" (Guinness рекорд). Olares — это десктопный монстр, Tiiny — портативный "личный AI-ассистент".
Если бюджет/мощь на первом месте и не нужна мобильность — бери Olares One (он уже ближе к доставке и доказал себя в бенчмарках). Если хочешь что-то уникальное, дешёвое и в карман — Tiiny (но жди августа 2026). Оба — крутые шаги к настоящему локальному AI без облаков!
Оба, что важно, прямо с Kickstarter!
Сравнение с Apple Mac Studio
Сравнение Tiiny AI Pocket Lab и Olares One с Apple Mac Studio (на февраль 2026 года, фокус на локальном AI, LLM-инференсе, производительности и цене).
Apple Mac Studio (актуальная линейка 2025–2026) — это десктопный "профессиональный" монстр от Apple с чипами M4 Max (базовый) или M3 Ultra (топовый). Он оптимизирован под unified memory (общая память CPU/GPU/Neural Engine), отличен для креатива, видео, но в локальном AI (LLM, image gen) часто уступает Nvidia-системам в сырой скорости, зато выигрывает в энергоэффективности, тишине и интеграции с macOS.
Ключевые конфигурации для сравнения
- Mac Studio M4 Max (базовый/средний): от $1999–$3699 (16-core CPU, 40-core GPU, до 128 ГБ unified memory, 546 ГБ/с bandwidth).
- Mac Studio M3 Ultra (топ): от $3999+ (до 32-core CPU, 80-core GPU, до 512 ГБ unified memory — но реально до 256–512 ГБ для AI).
- Olares One: ~$2899–$2999 (Intel Core Ultra 9 275HX + RTX 5090 Mobile 24 ГБ GDDR7, 96 ГБ DDR5, 2 ТБ SSD).
- Tiiny AI Pocket Lab: ~$1299–$1399 (ARM v9.2 12-core + кастом NPU ~190 TOPS, 80 ГБ LPDDR5X, 1 ТБ SSD).
Вывод: кто круче в целом?
- Olares One — круче Mac Studio по сырой AI-скорости (особенно inference LLM, image gen — до 7x в некоторых тестах благодаря RTX 5090 Mobile и FP4/INT4). Дешевле топового M3 Ultra, лучше для CUDA-оптимизированных задач (vLLM, ComfyUI). Минус: выше TDP, меньше unified memory для сверхбольших контекстов.
- Mac Studio (M4 Max/M3 Ultra) — лучше в энергоэффективности, тишине, интеграции (Apple Intelligence, MLX для оптимизированных моделей), и unified memory позволяет загружать огромные модели (до 512 ГБ!). Отличен для креатива + AI, но в чистом LLM-throughput часто проигрывает Nvidia-системам. Цена выше за топ-конфиг.
- Tiiny AI Pocket Lab — не круче ни одного по скорости (медленнее в 3–10x), но уникален по портативности и цене: запускает 120B модели в кармане, приватно, оффлайн. Идеален как "второй мозг" для разработчиков/исследователей на ходу, но не заменит десктоп для тяжёлых задач.
Если нужен максимум скорости локального AI — Olares One > Mac Studio.
Если баланс мощь/тишина/экосистема — Mac Studio.
Если карман + приватность + бюджет — Tiiny.
Все три — прорыв в локальном AI 2026 года, без облаков!
Сравнение с Nvidia Jetson
Сравнение Tiiny AI Pocket Lab с Nvidia Jetson (на февраль 2026 года, фокус на локальном AI, особенно LLM-инференсе).
Nvidia Jetson — это целая линейка embedded-платформ для edge AI, robotics, computer vision и IoT. Самые актуальные и сравнимые по размеру/назначению — Jetson Orin Nano Super (самый дешёвый и pocket-sized) и более мощные вроде Jetson AGX Thor или Jetson T4000 (для тяжёлых задач). Tiiny AI Pocket Lab — это стартап-устройство, ориентированное именно на большие LLM (до 120B параметров) в карманном форм-факторе, с Guinness-рекордом как "самый маленький мини-ПК с 100B+ LLM локально".
Ключевые конфигурации для сравнения:
- Tiiny AI Pocket Lab — единственная конфигурация (~$1,299–1,399 early bird, Kickstarter февраль 2026, доставка ~август 2026).
- Jetson Orin Nano Super Developer Kit — $249 (самый доступный, palm-sized, уже в продаже).
- Jetson AGX Thor / Jetson T4000 — топовые (от ~$899–$2000+, 100–2070 TFLOPS/FP4, для robotics и frontier AI).
Если ты ищешь дешёвый вход в локальный AI/robotics — бери Jetson Orin Nano Super ($249). Для тяжёлого edge/роботов — Jetson Thor/T4000.
Если максимум приватности + большие модели в кармане и готов ждать — Tiiny.
- Jetson в целом круче по экосистеме, скорости (особенно Thor/T4000 — до 2070 TFLOPS), оптимизации (CUDA/TensorRT для LLM/vision), доступности и цене (Orin Nano Super за $249 — зверь за свои деньги). Jetson — проверенная платформа для robotics, autonomous systems, edge inference (много бенчмарков, поддержка от Nvidia).
- Но Tiiny круче в своей нише: если нужен именно карманный девайс с 80 ГБ RAM для загрузки 120B-моделей полностью локально (без свопинга, с большим контекстом) — Tiiny уникален (Guinness-рекорд, 190 TOPS в 300 г). Jetson Orin Nano не потянет 120B (мало RAM), а Thor — мощнее, но не карманный и дороже/больше TDP.
Оба — крутые шаги к настоящему edge AI без облаков, но Jetson пока лидирует по зрелости!