Решил посмотреть на ситуацию глазами реального потребителя. Хочу локальный AI. Это же просто, да? Нет. Открытые модели наконец стали нормальными. DeepSeek V4-Flash, Qwen 3.6-27B — это уже не игрушки. Реально заменяют ChatGPT/Claude для большинства задач. Бесплатно, локально, ваши данные никуда не уходят. Берёшь сервер, запускаешь, всё работает. Казалось бы. Но нет. Для нормальных моделей нужно минимум 128 ГБ памяти. Звучит как технический нюанс. На практике — это ад. Mac Studio M4 Max 128 ГБ — идеальная машина. Но недоступна нигде на планете. Глобальный дефицит RAM. Производители памяти отдают всё AI-датацентрам, на потребительские устройства не хватает. DGX Spark / Dell Pro Max GB10 — есть в наличии, $3 700–4 700, полный CUDA стек, DeepSeek V4 запустился в день релиза. Но это сервер, не компьютер. И память в три раза медленнее чем у Mac — 273 ГБ/с против 819 ГБ/с. На генерации токенов разница огромная. GMKtec EVO-X2 — китайский мини-ПК, те же 128 ГБ за $2 000. Раскупают мгно
В последнем посте про экономику AI-бума я упомянул контртренд против повышения цен за облака — домашние АИ серверы
28 апреля28 апр
1 мин