Интернет отвалился — и ты как без рук. ЧатЖПТ не отвечает, tabs закрываются в грусти, а тебе надо дописать письмо, собрать SQL-запрос, подогнать текст под стиль, или просто спросить: «А как по‑английски “выдрать из контекста”?»
Было такое?
Вот и у меня было. И я пошёл искать способ, как запускать ИИ локально, прямо на своём ПК. Чтобы без серверов, без «извините, превышена квота», без тупящих браузеров.
И я нашёл.
Знакомься: LM Studio + локальные модели вроде Claude 3.5, Mistral, Deepseek, Gemma, Qwen, OpenChat (chatgpt 3.5) и других.
Подожди. А можно по-русски: что за LM Studio?
Это такая штука — визуальный лаунчер для локальных LLM‑моделей.
Она:
- ставится как обычная программа (Windows/macOS)
- скачивает нейросети локально (в виде .gguf файлов)
- запускает их у тебя прямо на компе
- даёт тебе интерфейс как у chatgpt com, только офлайн
Поставил — и поехали. Никаких консольных ковыряний и Ollama с бубнами. Работает сразу. Даже GPU не обязателен (но с ним, конечно, быстрее).
Установил Claude 3.5. И вот что я понял
Из всех моделей я первым делом поставил Claude 3.5.
Скажу сразу: он реально мощный.
Он не просто отвечает, он держит контекст, понимает стиль, не тупит на простых вопросах. Это тебе не «предсказатель слов», это почти замена ChatGPT 4 в офлайне.
Писал статьи, переписывал куски кода, редактировал тексты, делал дайджесты. Было странное ощущение: как будто я пишу с ИИ, но без интернет-кабеля.
Да, по скоростям не гепард. Но стабильно. Да, не всегда угадывает. Но ты хотя бы не ждёшь ответов сервера.
И это — кайф.
Где это вообще пригодится
Варианты, когда локальный ИИ — как спасательный круг:
- 💻 У тебя часто отваливается интернет (да, привет провайдерам)
- 🔐 Ты не хочешь делиться данными с внешними API (клиентская переписка, код, статьи)
- 🧠 Ты учишься/работаешь в офлайне и хочешь помощника, который не зависит от облаков
- ⚙️ Ты автоматизируешь процессы — например, в n8n, и хочешь локального ИИ в цепочке
- 🧳 Ты часто в поездках — и хочешь ИИ, который не просит Wi-Fi
Всё это — про локальный ИИ.
Как установить LM Studio и запустить модели
Прямо по пунктам. Без воды:
- Зайди на lmstudio.ai
- Скачай под свою ОС (есть под Windows и macOS)
- Установи как обычную программу
- Открой. Перейди во вкладку Models
- Найди нужную модель (например, Claude 3.5, Mistral 7B, Deepseek-Coder 6.7B, OpenChat)
- Жми Download и выбирай .gguf под свою видеокарту (CPU или GPU)
- После скачивания — жми «Launch», и всё. Модель работает.
Работает прямо в окошке LM Studio. Можно писать как в chatgpt com, можно через API (если ты автоматизируешь).
Какие модели можно скачать
Их реально много.
В LM Studio целый каталог: десятки моделей, на любой вкус.
Часть — языковые (общие, как ChatGPT), часть — кодовые (для Python, SQL, JS и прочего).
Вот что попробовал я:
- Claude 3.5 — мощная, очень цепкая. Иногда кажется, что она умнее, чем надо 😅
- OpenChat — это версия chatgpt 3.5, но локально. Лёгкая, стабильная, достаточно умная.
- Mistral 7B — быстрая, почти не тормозит, идеальна для обычных задач
- Deepseek (aka Deppseek, Deepseeek) — модель заточена под код, но умеет и тексты
- Gemma 7B — от Google, тоже хороша, хотя не всегда угадывает с тоном
- Qwen — от китайских разработчиков, неожиданно грамотная модель
Всё бесплатно. Просто качаешь — и работаешь.
Как использовать локальный ИИ в повседневке
Вот как я применял за последние дни:
- ✍️ Редактировал посты для Telegram (прям в LM Studio)
- 📑 Составлял списки, чек-листы, описания
- 🧠 Переписывал шаблоны для ботов
- 💬 Подгонял тексты под стиль клиента
- 🧑💻 Разбирал сложные JSON/SQL/PHP запросы
- 📚 Переводил тексты без гугл-транслейта
Работает как будто ты сидишь с копирайтером или ассистентом, только он не болеет, не ноет, и ему не надо платить 😅
Сколько жрёт?
– Модели от 4 до 20 ГБ
– Памяти надо от 8 ГБ, лучше 16 или 32 ГБ
– Желательно видеокарта, но можно и на CPU
– Желательно SSD, а не винчестер. LM Studio грузит модель в RAM, и тормоза тут никому не нужны
Я запускал Claude 3.5 на Ryzen 7 с 32 ГБ — идёт спокойно. Не летает, но и не лагает.
А это точно безопасно?
Хороший вопрос.
Тут всё зависит от модели.
LM Studio — это только оболочка. А вот что ты скачиваешь — уже вопрос к создателям моделей.
Если качаешь из официального LM Studio каталога — скорее всего, всё чисто. Но будь внимателен: не качай что попало из левых торрентов.
А вот это — реально круто
Я впервые почувствовал, что ИИ — это уже не только “в браузере”, а полноценный локальный инструмент.
Хочешь писать — он пишет.
Хочешь код — пожалуйста.
Хочешь просто поразмышлять в пустоту — почему бы и нет.
И всё это — без интернета, без подписки, без страха “а не улетит ли это на сервера”.
Короче:
LM Studio + Claude 3.5 (или любая другая модель) — это новый уровень.
Реально новый.
Если тебе надо, чтобы чатгпт работал локально — ставь. Если хочешь поковыряться с deepseek, mistral или openchat — LM Studio даст всё.
Если просто устал от платных подписок — попробуй.
Ты будешь удивлён, как далеко мы уже ушли от браузерных костылей.
Если статья зашла — напиши. Если хочешь больше про модели — тоже маякни.
А если начну нести чушь — отписка спасёт, я не обижусь 😅