Найти в Дзене
Кирилл Ледовский

1С ERP+ИИ: С чего начать?

Что такое Ollama? Ollama — это платформа с открытым исходным кодом, которая позволяет скачивать и запускать мощные языковые и мультимодальные модели прямо на вашем компьютере, без необходимости постоянного подключения к интернету и отправки данных на сторонние сервера. Это как «менеджер пакетов» (например, pip для Python или apt для Linux), но специально для AI-моделей. Ключевые преимущества: Конфиденциальность: Все вычисления происходят локально, ваши данные никуда не уходят. Бесплатность: После скачивания модели вы не платите за токены или подписки. Гибкость: Огромный выбор моделей под разные задачи (общение, программирование, анализ изображений и т.д.). Простота: Установка и использование делаются через терминал несколькими командами. Для чего нужны модели на Ollama.com? Модели, представленные на сайте, служат для решения самых разных задач. Их можно разделить на категории по тегам и назначению: Генеративные текстовые модели (самая большая категория):
Общение и креатив: Модели врод
Оглавление

Что такое Ollama?

Ollama — это платформа с открытым исходным кодом, которая позволяет скачивать и запускать мощные языковые и мультимодальные модели прямо на вашем компьютере, без необходимости постоянного подключения к интернету и отправки данных на сторонние сервера. Это как «менеджер пакетов» (например, pip для Python или apt для Linux), но специально для AI-моделей.

Ключевые преимущества:

  • Конфиденциальность: Все вычисления происходят локально, ваши данные никуда не уходят.
  • Бесплатность: После скачивания модели вы не платите за токены или подписки.
  • Гибкость: Огромный выбор моделей под разные задачи (общение, программирование, анализ изображений и т.д.).
  • Простота: Установка и использование делаются через терминал несколькими командами.

Для чего нужны модели на Ollama.com?

Модели, представленные на сайте, служат для решения самых разных задач. Их можно разделить на категории по тегам и назначению:

  1. Генеративные текстовые модели (самая большая категория):
    Общение и креатив:
    Модели вроде Llama 3.1, Mistral, Qwen отлично справляются с диалогом, написанием текстов, идей, сценариев, переводов, пересказов.
    Решение задач и рассуждение (Reasoning): Модели с тегом thinking (например, deepseek-r1, qwen3, magistral) специально обучены для пошагового логического размышления. Они лучше справляются с математикой, логическими головоломками, анализом сложных текстов.
    Программирование (Coding): Специализированные модели с тегом tools или в названии coder (qwen3-coder, deepseek-coder, codellama). Они помогают писать, объяснять, отлаживать и комментировать код на множестве языков программирования.
    Агентские задачи (Agents): Некоторые модели (glm-4.6, gpt-oss) обучены для планирования и выполнения последовательных действий (например, поиск информации в интернете, работа с файлами).
  2. Мультимодальные модели (Vision):
    Модели с тегом vision (llama3.2-vision, qwen3-vl, llava) умеют "понимать" изображения. Вы можете загрузить картинку и задавать вопросы о её содержимом: описать сцену, прочитать текст с фото, проанализировать график, предложить рецепт по фото продуктов.
  3. Модели для эмбеддингов (Embedding):
    Модели с тегом embedding (nomic-embed-text, mxbai-embed-large) не генерируют текст. Они преобразуют текст (слово, предложение, документ) в вектор — набор чисел, отражающий смысл. Это основа для RAG (Retrieval-Augmented Generation), семантического поиска, кластеризации документов. Их часто используют вместе с генеративными моделями для работы с вашими собственными данными (базами знаний, документами).
  4. Легкие/Эффективные модели:
    Небольшие модели (tinyllama, phi3, smollm2, gemma3n) предназначены для слабого железа (ноутбуки, мини-ПК, телефоны). Они быстрее и потребляют меньше памяти, хотя и уступают в качестве большим моделям.
  5. Мощные/Облачные модели (Cloud):
    Некоторые очень большие модели (например, deepseek-v3.1 на 671B параметров) имеют тег cloud. Их практически невозможно запустить на домашнем ПК. Ollama предлагает их запуск в облачной инфраструктуре за отдельную плату, что полезно для экспериментов или коммерческих задач.

Как ими пользоваться? Пошаговая инструкция

Шаг 1: Установка Ollama

  1. Перейдите на ollama.com.
  2. Нажмите кнопку "Download" и скачайте установщик для вашей ОС (Windows, macOS, Linux).
  3. Запустите установщик. После установки в системе появится фоновая служба Ollama.

Шаг 2: Скачивание модели из каталога

Модели скачиваются и управляются через терминал (командную строку).

  • Базовая команда для скачивания и запуска: ollama run <имя-модели>
    Например, чтобы начать общение с популярной моделью Llama 3.1 на 8 миллиардов параметров:bashollama run llama3.1:8b
    После выполнения команды Ollama:
    Проверит наличие модели локально.
    Если её нет —
    скачает её с серверов Ollama (это может занять время в зависимости от размера модели и скорости интернета).
    Загрузит модель в память и откроет интерактивный чат в терминале. Вы можете просто начать печатать свои вопросы.
  • Понимание тегов и версий:
    На сайте у каждой модели есть несколько
    тегов (tags). Это версии или варианты одной модели.
    llama3.1:8b — основная модель с 8B параметров.
    llama3.1:70b — более мощная (и тяжелая) версия с 70B параметров.
    llama3.1:latest — скачает последнюю доступную версию (обычно это рекомендуемый вариант для начала).
    llama3.1:instruct или :text — могут быть специализированные варианты (инструктивные, текстовые).

Шаг 3: Работа с моделью

  1. Интерактивный чат в терминале: Просто вводите сообщения и получайте ответы. Для выхода нажмите Ctrl+D (или введите /bye в некоторых версиях).
  2. Генерация текста напрямую из командной строки:bashollama run llama3.1 "Напиши краткое письмо с благодарностью за собеседование"
  3. Использование как сервера API (для интеграции с другими программами):
    Запустите сервер: ollama serve (обычно он уже запущен после установки).
    Теперь к моделям можно обращаться по
    REST API (http://localhost:11434).
    Это позволяет использовать модели из:
    Пользовательских интерфейсов (UI): Open WebUI, Continue.dev, AnythingLLM.
    Плагинов в IDE: Например, Cursor, Codeium.
    Собственных скриптов на Python, JavaScript и т.д.
  4. Работа с изображениями (для vision-моделей):bash# В интерактивном режиме модель сама предложит загрузить изображение
    ollama run llava
    > Что изображено на этой картинке? /path/to/your/image.jpg
    Или через API, закодировав изображение в base64.

Шаг 4: Управление моделями

  • Список скачанных моделей: ollama list
  • Удаление модели: ollama rm <имя-модели>
  • Копирование модели: ollama cp <старое-имя> <новое-имя>
  • Просмотр информации о модели: ollama show <имя-модели>

С чего начать? Практические рекомендации

  1. Оцените возможности своего железа. Ключевые параметры:
    Оперативная память (RAM): Модель ~7B параметров требует ~8-10 ГБ ОЗУ. Модель 70B — 40+ ГБ. Для vision-моделей нужно ещё больше.
    Видеокарта (GPU): Наличие мощной видеокарты (NVIDIA с 8+ ГБ VRAM) значительно ускорит работу.
  2. Выберите первую модель:
    Для слабого ПК:
    phi3:mini (3.8B), tinyllama (1.1B), gemma3:4b.
    Для среднего ПК (16-32 ГБ ОЗУ): llama3.1:8b, mistral:7b, qwen2.5:7b — отличный баланс скорости и качества.
    Для мощного ПК/сервера: llama3.1:70b, qwen2.5:32b, deepseek-r1:70b.
    Для программирования: deepseek-coder:6.7b, qwen2.5-coder:7b.
    Для анализа изображений: llama3.2-vision:11b.
  3. Используйте веб-интерфейсы. После установки Ollama установите что-то вроде Open WebUI (ранее Ollama WebUI) — это даст вам привычный веб-чат вроде ChatGPT, но работающий с вашими локальными моделями.

Заключение

Ollama и её библиотека моделей — это демократизация доступа к современному ИИ. Они превращают ваш компьютер в личный, конфиденциальный и бесплатный AI-инструмент. Вы можете экспериментировать с десятками моделей, выбирать лучшую под конкретную задачу и интегрировать их в свой рабочий процесс, не завися от облачных API и сохраняя полный контроль над своими данными.

Начните с установки Ollama и запуска одной из рекомендованных моделей среднего размера — это лучший способ понять возможности технологии.

Теперь у Вас есть собственная нейросеть. Что дальше?

Конец эпохи инструкций: Как ИИ-наноботы заменят вашу ERP и выведут бизнес на сверхскорость