Найти тему
Bushukov DevOps

Запускаем Ollama (LLM) локально, на раз - два

Оглавление

👋 Привет!

В этой статье я расскажу, как развернуть мощную языковую модель (LLM) локально, прямо на вашем сервере или ноутбуке.

Установка модели не займет много времени и не сложнее установки браузера Google Chrome.

Что такое LLM и зачем использовать ?

Языковые модели (LLM) — это алгоритмы, которые способны обрабатывать и генерировать текст, основываясь на огромном количестве данных.

Что умеет LLM?

  • Генерация текста - написание историй, статей в различных стилях
  • Перевод текста
  • Суммаризация - кратко изложить длинный текст
  • Отвечать на вопросы , по тем данным , на которых была предобученна
  • Общение - может вести диалог на различные темы
  • Анализ - способна анализировать текст и выявлять закономерности
  • Генерация кода - есть возможность генерировать как программы польностью так и отдельные части кода на различных языках

LLM могут быть OpenSource ( такие как Mistral , H2oGPT и другие) и проприетарные (такие как ChartGPT, GigaChat и Yandex GPT)

Зачем нужно устанавливать модель локально?🤔

Какие преимущества:

  • Гибкость . Отсутствие зависимости от общедоступных сервисов, таких как GigaChat, Yandex GPT и OpenAI GPT.
  • Безопасность. Ваше конфиденциальная информация будет храниться локально, а не на серверах вендоров.
  • Контроль. Вы сами контролируете модель, ее настройки и использование.
  • Возможность дообучить модель и тонко настроить на обработку определенных и специфичных данных.
  • Независисмость от вендора. Вам не нужно платить за использование модели и API к ней.

Что необходимо учесть:

  • Ресурсы Для работы локальной модели могут потребоваться определенные ресурсы на вашем ПК
  • Обновление Вам придется самостоятельно следить за обновлением и улучшением модели , хотя с Ollama это не составит труда

Что такое Ollama

Ollama — это инструмент для запуска языковых моделей локально. Установка включает в себя простые команды, позволяющие быстро развернуть модель на вашем устройстве. Пользователи могут выбрать необходимую модель из библиотеки и запустить ее с минимальными затратами времени и ресурсов. Также можно установить модель с помощью аналогичных инструментов (рассмотрим в следующих постах)

Модель загружается из https://huggingface.co/ - можно провести аналогию с Docker Hub, но только вместо Docker образов - заранее предобученные модели.

Итак, установка

----------------------------------------------------------------------

для примера установка на ПК на Linux

curl -fsSL https://ollama.com/install.sh | sh

так же можно загрузить ollama для Windows или Mac
https://ollama.com/download/windows

-2

запускаем модель

ollama run {имя_модели}

возможные варианты :

llama3.1, gemma2:2b, mistral

----------------------------------------------------------------------

Запустилась консоль для работы со своим локально установленной LLM
>> напиши что ты умеешь делать ?

-3

основные комманды по управлению моделью

запустить LLM , если LLM не загружена ,то запустиnься загрузка

ollama run {model_name}

получить список установленных моделей на ПК

ollama list

получить информацию о том какая именно модель используется в данный момент

ollama ps

остановить модель

ollama stop {model_name}

удалить модель

ollama rm {model_name}

----------------------------------------------------------------------

В последующем мы рассмотрим подробнее

  • какие есть LLM , как выбрать для определенных задач?
  • что значит *B в обозначении модели ?
  • что такое и как работать с https://huggingface.co ?
  • какие есть еще способы установки LLM модели

Если вы хотите установить LLM на специально выделенный сервер , то читайте статью Что такое Vagrant