Локальный запуск языковых моделей (LLM) может быть полезным для разработки и тестирования проектов без доступа к облачным ресурсам или GPU. Для этой цели существуют несколько программных инструментов, таких как LM Studio и Jan.
LM Studio предоставляет более обширные настройки для моделей, в то время как Jan обладает более удобным и приятным интерфейсом. Однако стоит отметить, что разработчики LM Studio решили проблему отсутствия AVX инструкций на процессорах без GPU, предоставив бета-релиз для их использования. Скачать этот релиз можно здесь.
В LM Studio также доступна возможность совместной работы с GPU-перераспределением части слоев LLM-модели, что будет особенно полезно для владельцев RTX. Лично автор статьи использует модели OpenHermes-2.5-Mistral-7B-GGUF и deepseek-coder-6.7b-instruct.Q4_K_S.
Запуск LLM моделей локально на пк может быть полезным для разработки и тестирования проектов, особенно в случаях отсутствия доступа к облачным ресурсам или GPU. Существуют инструменты, та