Найти тему
PC-Monstor

Запуск LLM моделей локально на пк



Локальный запуск языковых моделей (LLM) может быть полезным для разработки и тестирования проектов без доступа к облачным ресурсам или GPU. Для этой цели существуют несколько программных инструментов, таких как LM Studio и Jan.

LM Studio предоставляет более обширные настройки для моделей, в то время как Jan обладает более удобным и приятным интерфейсом. Однако стоит отметить, что разработчики LM Studio решили проблему отсутствия AVX инструкций на процессорах без GPU, предоставив бета-релиз для их использования. Скачать этот релиз можно здесь.
В LM Studio также доступна возможность совместной работы с GPU-перераспределением части слоев LLM-модели, что будет особенно полезно для владельцев RTX. Лично автор статьи использует модели OpenHermes-2.5-Mistral-7B-GGUF и deepseek-coder-6.7b-instruct.Q4_K_S.

Запуск LLM моделей локально на пк может быть полезным для разработки и тестирования проектов, особенно в случаях отсутствия доступа к облачным ресурсам или GPU. Существуют инструменты, такие как LM Studio и Jan, которые могут помочь с этим заданием. LM
Studio предоставляет более обширные настройки для моделей, в то время как Jan обладает более удобным и приятным интерфейсом.

Доступность AVX инструкций на процессорах без GPU является серьезной проблемой для запуска LLM-моделей локально, но разработчики LM Studio предоставили бета-релиз, который способен её решить.
Этот релиз скачать можно на официальном сайте проекта.

В дополнение к возможности запуска LLM-моделей локально, стоит также отметить, что существуют другие области применения искусственного интеллекта без использования нейросетей, такие как локальный ИИ. Эти методы могут быть полезны для различных задач, включая обработку естественного языка, предобработку данных и решение задач машинного обучения без доступа к облачному хранилищу или GPU.

Скачать LM Studio можно
здесь, а Jan - здесь.

#Локальный_LLM #LM_Studio #Jan_AI #AVX_инструкции #Без_GPU_ИИ #Облачно_области #Работа_с_естественн_языком #Предобработка_данных #МАШИННЫЙ_УМ #RTX_поддержка #OpenHermes #DeepSeekCoder #Бета_релиз #Запуск_неиросети #LocalIntelligence
#LocalLLM #LMStudio #JanAI #AVXInstructions #GPUlessAI #ObbluCloud #NLPProcessing #DataPreprocessing #MachineLearning #RTXSupport #OpenHermes #DeepSeekCoder #BetaRelease #LocalIntelligence

Статья написана с использованием модели openhermes-2.5-mistral-7b.Q8_0.gguf