Вы же знаете, что существует компактная бесплатная модель, которая на обычном ноутбуке обходит гигантов. Я решил потестить Скачал локальную модель ollama/qwen3.5:9b для тестов. Назвал этого ИИ агента Шерлок. Вообще необычно себя ощущаешь, когда разговариваешь со своим собственным компьютером через Телеграм на человеческом языке, а не пишешь код. Для MacBook на M3 Pro с 18 Гб памяти запуск каждого запроса выглядит как серьезная нагрузка: 100% загрузка процессора и начинает жестко крутиться вентилятор охлаждения. По памяти эта модель влезает - она занимает 12 Гб оперативки. При этом результаты прямо удивительные - я получаю очень разумные советы. Без траты токенов и денег. #ИИ #OpenClaw
ИИ: подключение локальной модели Qwen 3.5-9B к OpenClaw
6 марта6 мар
29
~1 мин