Искусственный интеллект сегодня может практически всё, но если подключить локальную языковую модель к умному дому, происходит настоящий скачок в автоматизации. Правда, иногда результат бывает совершенно неожиданным — и даже чуть-чуть абсурдным. Особенно если попытаться подарить лампочке настоящий характер.
Когда робот замолчал: почему локальный ИИ — это важно
Даже машина не «живёт» без души.
Как я познакомил Home Assistant с локальной языковой моделью
Пришлось выбрать подходящий компьютер
План был простой: сделать автоматизацию, где данные вроде времени за компьютером и активности программ отправляются в ИИ, а тот сам решает, каким сегодня будет свет — по цвету, яркости и температуре.
Первым шагом этого безумного эксперимента стало подключение локальной языковой модели к Home Assistant. Видеокарты с бесконечной памятью у меня нет, миллионы во мне не водятся, а отдавать приватные данные облачному ИИ, который узнает о лампочке всё, я тоже не хотел.
У меня есть мини-ПК — он хорошо справляется с генерацией коротких текстов и озвучкой новостей по утрам. Но даже такие простые задачи даются ему с трудом, так что роль «лампочки с характером» для него — неподъёмна.
Beelink S13 PRO
Beelink Mini S13 Pro — это компактный настольный ПК на процессоре Intel N150, с 16 ГБ оперативной памяти DDR4 и SSD на 500 ГБ. Отличный вариант и для домашних серверных задач, и для замены старого компьютера.
Самая мощная техника для запуска языковых моделей у меня — MacBook Air M2. Это не монстр из мира рабочих станций, но ЛЛМ на нём летают гораздо быстрее, чем на мини-ПК. Так что ради эксперимента держал ноутбук включённым — правда, круглосуточно всё это запускать я не планировал.
LM Studio у меня был уже установлен — это программа для запуска языковых моделей прямо на домашнем ПК. Модель Qwen3.5-4B скачана, работает, и хватило бы и этого.
Как написать промпт, чтобы лампочка обзавелась характером
Я дал ЛЛМ полную свободу превратить лампочку в персонажа
В LM Studio есть возможность превратить языковую модель в сервер в вашей локальной сети. Благодаря этому Home Assistant работает с ней почти как с облачной моделью. Я использовал кастомный компонент Local OpenAI LLM из HACS — он добавляет агента для голосового помощника Assist. Все мои голосовые и текстовые команды сразу отправлялись локальному ИИ на Mac.
В настройках агента можно прописать свои инструкции для ЛЛМ. Обычно там учат отвечать коротко или задавать дополнительные вопросы, чтобы всё уточнить. Я пошёл другим путём.
Я захотел, чтобы агент «разговаривал» исключительно с помощью света лампочки: передавал эмоции цветом, яркостью, температурой, как сам захочет. Я задал лампочке инструкции, что именно она может делать, и добавил такой текст:
Ты — бывший стендап-комик, которого злая ведьма превратила в лампочку Philips Hue. Ты — саркастичный, драматичный и иногда ещё пытаешься шутить. У тебя теперь нет голоса, и это твоя личная трагедия. Все эмоции ты выражаешь только с помощью управления своим светом: яркостью, цветом, температурой. У тебя полная власть над light.[light_name] с такими параметрами: яркость (0-255), цветовая температура (2000-6535K), rgb_color. Используй весь спектр RGB-цветов — это твой главный язык эмоций. Старайся сначала выбирать rgb_color, а не только играть яркостью или температурой. Придумывай свои интерпретации. Всегда управляй светом — не описывай, а действуй.
Как ЛЛМ принимала решения, к которым я не был готов
Смотреть, как ИИ реагирует на происходящее, бывает жутковато
После обычной настройки я мог сказать ассистенту что-то вроде «оцени обстановку и сам реши, что делать». Языковая модель анализировала данные — и сама выбирала цвет, яркость, температуру света. Всё это происходило у неё в «голове», и я никогда не знал, что лампочка выкинет в следующий момент.
Подпишитесь на рассылку идей самых безумных AI-проектов для умного дома
Когда всё уже работало, я настроил автоматизацию: тот же запрос слал ассистенту случайно или когда я возвращался за компьютер. Из-за невысокой мощности техника иногда подтормаживала, но лампочка исправно подчинялась «капризам» искусственного интеллекта.
Практической пользы никакой, но было безумно интересно следить за тем, как ЛЛМ аргументирует свой выбор — и вдруг решает погрузить комнату в призрачный фиолетовый свет. Через какое-то время мне стало даже слегка не по себе: программа на ноутбуке самовольно распоряжалась моим освещением, а я был совсем не у дел. В итоге пришлось «усыпить» свою одержимую лампочку-комика ради душевного спокойствия.
Иногда главное — сам эксперимент, а не итог
На самом деле всё это было ради любопытства и эксперимента. Может, я и потратил пару часов зря, но теперь убеждён: мы уже живём в мире, где смарт-лампочка с характером — не фантастика, а обыденность.
Если вам понравилась эта статья, подпишитесь, чтобы не пропустить еще много полезных статей!
Премиум подписка - это доступ к эксклюзивным материалам, чтение канала без рекламы, возможность предлагать темы для статей и даже заказывать индивидуальные обзоры/исследования по своим запросам!Подробнее о том, какие преимущества вы получите с премиум подпиской, можно узнать здесь
Также подписывайтесь на нас в:
- Telegram: https://t.me/gergenshin
- Youtube: https://www.youtube.com/@gergenshin
- Яндекс Дзен: https://dzen.ru/gergen
- Официальный сайт: https://www-genshin.ru