Я давно привык использовать бесплатную версию API Google Gemini: мой Home Assistant автоматически выдавал саркастические подписи гостям, попавшим в кадр дверной камеры. Всё работало как часы, пока Google не устроил неожиданный поворот — внезапно снизили лимиты бесплатных запросов почти для всех моделей. Теперь, например, Gemini 2.5 Flash позволяет сделать только 20 запросов в день. Если вы тоже столкнулись с этим ограничением — вот, что можно предпринять.
HTG Wrapped 2025: 24 дня с техникой
24 дня с лучшими гаджетами, устройствами и технологиями года
Используйте другую модель
Сначала я пользовался Gemini 1.5 Flash, чтобы получать забавные описания гостей, а потом перешёл на новую версию Gemini 2.5 Flash. Мои автоматизации срабатывают чаще, чем 20 раз в сутки — из-за новых лимитов всё быстро заглохло. Но есть ещё модели Gemini, у которых лимиты пока заметно щадящие.
Например, Gemini Robotics-ER 1.5 Preview поддерживает до 250 бесплатных запросов в день. Она разрабатывалась для робототехники и автономных ИИ, но для бытовых задач подходит не хуже. Я прогнал её на своём сценарии с видеозвонком — вполне достойный результат.
Использовать Gemini Robotics-ER 1.5 вполне можно, но это временное решение: модель экспериментальная, и никто не знает, когда ей тоже затянут пояса.
Опробуйте GroqCloud
Есть ещё один работающий лайфхак: сервис GroqCloud. Это облачная платформа, где можно пользоваться быстро работающими ИИ-моделями с приличными лимитами, потому что всё крутится на мощных серверах.
Я попробовал заменить Gemini на meta-llama/llama-4-maverick-17b-128e-instruct для генерации описаний гостей с дверной камеры — и остался доволен результатом. На бесплатном тарифе можно отправлять до 1 000 запросов или использовать до 500 000 токенов в день — для домашней автоматизации с запасом.
GroqCloud легко интегрируется с LLM Vision в Home Assistant, а если нужен голосовой помощник — есть интеграция через HACS, чтобы Home Assistant стал ещё умнее на GroqCloud.
Но стоит помнить: и тут лимиты могут в любой момент сократить — никто не даёт вечных гарантий. На всякий случай лучше иметь запасной вариант через другого провайдера.
Запустите локальную LLM или VLM у себя дома
Не хотите внезапно потерять доступ к привычному ИИ? Запустите модель прямо у себя. Такой подход даёт полный контроль: данные никуда не уходят, никто не ограничивает по числу запросов, платить за API тоже не придётся.
Это не совсем бесплатно: нужны своё железо и оплата электричества, но в долгосрочной перспективе часто выгоднее. Главное — чтобы у компьютера хватало мощности под выбранную модель.
У меня автоматизация анализирует снимок с дверной камеры и пишет короткое описание гостя. Если использовать модель среднего уровня с поддержкой изображений, например Llama 3.2 Vision 11B, то потребуется минимум 12 ГБ видеопамяти. Достаточно видеокарты уровня RTX 3060 12 ГБ, чтобы такие сценарии работали нормально.
Если железо слишком слабое — ждать ответы придётся мучительно долго. Для экстренных уведомлений такой вариант не подойдёт.
Если у вас достойная машина, которая справится с местными LLM или VLM, — вариант отличный: и скорость, и конфиденциальность, и полная независимость от капризов больших ИИ-компаний.
Придётся смириться: халявный ИИ закончился — платить всё равно придётся, и это дёшево
Может, эта мысль и не радует, но отрицать не получится. Сейчас ИИ и железо стоят производителям серьёзных денег, и никто не будет вечно работать себе в убыток — платить за это всё-таки придётся.
Ждать, что такие гиганты, как Google, будут вечно держать свои ИИ двери нараспашку, наивно. Платная модель уже стала нормой.
Но по факту цены за доступ через API совсем невысокие: миллион токенов в Gemini 2.5 Flash (в режиме текста, изображений и видео) — около 30 копеек ($0.30), а миллион токенов на выходе — 210 рублей (около $2.50). Даже при активном использовании на месяц выходит сущие копейки. Если даже взять премиальную модель Gemini 3 Pro Preview (что большинству ни к чему), сумма не превысит примерно 180 рублей ($2) в месяц.
И не стоит зацикливаться на одном сервисе — существуют агрегаторы вроде OpenRouter, где можно выбирать из десятков моделей и платить только по мере использования.
Бесплатные лимиты всегда были только «на попробовать», так что их урезание — логичный ход. Главное — современные тарифы настолько щадящие, что платить за регулярное использование совсем не накладно.
Было бы здорово, если бы Google заранее предупредил всех о скором урезании бесплатных лимитов API, а не оставил пользователей перед разбитыми автоматизациями. Но это тоже неудивительно. Хорошо, что есть альтернативы: даже если придётся платить, кошелёк этого почти не заметит.
Если вам понравилась эта статья, подпишитесь, чтобы не пропустить еще много полезных статей!
Премиум подписка - это доступ к эксклюзивным материалам, чтение канала без рекламы, возможность предлагать темы для статей и даже заказывать индивидуальные обзоры/исследования по своим запросам!Подробнее о том, какие преимущества вы получите с премиум подпиской, можно узнать здесь
Также подписывайтесь на нас в:
- Telegram: https://t.me/gergenshin
- Youtube: https://www.youtube.com/@gergenshin
- Яндекс Дзен: https://dzen.ru/gergen
- Официальный сайт: https://www-genshin.ru