8 подписчиков
124 КБ → 18 КБ: как не скармливать мусор ИИ-агенту
Работаю с Claude Code. Скопировал веб-страницу в markdown, загрузил в контекст — «94 000 токенов, превышен лимит». Claude начал парсить файл по частям. Страница была на два экрана текста. Откуда 94К?
Открыл файл — base64-картинки. Каждое превью из выдачи Google AI Mode превратилось в тысячи символов вида /9j/4AAQSkZJRg.... Для LLM это мусор: модель не видит пиксели в base64, но тратит на них токены.
Цифры с одной страницы:
— обычное копирование: 124 КБ (~94К токенов);
— через LLMFeeder: 18 КБ (~4,5К токенов);
— разница в 7 раз.
LLMFeeder — бесплатное расширение для Chrome, заточенное под подготовку контента для LLM:
— выключаешь картинки одной галочкой — base64 не попадает в выгрузку;
— счётчик токенов прямо в интерфейсе — видишь «стоимость» страницы до копирования;
— можно убрать ссылки, если URL не нужны;
— вырезает навигацию, рекламу, футеры — оставляет только контент;
— всё работает локально, ничего не уходит на сервера.
Chrome Web Store: chromewebstore.google.com/...fdk
Работаете с Claude Code, Cursor или другим ИИ-ассистентом и часто копируете веб-страницы в контекст — must-have.
Около минуты
28 февраля