124 КБ → 18 КБ: как не скармливать мусор ИИ-агенту Работаю с Claude Code. Скопировал веб-страницу в markdown, загрузил в контекст — «94 000 токенов, превышен лимит». Claude начал парсить файл по частям. Страница была на два экрана текста. Откуда 94К? Открыл файл — base64-картинки. Каждое превью из выдачи Google AI Mode превратилось в тысячи символов вида /9j/4AAQSkZJRg.... Для LLM это мусор: модель не видит пиксели в base64, но тратит на них токены. Цифры с одной страницы: — обычное копирование: 124 КБ (~94К токенов); — через LLMFeeder: 18 КБ (~4,5К токенов); — разница в 7 раз. LLMFeeder — бесплатное расширение для Chrome, заточенное под подготовку контента для LLM: — выключаешь картинки одной галочкой — base64 не попадает в выгрузку; — счётчик токенов прямо в интерфейсе — видишь «стоимость» страницы до копирования; — можно убрать ссылки, если URL не нужны; — вырезает навигацию, рекламу, футеры — оставляет только контент; — всё работает локально, ничего не уходит на сервера. Chrome Web Store: chromewebstore.google.com/...fdk Работаете с Claude Code, Cursor или другим ИИ-ассистентом и часто копируете веб-страницы в контекст — must-have. Канал в телеграме: [Vibe Manager с ai]
1 неделю назад