Найти в Дзене

7️⃣ Иллюзия бесконечной памяти: Gemini 3, GPT-5.2 и Claude 4.5

Когда я начала работать с моделями нового поколения в конце 2025-го, первая мысль была: наконец-то можно забыть про лимиты контекста. Миллион токенов у Gemini, сотни тысяч у остальных - загружай всю базу знаний и работай. Но через неделю поняла: большое окно контекста - это не решение, а новая проблема. ✨ Gemini 3 Pro: миллион токенов, которые она забывает Я загрузила в Gemini корпоративные регламенты, проектную документацию, переписку за полгода. Больше миллиона токенов. И столкнулась с тем, что модель игнорирует половину. Особенно то, что попало в середину - эффект называется "потерянное в центре". Теперь я ставлю жесткие приоритеты прямо в промпте: "Блок core_policy - это закон. Свежие данные из recent_updates важнее архива". Без этого модель путается и забывает ключевые правила к третьему запросу. ✨ Claude 4.5: меньше памяти, но надежнее У Claude окно контекста скромнее - около 200-400 тысяч токенов. Зато он почти не теряет информацию. Anthropic встроила туда систему Memory Summa

7️⃣ Иллюзия бесконечной памяти: Gemini 3, GPT-5.2 и Claude 4.5

Когда я начала работать с моделями нового поколения в конце 2025-го, первая мысль была: наконец-то можно забыть про лимиты контекста. Миллион токенов у Gemini, сотни тысяч у остальных - загружай всю базу знаний и работай. Но через неделю поняла: большое окно контекста - это не решение, а новая проблема.

✨ Gemini 3 Pro: миллион токенов, которые она забывает

Я загрузила в Gemini корпоративные регламенты, проектную документацию, переписку за полгода. Больше миллиона токенов. И столкнулась с тем, что модель игнорирует половину. Особенно то, что попало в середину - эффект называется "потерянное в центре".

Теперь я ставлю жесткие приоритеты прямо в промпте: "Блок core_policy - это закон. Свежие данные из recent_updates важнее архива". Без этого модель путается и забывает ключевые правила к третьему запросу.

✨ Claude 4.5: меньше памяти, но надежнее

У Claude окно контекста скромнее - около 200-400 тысяч токенов. Зато он почти не теряет информацию. Anthropic встроила туда систему Memory Summaries - модель сама "пересобирает" карту разговора и помнит, что важно.

🟦Я работаю с Claude через метод "активного архива": вместо того чтобы закинуть файлы и забыть, добавляю инструкцию: "Ключевые решения по проекту в списке ниже. Всегда сверяйся с ним, прежде чем давать рекомендации". Это работает надежнее, чем надеяться на общую память модели. Для аналитики и сложного кода это лучший вариант.

🟦Еще одна фишка Claude - Skills. Это готовые наборы инструкций для конкретных задач: создание презентаций, работа с таблицами, редактирование документов. Когда я прошу Claude сделать отчет в Word или собрать дашборд в Excel, он сначала читает соответствующий skill - там описаны лучшие практики форматирования, структуры, типичные ошибки. Результат получается точнее, чем если бы я просто написала "сделай презентацию". Это прям существенная экономия времени на правках.

✨ GPT-5.2: сжимает сам, но иногда перестарается

GPT-5.2 умеет сам выжимать суть из длинной переписки, чтобы освободить память. Удобно, но есть риск - модель может выкинуть важные нюансы.

Я добавила триггер на суммаризацию: "Каждые 20 сообщений останавливайся и фиксируй: что решили, какие переменные изменились, что переносим дальше". Это превращает хаос в структуру.

Главное, что я поняла: объем памяти модели не равен качеству её внимания. Если работаете в веб-интерфейсе и ведете длинные сессии, структурируйте промпт с первого сообщения. Иначе к третьему экрану модель забудет ваши требования.

Всем здоровья, мира и добра!

#ИИпромтингв2026