Когда я начала работать с моделями нового поколения в конце 2025-го, первая мысль была: наконец-то можно забыть про лимиты контекста. Миллион токенов у Gemini, сотни тысяч у остальных - загружай всю базу знаний и работай. Но через неделю поняла: большое окно контекста - это не решение, а новая проблема. ✨ Gemini 3 Pro: миллион токенов, которые она забывает Я загрузила в Gemini корпоративные регламенты, проектную документацию, переписку за полгода. Больше миллиона токенов. И столкнулась с тем, что модель игнорирует половину. Особенно то, что попало в середину - эффект называется "потерянное в центре". Теперь я ставлю жесткие приоритеты прямо в промпте: "Блок core_policy - это закон. Свежие данные из recent_updates важнее архива". Без этого модель путается и забывает ключевые правила к третьему запросу. ✨ Claude 4.5: меньше памяти, но надежнее У Claude окно контекста скромнее - около 200-400 тысяч токенов. Зато он почти не теряет информацию. Anthropic встроила туда систему Memory Summa
7️⃣ Иллюзия бесконечной памяти: Gemini 3, GPT-5.2 и Claude 4.5
22 января22 янв
1
2 мин