Я три раза на этой неделе получал ужасные ответы в ChatGPT — вот что реально происходит Контекстное окно - причина этому. Компании хвастаются «контекстными окнами на 200 тысяч».
Никто не объясняет, почему AI начинает отвечать странно в длинных чатах. ——— 📊 ЧТО ТАКОЕ КОНТЕКСТ
(И ПОЧЕМУ ВЫ О НЁМ НЕ ЗНАЛИ) У LLM есть «контекстное окно» — память одного диалога. ChatGPT-4: 128 000 токенов (≈ 96 000 слов).
Claude: 200 000 токенов (≈ 150 000 слов). Звучит огромно. Пока не вставишь 3 расшифровки встреч и 2 проектных документа. Главная проблема: Большинство вообще не знают про лимиты. Живут в иллюзии, что чат помнит всю историю разговора. Общаются в одном диалоге месяцами. Это фатальная ошибка. ——— 💥 ЧТО ПРОИСХОДИТ ПРИ ПРЕВЫШЕНИИ Утро понедельника: Пытался проанализировать недельные встречи в одном диалоге. К пятой встрече ChatGPT начал отвечать странно. Шестую встречу уже не принял: «Превышен лимит контекста». Реальность: Проверил это 6 раз. Один результат: когда контекст переполнен, AI лом