🤨Почему нейросеть "тупит" в середине длинного разговора? Потому что у неё кончается память. Это и есть контекстное окно. Представьте, что вы учите нового сотрудника тонкостям профессии. После часа разговора, он начнёт путаться, менжеваться и подбешивать вас. Он не тупой. просто объем информации большой, а мозг маленький😁 Ученик забывает, что было в начале. У нейросетей также. Чем больше окно - тем длиннее и сложнее задачи она может держать в голове одновременно. Смотри на картинку 👆 Например: 1️⃣ChatGPT в базовом режиме - 32k токенов (~40–60 страниц А4). 2️⃣ Claude и Grok на максимуме — 1 миллион токенов (это 1 200–1 600 страниц!). 3️⃣ Gemini 1.5 Pro - вообще 2 миллиона. Можно скормить пару книг. Лайфхак: Если работаешь с большими документами, кодом или длинными переговорами - выбирай модель с большим контекстом. P.S. Великий и могучий Русский текст "съедает" токены быстрее, чем английский 😉 Сохраните пост - пригодится когда будете выбирать нейросеть под задачу. 👉 [Max] [В
🤨Почему нейросеть "тупит" в середине длинного разговора
3 дня назад3 дня назад
~1 мин