Длинный контекст - это не память. Это длинная простыня. Чуть поговорим про контекст (память ИИ)... Самая частая история при внедрении ИИ агентов в поддержке и продажах - клиент уже все рассказал, мы уже обсудили ограничения, цены, сроки, а ассистент на 33-м сообщении снова задает тот же вопрос или предлагает вариант, который мы минут 10 назад закрыли. И тут обычно выход находится такой - "Ну значит надо дать ему длиннее контекст. Засунем весь чат, всю CRM, всю базу знаний". Длинный контекст - не панацея. У моделей есть проблема: когда важное лежит в середине длинного куска, оно часто выпадает из внимания. Это не потому что модель тупая, а потому что такой механизм - все это хранится как один плоский буфер, где части легко теряются. По ощущениям это как человек, которому дали стопку бумажек и сказали: "Ответь точно, все нужное там". Он что-то найдет… но не факт, что самое важное. (Заметили?! Я очень люблю сравнивать ИИ с человеком) Что с этим делать в реальном внедрении: 1. Не д
"Мы дали ему весь чат, а он все равно не учел важное" - классика внедрения ИИ
16 января16 янв
1 мин