Ты когда-нибудь просил ИИ разобраться в большом документе — и получал в ответ что-то размытое, как будто он прочитал всё сразу и ничего толком не запомнил? Это не глюк и не случайность. У этой проблемы есть название и, кажется, наконец-то появилось решение. Несколько лет индустрия двигалась в одном направлении: делать у моделей всё большее «окно памяти». Логика простая — чем больше текста модель удерживает за раз, тем умнее ответит. На практике всё оказалось сложнее. Когда в голову модели одновременно загружают сотни страниц, она начинает теряться. Важное тонет в потоке второстепенного, ответы становятся расплывчатыми, а время ожидания растёт. Среди разработчиков это явление давно получило название lost in the middle — модель хорошо помнит начало и конец, но середина для неё как чужой сон. Чем толще документ, тем хуже работает этот подход. И никакое увеличение памяти проблему не снимает — она просто масштабируется вместе с ней. Компания Chroma предложила другой подход. Вместо того чтоб
Почему ИИ теряется в больших текстах — и как его научили не читать всё подряд
8 апреля8 апр
1
2 мин