Что если обучение искусственного интеллекта подчиняется тем же законам, что и физика?
Исследователи из Alibaba и Шанхайской AI-лаборатории нашли формулу, которая описывает, как именно большие языковые модели “ломаются” от переизбытка знаний — и как не довести их до этой точки. Работа под названием “How to inject knowledge efficiently? Knowledge Infusion Scaling Law for LLMs”(arXiv:2509.19371) открывает новый класс закономерностей — закон масштабирования инфузии знаний.
Это — своего рода Chinchilla 2.0, но не для подсчета токенов и FLOPs, а для определения, сколько именно знаний можно “влить” в модель, прежде чем она начнет забывать сама себя. До сих пор существовало простое правило: чем больше данных — тем умнее модель. Но это не так.
Учёные показали, что у каждой LLM существует “точка когнитивного коллапса” — критический порог, после которого память модели резко деградирует. 💥 Феномен “Memory Collapse”
Когда в модель вливают слишком много доменных фактов — она начинает терять уже сущ