Модельный коллапс: как ИИ деградирует при обучении на собственных данных 🧠 Исследователи из MIT и Оксфордского университета обнаружили критическую проблему современных языковых моделей — феномен «модельного коллапса». Когда нейросети обучаются на синтетических данных, сгенерированных другими ИИ-системами, происходит прогрессирующая деградация качества с каждым новым поколением моделей. Это явление получило название «модельного каннибализма» — ИИ буквально поедает сам себя, теряя способность к точным предсказаниям и генерации разнообразного контента. Математический анализ показывает, что проблема заключается в накоплении статистических искажений. При каждой итерации обучения на синтетических данных модель теряет информацию о редких, но важных паттернах в исходном распределении данных. Хвосты распределения вероятностей постепенно исчезают, модель начинает генерировать всё более однообразный и предсказуемый контент. Через несколько поколений рекурсивного обучения система полностью утра