Может ли ИИ съесть себя до смерти? Синтетические данные могут привести к “краху модели”
Выводы Университета Райса показывают, что повторяющееся обучение синтетическим данным может привести к "Модельному расстройству аутофагии", ухудшающему качество генеративных моделей ИИ. Постоянная зависимость от синтетических данных без свежих исходных данных может обречь будущие модели ИИ на неэффективность и сокращение разнообразия. Генеративные модели искусственного интеллекта (ИИ), такие как GPT-4o от OpenAI или Stable Diffusion от Stable Diffusion от ИИ, превосходны в создании новых текстов, кода, изображений и видео...