Согласно исследованию, опубликованному в журнале Nature, модели искусственного интеллекта могут деградировать, превращая оригинальный контент в бессвязную чепуху всего за несколько поколений. Это исследование указывает на растущий риск коллапса ИИ-моделей из-за самообучения и необходимость использования оригинальных источников данных и тщательной фильтрации информации. Коллапс модели происходит, когда искусственный интеллект чрезмерно обучается на данных, сгенерированных ИИ. Илия Шумаилов, исследователь из Оксфордского университета и ведущий автор статьи, объясняет: Коллапс модели относится к явлению, когда модели разрушаются из-за неразборчивого обучения на синтетических данных. Согласно новому исследованию, генеративные инструменты ИИ, такие как большие языковые модели, могут игнорировать определенные части обучающего набора данных, что приводит к тому, что модель обучается только на части данных. Это может привести к тому, что модель быстро превратится в тень своего прежнего "я". Ис
Эксперты предупреждают: ИИ, обучающийся на собственной бессмыслице, может самоуничтожиться
25 июля 202425 июл 2024
2 мин