Современные нейросети оказались в тупике: они практически исчерпали запасы публичных текстов, созданных человеком, и теперь вынуждены учиться на данных, которые сами же и генерируют. Однако такой подход приводит к неожиданным проблемам. Ученые из Оксфорда, Кембриджа и Торонто решили проверить, что будет, если нейросеть будет обучаться только на собственных текстах. В ходе эксперимента модель сначала дообучили на статьях из Википедии, затем попросили сгенерировать новые тексты, на которых обучили следующую версию – и так несколько раз подряд. Уже после девятого цикла обучения нейросеть начала выдавать абсурдные ответы: например, вместо описания церковной архитектуры писала о зайцах с синими и красными хвостами. Этот эффект назвали «коллапсом модели» – искусственный интеллект с каждым новым циклом все сильнее искажает исходные данные. Однако позже эксперты отметили: в реальности разработчики не используют только синтетические тексты. Обычно их смешивают с человеческими, и это снижает рис
Нейросети не справляются с самообучением: почему ИИ деградирует без человека
ВчераВчера
1 мин