Недавно наткнулся на очень интересную статью, где говорится, что «Аутофагия в моделях генеративного ИИ может стать проблемой в скором будущем»😱 Что это значит? Чтобы нейросети могли создавать новый контент, их нужно регулярно обучать на свежих данных, которые создают люди. Но что произойдет, если все перейдут на искусственный интеллект и «человеческий» контент закончится? В этом случае ИИ начнет обучаться на контенте, который сам же и создал😮 «Новое исследование, проведенное учеными из Университета Райса и Стэнфордского университета в США, говорит о том, что, когда системы искусственного интеллекта обучаются на синтетическом, машинном материале, а не на текстах и изображениях, созданных реальными людьми, качество их работы начинает страдать». Этот эффект называется модельным расстройством аутографии. Представь это как процесс копирования копий: каждая последующая копия становится чуть менее четкой, пока в итоге не теряется в качестве совсем. Так же и с ИИ: если он обучается на данных
ОБУЧЕНИЕ НЕЙРОСЕТЕЙ И СЛИВ ДАННЫХ. ЧТО НАС ЖДЕТ?
30 августа 202430 авг 2024
2
1 мин