В 2026 году разговор о том, что искусственный интеллект вроде бы не становится умнее, а начинает деградировать, перестал быть просто хайповым мнением блогеров. Это обсуждают учёные, эксперты по машинному обучению и те, кто работает с ИИ-системами ежедневно. И ключевой момент здесь не в том, что ИИ вдруг «потерял интеллект», а в том, что его обучение и данные, на которых он учится, начали превращаться в собственную ловушку. Крупные исследования уже описали явление так называемого model collapse — когда ИИ-модели, обучаемые на собственных результатах (то есть на данных, которые сами же генерируют), начинают терять разнообразие и точность. В такой цепочке с каждым витком обучения модель всё сильнее отклоняется от реальных человеческих данных и начинает искажать реальность. Иначе говоря: если ИИ тренируется на текстах, которые написаны ИИ (не отредактированные человеком!), а не людьми, он постепенно учится на негодных текстах — и это снижает качество будущих ответов. Эксперты предупреждают
Почему ИИ стал «тупее», а не умнее — что показывают реальные исследования
24 февраля24 фев
693
3 мин