Найти в Дзене

Почему ИИ стал «тупее», а не умнее — что показывают реальные исследования

В 2026 году разговор о том, что искусственный интеллект вроде бы не становится умнее, а начинает деградировать, перестал быть просто хайповым мнением блогеров. Это обсуждают учёные, эксперты по машинному обучению и те, кто работает с ИИ-системами ежедневно. И ключевой момент здесь не в том, что ИИ вдруг «потерял интеллект», а в том, что его обучение и данные, на которых он учится, начали превращаться в собственную ловушку. Крупные исследования уже описали явление так называемого model collapse — когда ИИ-модели, обучаемые на собственных результатах (то есть на данных, которые сами же генерируют), начинают терять разнообразие и точность. В такой цепочке с каждым витком обучения модель всё сильнее отклоняется от реальных человеческих данных и начинает искажать реальность. Иначе говоря: если ИИ тренируется на текстах, которые написаны ИИ (не отредактированные человеком!), а не людьми, он постепенно учится на негодных текстах — и это снижает качество будущих ответов. Эксперты предупреждают
Оглавление

В 2026 году разговор о том, что искусственный интеллект вроде бы не становится умнее, а начинает деградировать, перестал быть просто хайповым мнением блогеров. Это обсуждают учёные, эксперты по машинному обучению и те, кто работает с ИИ-системами ежедневно.

И ключевой момент здесь не в том, что ИИ вдруг «потерял интеллект», а в том, что его обучение и данные, на которых он учится, начали превращаться в собственную ловушку.

🧠 1. Что такое “model collapse” и почему это важно

Крупные исследования уже описали явление так называемого model collapse — когда ИИ-модели, обучаемые на собственных результатах (то есть на данных, которые сами же генерируют), начинают терять разнообразие и точность. В такой цепочке с каждым витком обучения модель всё сильнее отклоняется от реальных человеческих данных и начинает искажать реальность.

Иначе говоря: если ИИ тренируется на текстах, которые написаны ИИ (не отредактированные человеком!), а не людьми, он постепенно учится на негодных текстах — и это снижает качество будущих ответов.

🌐 2. Сам себя кормит и деградирует

Эксперты предупреждают: с ростом количества текстов, созданных ИИ в интернете, будущие модели всё чаще будут “питаться” этими же синтетическими данными. Это может привести к тому, что ИИ станет менее разнообразным и менее точным в своих выводах.

Похожая ситуация уже наблюдается с эффектом ухудшения диагностической надежности в медицине, когда синтетические данные искажают представление о реальных патологиях.

📉 3. ИИ упрощает, а не углубляет

Некоторые современные исследования обнаружили, что новые модели ИИ всё чаще упрощают и переобобщают научные результаты, и делают это хуже, чем предыдущие версии. Это означает, что ИИ может терять способность к точному передаче сложной информации в пользу более “стандартных” ответов.

Это не обязательно значит, что ИИ стал менее мощным как инструмент — но это показывает, что его качество как источника знаний может снижаться из-за собственной зависимости от уже созданного ИИ-контента.

🧩 4. Почему это происходит

Есть несколько объективных причин:

🔹 Источник данных истощается.
Как говорил Илон Маск и ряд экспертов, доступный объём
человеческого текста для обучения ИИ может скоро исчерпать себя, и система будет всё больше ориентироваться на синтетический контент.

🔹 AI учится на том, что его коллеги уже написали.
Если много контента генерируется ИИ, поисковые системы и датасеты ловят именно его — и будущие модели учатся на некачественном материале. Это называется “data pollution” или «загрязнение данных».

🔹 Ошибки повторяются и усиливаются.
Когда вывод ИИ повторяется многократно, а затем используется как источник для обучения новых моделей, появляется эффект «самообучения на собственных ошибках». Это аналогично тому, как если бы студенты учились писать тексты, читая тексты других студентов, которые сами пользовались ИИ — ошибки накапливаются.

📌 5. Что это значит нам

ИИ всё ещё остаётся мощным инструментом. Но вывод, к которому приходят исследования, звучит так:

  • качество ответов зависит напрямую от качества данных, на которых обучается модель
  • ИИ так же умён, как умны данные, которые мы ему даём
  • чем больше синтетического (т. е. машинного) контента в обучающих датасетах, тем выше риск, что ИИ станет менее точным и более шаблонным

______________________________________________________________

Вывод прост: ИИ остаётся мощным инструментом, но его результаты нельзя воспринимать как истину без проверки. И если мы хотим сохранить качество ИИ, нам нужно больше человеческого контроля, качественных данных и критического мышления — у тех, кто пользователем, и у тех, кто строит системы.

Согласны?