Добавить в корзинуПозвонить
Найти в Дзене
ТыжПрограммист

Почему нейросети тупеют? Исследование деградации ИИ в 2026

За последнюю неделю я заметил, что ответы нейросетей стали какими-то... странными. Если ещё год назад они выдавали блестящие ответы, сейчас я стал замечать, что ИИ порой несёт такую чушь, при чем при ответе на казалось бы элементарные вопросы. Мне, к примеру, недавно, если описать вкратце, на просьбу сделать одно, исключая несколько действий, первое что сделал ИИ, так это именно эти исключения. Этот пример я привел чтобы вы наглядно поняли, о чем сейчас идет речь, ИИ вроде бы и отвечает, и казалось бы все как нужно, но есть но... Также как и я, многие пользователи стали замечать подобное и при этом они думают, что это у них "руки кривые" или промты неправильные. Но проблема кроется намного глубже. В этом году исследователи заговорили о тревожном явлении, а именно о деградации нейросетей, иными словами они буквально тупеют на глазах. Чтобы понять причину происходящего, давайте разбираться, что на самом деле происходит с искусственным интеллектом и почему он теряет былую сообразительнос
Оглавление

За последнюю неделю я заметил, что ответы нейросетей стали какими-то... странными. Если ещё год назад они выдавали блестящие ответы, сейчас я стал замечать, что ИИ порой несёт такую чушь, при чем при ответе на казалось бы элементарные вопросы. Мне, к примеру, недавно, если описать вкратце, на просьбу сделать одно, исключая несколько действий, первое что сделал ИИ, так это именно эти исключения.

Этот пример я привел чтобы вы наглядно поняли, о чем сейчас идет речь, ИИ вроде бы и отвечает, и казалось бы все как нужно, но есть но... Также как и я, многие пользователи стали замечать подобное и при этом они думают, что это у них "руки кривые" или промты неправильные. Но проблема кроется намного глубже.

В этом году исследователи заговорили о тревожном явлении, а именно о деградации нейросетей, иными словами они буквально тупеют на глазах.

Чтобы понять причину происходящего, давайте разбираться, что на самом деле происходит с искусственным интеллектом и почему он теряет былую сообразительность.

Исследование Microsoft, диалог убивает интеллект

В феврале 2026 года Microsoft Research и Salesforce опубликовали результаты масштабного исследования, они проанализировали более 200 000 диалогов с передовыми моделями нейросетей.

Вывод оказался шокирующим, при обработке отдельных запросов модели показывают около 90% точных ответов, но как только между нейросетью и пользователем начинается диалог с обменом репликами, точность падает до 65%. То есть, если верить статистике, в длинной беседе нейросеть ошибается в каждом третьем ответе.

-2

Учёные обнаружили любопытный феномен, который назвали "раздувание ответов". В диалогах ответы моделей становились длиннее на 20-300%. Вместе с объёмом росло количество предположений и галлюцинаций, которые затем закреплялись в контексте разговора. После чего модели использовали свои же ошибочные ответы как основу для следующих реплик, скатываясь при этом все ниже и ниже.

Даже модели с расширенными возможностями размышления, не смогли полностью избежать этого эффекта. Исследователи подчеркнули, что надёжность ответов сильно снизилась из-за склонности к преждевременной генерации, иными словами модели пытаются ответить, не дочитав запрос до конца.

-3

Другое исследование, опубликованное в январе 2026 года, показало, что у нейросетей есть так называемый "критический порог" длины контекста. При достижении 40-50% от максимальной длины контекста, происходит катастрофическое падение качества ответов. Показатели падали с 0.55-0.56 до 0.3 - а это 45.5% деградации.

Авторы назвали это явление "поверхностной адаптацией к длинному контексту". Модели хорошо работают с короткими и средними запросами, но проваливаются за критическим порогом, даже если информация остаётся релевантной. То есть проблема не в объёме данных как таковом, а в фундаментальных ограничениях архитектуры.

-4

Катастрофическое забывание, нейросети не помнят своего прошлого

Финансовый университет при Правительстве РФ опубликовал важный анализ механизмов деградации нейросетей. Ключевая проблема - "катастрофическое забывание". При переобучении на новых данных параметры модели адаптируются под свежие паттерны, забывая то, что было выучено раньше.

"Даже небольшое количество новых примеров способно привести к полной потере навыков, ранее успешно освоенных нейросетью", - отмечают исследователи. И это не ошибка при разработке, а фундаментальное ограничение.

В отличие от людей, которые накапливают знания, дополняя уже известное новым, нейросети каждый раз перекраивают свою внутреннюю структуру. Отсутствие памяти в явном виде ведёт к тому, что каждый новый опыт перезаписывает предыдущий.

-5

Эффект эхо-камеры, ИИ ест сам себя

Самая страшная проблема, которая только набирает обороты, обучение новых моделей на данных, созданных предыдущими поколениями ИИ. В 2026 году интернет уже наводнён сгенерированным контентом. Gartner прогнозирует, что к 2028 году 50% организаций внедрят политики "нулевого доверия" к данным именно из-за огромного количества сгенерированного контента.

Исследователи называют это "коллапсом модели". Когда новая модель обучается на данных, произведённых предыдущими поколениями ИИ, то качество информации постепенно ухудшается, накапливаются ошибки и неточности, а сами модели теряют способность к генерации оригинального и осмысленного результата.

Ест сам себя
Ест сам себя

Финансовый университет описывает это как "эффект накопленного искажённого эхо-обучения". В отличие от информации, порождённой человеческим интеллектом, непредсказуемой и контекстно нагруженной, машинные тексты однообразны. Модели, питающиеся такими данными, не развиваются, воспроизводя всё более ограниченный и упрощённый набор решений.

Исследование arXiv от 11 марта 2026 года подтверждает, даже при использовании методов очистки данных, если в обучающий поток нейросети попадают прошлые выходы нейросети, это создает ограничения для качества генерации.

По итогу исследователи из Microsoft объясняют деградацию ИИ, склонностью моделей использовать первоначальный ответ в качестве основы для последующих вопросов, даже если он был неверным. Ошибка закрепляется и нарастает как снежный ком.

В результате для нас это выглядит как постепенное отупение модели, сопровождающееся галлюцинациями и совершенно неверными ответами.

-7

Что делать, методы борьбы с деградацией

Несмотря на всю абсурдность описанной картины, учёные не сидят сложа руки и предлагают вполне рабочие способы замедлить или даже обратить вспять процесс деградации искусственного интеллекта. Исследователи из Финансового университета при Правительстве РФ выделили несколько перспективных направлений, над которыми сейчас работают ведущие лаборатории мира.

Один из подходов называется воспроизведением опыта. Суть его в том, что при обучении на новых данных нейросеть не забывает полностью старые знания, потому что в процесс обучения периодически подмешивают примеры из прошлого. Это как если бы вы учили новый язык, но при этом каждый день повторяли старые слова, чтобы они не стёрлись из памяти.

-8

Есть и более продвинутый метод, генеративное воспроизведение. В этом случае нейросеть не хранит конкретные старые примеры, а учится создавать их приближённые копии по памяти. Это особенно важно, когда речь идёт о приватных данных, которые нельзя просто так хранить и использовать. Модель как бы "представляет", что она видела раньше, и на основе этих представлений продолжает учиться.

Ещё один перспективный подход, структурная изоляция. Вместо одной огромной нейросети, которая пытается знать всё на свете, создают систему из множества специализированных модулей. Каждый отвечает за свою узкую задачу и не лезет в чужие дела. Когда нужно обновить один модуль, остальные остаются нетронутыми и не теряют наработанные навыки.

-9

Наконец, существуют методы так называемой эффективной адаптации, вроде LoRA или адаптеров. При дообучении модели меняют не все её внутренние настройки, а только небольшую их часть, что значительно снижает риск испортить то, что уже было выучено ранее.

Эксперты по кибербезопасности добавляют к этому списку ещё один важный совет, нужно относиться к обучающим данным с "нулевым доверием". Ведь единственный надёжный якорь в мире, тонущем в сгенерированном контенте, - это реальные человеческие данные.

-10

К обучающим данным нужно относиться как к ценному активу, а не как к мусору, который валяется под ногами. Только так можно сохранить качество и адекватность будущих поколений нейросетей.