Добавить в корзинуПозвонить
Найти в Дзене
МК

Почему нейросети тупеют

Совсем недавно нейросети поражали воображение, но в последнее время, особенно после того как ажиотаж пошел на спад, многие пользователи начали замечать, что даже самые продвинутые модели начали справляться с поставленной задачей куда хуже, а то иногда выдают полный бред при запросах. Неужели ИИ на самом деле деградирует? Давайте разберёмся, как вообще учатся нейросети и как именно человек приложил к этому руку. Как нейросеть учится Нейросеть – это большая математическая модель, где каждый «нейрон» имеет веса, и они подстраиваются под примеры из данных. Процесс обучения основан на обратном распространении ошибки: сеть делает прогноз, сравнивает с правильным ответом и слегка меняет веса, чтобы ошибку уменьшить. В частности, современные языковые модели сначала предобучают (pretrain) на огромных массивах текстов: им «скармливают» книги, статьи, форумы, коды и т. д., чтобы сеть запомнила структуру языка и общие закономерности. Затем модель дообучают (fine-tuning) – например, задают ей инст

Совсем недавно нейросети поражали воображение, но в последнее время, особенно после того как ажиотаж пошел на спад, многие пользователи начали замечать, что даже самые продвинутые модели начали справляться с поставленной задачей куда хуже, а то иногда выдают полный бред при запросах. Неужели ИИ на самом деле деградирует? Давайте разберёмся, как вообще учатся нейросети и как именно человек приложил к этому руку.

Как нейросеть учится

Нейросеть – это большая математическая модель, где каждый «нейрон» имеет веса, и они подстраиваются под примеры из данных. Процесс обучения основан на обратном распространении ошибки: сеть делает прогноз, сравнивает с правильным ответом и слегка меняет веса, чтобы ошибку уменьшить. В частности, современные языковые модели сначала предобучают (pretrain) на огромных массивах текстов: им «скармливают» книги, статьи, форумы, коды и т. д., чтобы сеть запомнила структуру языка и общие закономерности. Затем модель дообучают (fine-tuning) – например, задают ей инструкции и дают обратную связь от человека, чтобы она отвечала в нужном стиле. Современные модели «масштабируются»: их делают всё больше (больше параметров, больше данных, больше вычислений), а потом «дорабатывают» при помощи человеческой обратной связи через методы вроде вопросов-ответов. То есть «учат» не просто новым словам и фактам, но и желаемому поведению: хорошим манерам, политкорректности, безопасности.

Иногда это работает слишком хорошо. Например, ранние версии GPT даже элементарной арифметикой не владели – сложить «20 + 183» они часто не могли. После нескольких поколений обучения модели вдруг «выучили» считать и колоссальные 50-значные числа, чем удивили пользователей. Однако только когда люди стали доверять модели простые расчёты, начались проблемы: GPT уверенно отвечал на огромные суммы, но потом вдруг путал обычные трёх- или четырёхзначные числа, выдавая ошибку на «3913 + 92». Вроде лучше учится – а на деле путается в элементарных вещах. Оказывается, разработчики «подстегнули» систему так, что она никогда не уходила от ответа, а пыталась ответить на любой запрос. В итоге модель часто выдает не «не знаю», а «кажется, что-то знаю» – и получается бессмысленный бред вместо честной признательности в неумении.

-2

Масштабирование и оптимизация под толпу

Поколение за поколением модели растут в размерах и возможностях. GPT-3 с сотнями миллиардов параметров уступил место GPT-4, GPT-5 и т.д. При этом распространение нейросетей в массы диктует свои правила. Если раньше в первую очередь делали качественную и умную модель, то когда спрос взлетел, приоритеты сместились: теперь важны скорость, дешевизна и удобство. Известно: сперва продукт ориентирован на глубину и качество, потом он становится популярным, а дальше обновления направляют на массовую аудиторию и быстродействие.

Легко догадаться, что именно это неслабо повлияло на качество и эффективность нейросетей. Многие пользователи заметили закономерность: после апдейтов GPT-4 стал работать ощутимо быстрее, но хуже отвечать, и предполагают, что вместо одной мощной модели OpenAI использует сразу несколько узкоспециализированных малых моделей. Эксперты считают это возможным: мол, разбить большую модель на более лёгкие подзадачи – «естественный следующий шаг» для удешевления сервиса. Действительно, многомодельная система быстрее и экономит ресурсы, но может проще теряться в контексте, упускать важные детали и давать менее глубокий ответ.

Соответственно, пользователи видят эффект: ИИ отвечает быстрее, но теряет «нюансы». Например, если раньше ChatGPT мог угадать тон и подтекст вопроса почти без подсказок, то теперь на первый взгляд простая задача требует «подсказки на подсказку». Первым поколениям легко было задавать почти любую креативную задумку – они как будто фокусировались на глубине. Отсюда ощущение просадки качества - жесткие сроки и требования безопасности проглотили кусок сознания, отвечающий за качество и креатив.

Фильтры, выравнивание и потеря креатива

Ближний виновник «тупости» – жёсткие правила модерации и выравнивания (alignment). Разработчики заставили ИИ быть «как можно более хорошим», избавив его от «плохих» привычек: контента, разжигающего ненависть, очень рискованных высказываний и т.д. При этом баланс между тем чтобы угодить сразу всем и эффективностью – очень хрупкий. Разработчики безжалостно наказывают модели за «нежелательные» ответы и вознаграждают за «утешительные», но последствия этого бывают печальными: модель учится выдавать «безопасный» ответ, даже если это и не нормальный ответ вовсе. Проще говоря, фильтры и наказания стабилизируют речь ИИ, но «съедают» разнообразие и потенциал: ИИ выбирает тот же самый безопасный ответ вместо того, чтобы рискнуть.

В повседневной речи это заметно так: современные боты часто отвечают, как учебник – кратко и формально, особенно по спорным темам. Многие пользователи открыто жалуются, что новые версии ChatGPT «работают ленивее и глупее, чем раньше». Да, он теперь вежлив и аккуратен – но бесстрастность иногда граничит со скукой. В погоне за «никогда не уклоняться» разработчики пожертвовали тем, что могло сделать ИИ интересным собеседником. Модель научили всегда что-то отвечать, даже если лучше помолчать или признаться в некомпетентности. Вот и выходит: с каждым обновлением ИИ становится «полированнее» и осторожнее, но при этом утрачивает глубину рассуждений и порой тупит на простых вопросах.

Пользователи и обратная связь: порочный круг

Наконец, люди тоже влияют на этот процесс – часто неосознанно. Чем больше мы воюем с ИИ за скудную информацию или пишем ему сложные постановки задач, тем сильнее разрабам приходится жёстко ограничивать рискованные ответы. «Человеческая вина» здесь заключается в желании получить идеальный, «безопасный» результат. Кроме того, мы сами кормим модели чем попало: огромное количество контента в интернете уже генерируется не людьми, а ИИ. Некоторые называют это «ИИ-каннибализмом». Суть в том, что бот учится на всё большем количестве текстов, которые написаны не уникальным человеком, а клонированным алгоритмом. И чем больше таких повторов попадает в датасет, тем больше рушится «коэффициент оригинальности» нового текста. В итоге ИИ по кругу цитирует себя и своих собратьев, утрачивая ясность и связность. Как предупреждают эксперты, такой «порочный круг» ведёт к постепенному снижению качества генерации: модели начинают учиться на всё менее разнообразном материале, а потому и ответы становятся преснее.

Не стоит забывать, что в интернете также хватает «мусорного» контента, созданного исключительно людьми за многие годы. Ни один ИИ не выдержит такой нагрузки, если его целенаправленно кормить подобной информацией. Тут даже у нейросетей начнут гнить мозги.

АВТОР: ВЛАДИМИР МОЛОТОВ