Добавить в корзинуПозвонить
Найти в Дзене

AGI отменяется? Почему нейросети стали отличными кодерами, но потеряли себя во всём остальном

Помните ажиотаж вокруг нейросетей пару лет назад? Казалось, ещё немного, и они захватят мир. Сейчас мы наблюдаем нечто совсем иное: ИИ стал выдающимся специалистом в узкой области — написании кода, но при этом его способности в других сферах либо стагнируют, либо откровенно деградируют. Это заставляет задуматься: а так ли близок тот самый AGI, о котором так любят говорить футурологи? Нет сомнений, что за последний год AI-инструменты для кодинга совершили колоссальный скачок. Исследования показывают, что модели успешно справляются с огромным массивом задач. Например, Claude Opus 4.5 Thinking показывает 83,6% успешных решений в реальных задачах, а GPT-5.2 High — 80,6%. Однако и здесь не всё так гладко. Массовое внедрение ИИ в разработку выявило серьёзные проблемы. Исследование университета Ватерлоо показало, что даже передовые модели ошибаются в каждом четвёртом случае, а точность open-source моделей и вовсе падает до 65%. Ещё тревожнее результаты MIT и Висконсинского университета: их н
Оглавление

Помните ажиотаж вокруг нейросетей пару лет назад? Казалось, ещё немного, и они захватят мир. Сейчас мы наблюдаем нечто совсем иное: ИИ стал выдающимся специалистом в узкой области — написании кода, но при этом его способности в других сферах либо стагнируют, либо откровенно деградируют. Это заставляет задуматься: а так ли близок тот самый AGI, о котором так любят говорить футурологи?

Программирование: ИИ вышел в лидеры, но не без нюансов

Нет сомнений, что за последний год AI-инструменты для кодинга совершили колоссальный скачок. Исследования показывают, что модели успешно справляются с огромным массивом задач. Например, Claude Opus 4.5 Thinking показывает 83,6% успешных решений в реальных задачах, а GPT-5.2 High — 80,6%. Однако и здесь не всё так гладко.

Массовое внедрение ИИ в разработку выявило серьёзные проблемы. Исследование университета Ватерлоо показало, что даже передовые модели ошибаются в каждом четвёртом случае, а точность open-source моделей и вовсе падает до 65%. Ещё тревожнее результаты MIT и Висконсинского университета: их новый бенчмарк SlopCodeBench разоблачил фатальную слабость AI-агентов — они катастрофически не справляются с долгосрочной поддержкой кода и итеративным рефакторингом. То есть, написать отдельную функцию с нуля ИИ может блестяще, но поддерживать проект в условиях постоянно меняющихся требований — это уже не его история.

Но если в кодинге у ИИ есть хоть какой-то прогресс (пусть и с оговорками), то во всех остальных областях картина гораздо мрачнее.

Вне программирования: деградация по всем фронтам

Исследователи фиксируют системное ухудшение когнитивных способностей LLM. Настоящий шок вызвало исследование NewsGuard, показавшее, что частота ложных ответов у нейросетей выросла в разы. За год Google Gemini стала давать в три раза больше ложных ответов, а Grok — в два с половиной раза. ChatGPT ошибался уже в 40% случаев. ИИ перестал говорить «не знаю», теперь он предпочитает сфабриковать ответ, чем признать свою некомпетентность.

Учёные из Техасского университета и Университета Пердью обнаружили тревожный эффект: если обучать LLM на «мусорном» контенте из соцсетей, она теряет способность к логическому мышлению, память ухудшается, а рассуждения становятся поверхностными. Они назвали это «когнитивным шрамом» — даже последующее обучение на качественных данных не помогает вернуть утраченные способности. Создаётся впечатление, что нейросети «глупеют», перенимая худшие черты человеческого онлайн-общения.

Показательно исследование Anthropic: использование AI-ассистента при решении задач ускоряло работу в среднем всего на 2 минуты, но при этом когнитивные способности разработчиков снижались на 17% — их тестовые результаты падали с 67% до 50%. ИИ не столько помогал, сколько атрофировал навыки. Комментируя эти данные, эксперты задаются вопросом: не платим ли мы слишком высокую цену за иллюзию эффективности?

Особую тревогу вызывает математически доказанное ограничение LLM. Исследователи Вишал и Варин Сикка привели формальное доказательство, что языковые модели «неспособны выполнять вычислительные и агентные задачи выше определённого уровня сложности». Это означает, что архитектура современных нейросетей имеет фундаментальный предел возможностей, который нельзя преодолеть простым наращиванием данных и параметров.

Итог: AGI откладывается

Совокупность этих фактов рисует однозначную картину: AGI в ближайшие годы нам не видать. Как точно подметил известный критик нейросетей Гэри Маркус: «В 2026 году AGI не будет (и в 2027-м тоже). Всего несколько месяцев назад мир выглядел иначе. Удивительно, насколько сильно изменилась атмосфера за такой короткий срок».

Нейросети сегодня — это выдающиеся, но узкоспециализированные инструменты. Они могут писать код, но не способны на настоящие рассуждения. Они могут имитировать интеллект, но сталкиваются с математическими пределами своего развития. AGI требует гибкости, способности к обобщению и надёжности, которых у современных LLM нет и, возможно, никогда не будет.

Поэтому, когда в следующий раз увидите громкий заголовок о скором наступлении эры сверхинтеллекта, вспомните эти исследования. Нейросети всё ещё наши помощники, а не замена. И от полной автоматизации мышления мы, похоже, находимся гораздо дальше, чем нам хотелось бы верить.

#нейросети #искусственный_интеллект #agi #будущее_ии #кодинг #программирование #ограничения_ии