Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

🧠 2025: конец «стохастического попугая» и взросление ИИ

Ещё пару лет назад фраза стохастический попугай (stochastic parrot) звучала почти как приговор для больших языковых моделей. Скептики повторяли мантру: «они ничего не понимают», «это просто статистика», «следующий токен — и никакого мышления». Итоги 2025 года показывают: этот спор фактически закрыт. Не потому, что у ИИ внезапно появилась «душа», а потому что инженерные факты оказались сильнее риторики. Поводом для этого сдвига стала заметка antirez — человека, который не склонен к хайпу и привык судить по работающим системам. Ключевое слово года — цепочка рассуждений (Chain of Thought - COT). Но важно сразу снять иллюзию: это не новая архитектура и не «включённый режим мышления». Это всё тот же трансформер, всё та же задача предсказания следующего токена. И всё же разница принципиальная. 🧠 внутренний поиск — модель начинает «разворачивать» пространство представлений
🧠 пошаговое приближение к ответу — каждый токен меняет состояние системы
🧠 сходимость к полезному решению, а не к перв
Оглавление

Ещё пару лет назад фраза стохастический попугай (stochastic parrot) звучала почти как приговор для больших языковых моделей. Скептики повторяли мантру: «они ничего не понимают», «это просто статистика», «следующий токен — и никакого мышления». Итоги 2025 года показывают: этот спор фактически закрыт. Не потому, что у ИИ внезапно появилась «душа», а потому что инженерные факты оказались сильнее риторики.

Поводом для этого сдвига стала заметка antirez — человека, который не склонен к хайпу и привык судить по работающим системам.

🧩 Что на самом деле изменилось

Ключевое слово года — цепочка рассуждений (Chain of Thought - COT). Но важно сразу снять иллюзию: это не новая архитектура и не «включённый режим мышления». Это всё тот же трансформер, всё та же задача предсказания следующего токена.

И всё же разница принципиальная.

🧠 внутренний поиск — модель начинает «разворачивать» пространство представлений
🧠
пошаговое приближение к ответу — каждый токен меняет состояние системы
🧠
сходимость к полезному решению, а не к первому вероятному

В сочетании с подкрепляющим обучением это превращает генерацию текста из реакции в процесс.

🔁 Почему RL меняет правила игры

Долгое время считалось, что масштабирование LLM упирается в длину контекста и объём данных. 2025 год показал: это не предел.

🎯 проверяемая награда — скорость программы, корректность вывода, прохождение тестов
🎯
долгий горизонт улучшений — модель может улучшать результат снова и снова
🎯
практический прогресс, а не только красивые демо

Мы ещё не видели «хода 37» как у AlphaGo, но стало очевидно: для некоторых задач бесконечное улучшение — не метафора, а инженерная цель.

👨‍💻 Программисты перестали сопротивляться

Один из самых показательных сдвигов — изменение отношения разработчиков. Не потому что ИИ стал идеальным, а потому что окупаемость усилий наконец стала положительной.

🧑‍💻 ИИ как коллега — идеи, черновики, объяснения
🤖 ИИ как
агент — автономные исправления и рефакторинг
🛠️ ИИ как
ускоритель мышления, а не автогенератор кода

Ошибки никуда не делись. Но баланс «польза / раздражение» сместился в правильную сторону.

🧪 ARC-AGI: из барьера в доказательство

Тест ARC долго воспринимался как анти-LLM-лакмус. Задачи на абстрактное мышление, минимальные данные, никакого «угадывания по корпусу».

И вдруг в 2025 году выяснилось:

🧩 небольшие специализированные модели справляются с ARC-AGI-1
🧩 большие LLM с развёрнутым CoT показывают сильные результаты на ARC-AGI-2
🧩 архитектура, которую «списали», внезапно работает

ARC не стал простым. Он стал индикатором прогресса, а не аргументом против.

🧠 Это всё ещё не «настоящее мышление» — и это нормально

Один из самых трезвых тезисов antirez: Chain of Thought не меняет природу LLM. Это всё тот же предсказатель следующего токена (next-token prediction), просто доведённый до логического предела.

И в этом нет противоречия.

Человеческое мышление тоже — последовательность состояний. Просто у нас они нейробиологические, а у модели — дифференцируемые.

🌍 Главный вопрос не в возможностях, а в рисках

Самая важная мысль статьи звучит почти мимоходом:
следующие 20 лет ключевая задача — не создать сверхинтеллект, а выжить рядом с ним.

⚠️ масштабируемые модели
⚠️ автономные агенты
⚠️ долгоживущие цели и награды

Технический прогресс ускорился. Социальные и институциональные механизмы — нет.

🔚 Итог

2025 год стал моментом взросления ИИ-дискуссии. Споры «понимает / не понимает» уступили место вопросам «как именно работает» и «что мы с этим делаем».

LLM перестали быть «стохастическими попугаями» не потому, что изменились по сути, а потому что мы научились правильно с ними работать.

И, возможно, это самый важный урок года: интеллект — это не магия, а процесс. Иногда очень сложный, иногда опасный, но уже вполне инженерный.

🔗 Ссылки