С появлением «мыслящих» моделей и техник вроде цепочек рассуждений мы получили то, о чём мечтали: универсальные помощники, умеющие планировать, раскладывать сложные задачи на шаги и объяснять ход мыслей. Но вместе с этим пришёл побочный эффект: ИИ всё чаще «перемудривает» там, где нужна быстрая и прямолинейная помощь. Андрэй Карпати сформулировал это предельно метко: по умолчанию LLM становятся излишне «агентными», даже когда от них ждут всего лишь «быстрый взгляд». В кодинге это видно особенно ярко. Модель запускает длительное «глубокое размышление», обходит весь репозиторий, бесконечно гуглит, анализирует краевые кейсы, а пользователю была нужна простая проверка индекса перед запуском скрипта. Приходится обрывать: «Стоп. Смотри только этот файл. Не используй инструменты. Никаких сверхдизайнов». В повседневных задачах происходит то же: вместо краткого ответа — длинная «мысль вслух», вместо элементарной правки текста — экзаменационное эссе. Свежие примеры с GPT‑5 лишь усилили раздражен
Почему LLM усложняют простые задачи и что с этим делать
12 августа 202512 авг 2025
2
3 мин