Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

Когда ИИ учит писать код — но разучивает думать

Плохая новость для всех, кто радостно отдал обучение ИИ на аутсорс. Новое исследование от Anthropic показывает: если активно использовать ИИ-ассистента при изучении новой технологии, мозг начинает лениться. И это не метафора, а измеряемый эффект — минус 17% понимания и особенно болезненный провал в навыках отладки. Именно тех, без которых ИИ превращается из помощника в источник скрытых багов. Исследователи взяли разработчиков с опытом Python и дали им новую асинхронную библиотеку Trio — штуку не тривиальную, с концепциями вроде структурированной конкурентности (structured concurrency). Половине участников разрешили пользоваться ИИ-ассистентом (на базе GPT-4o), половине — нет. Задачи были максимально приближены к реальности: ⚙️
– написать таймер с конкурентными задачами
– обработать ошибки асинхронного ввода-вывода
– разобраться, почему корутина «не awaited» и что с этим делать После этого — тест:
📚 понимание концепций
🧠 чтение чужого кода
🐛 отладка И вот здесь начинается самое интер
Оглавление

Плохая новость для всех, кто радостно отдал обучение ИИ на аутсорс. Новое исследование от Anthropic показывает: если активно использовать ИИ-ассистента при изучении новой технологии, мозг начинает лениться. И это не метафора, а измеряемый эффект — минус 17% понимания и особенно болезненный провал в навыках отладки. Именно тех, без которых ИИ превращается из помощника в источник скрытых багов.

Что именно проверяли — и почему результат получился неприятным

Исследователи взяли разработчиков с опытом Python и дали им новую асинхронную библиотеку Trio — штуку не тривиальную, с концепциями вроде структурированной конкурентности (structured concurrency). Половине участников разрешили пользоваться ИИ-ассистентом (на базе GPT-4o), половине — нет.

Задачи были максимально приближены к реальности:

⚙️
– написать таймер с конкурентными задачами
– обработать ошибки асинхронного ввода-вывода
– разобраться, почему корутина «не awaited» и что с этим делать

После этого — тест:
📚 понимание концепций
🧠 чтение чужого кода
🐛 отладка

И вот здесь начинается самое интересное.

Цифры, которые стоит перечитать дважды

📉 Минус 17% к знаниям
Разработчики с ИИ показали на 17% худшие результаты в тесте. Это не «чуть хуже», а минус две полноценные оценки.

🐛 Отладка пострадала сильнее всего
Самый большой разрыв — в дебаггинге (debugging). Люди, которые меньше сталкивались с ошибками сами, хуже понимали,
почему код ломается.

Продуктивность почти не выросла
В среднем ИИ не дал статистически значимого ускорения. Некоторые участники тратили до
30% времени просто на формулирование запросов ассистенту.

Это важный момент:
ИИ
не ускорил обучение, но замедлил формирование навыков.

Шесть типов поведения с ИИ — и только три из них безопасны

Авторы вручную просмотрели записи экранов всех участников и выделили шесть паттернов взаимодействия с ИИ. Это, на мой взгляд, ключевая часть работы.

Паттерны, которые убивают обучение

🧠❌ Полная делегация
ИИ пишет код → человек копипастит → идёт дальше. Быстро. Пусто в голове.

🐌❌ ИИ-отладка по кругу
«Вот ошибка, почини» → «А теперь эту» → «А всё ли правильно?»
Минимум мышления, максимум зависимости.

📉❌ Прогрессирующая лень
Первую задачу ещё думают, вторую — полностью отдают ИИ.

Паттерны, которые сохраняют мозг

🧠✅ Сначала код — потом понимание
ИИ сгенерировал → человек
разбирает, задаёт уточняющие вопросы, перепроверяет.

📚✅ Код + объяснение
Просьба не просто «напиши», а «напиши и объясни, почему так».

🔍✅ Только концептуальные вопросы
ИИ — как документация и преподаватель, а не как автопилот.

Ирония в том, что внешне все шесть паттернов выглядят одинаково: человек общается с ИИ. Но когнитивно — это разные вселенные.

Почему именно отладка — зона максимального риска

Отладка — это место, где формируется инженерное мышление:

🐛 столкнулся с ошибкой
🔍 понял, откуда она
🧠 связал с моделью исполнения
🛠 исправил

ИИ убирает первые два шага. Ошибка исчезает — а понимание так и не появляется. В эксперименте контрольная группа (без ИИ) сталкивалась с ошибками в 3 раза чаще — и именно поэтому лучше их понимала.

Это тревожный сигнал для индустрии:
мы всё больше полагаемся на ИИ-код, но всё меньше умеем его проверять.

Моё мнение: это не «ИИ плохой», это «мы используем его неправильно»

Исследование не говорит «запретите Copilot». Оно говорит куда более неприятную вещь:

Продуктивность ≠ компетентность

ИИ — это усилитель.
Он усиливает и мышление, и его отсутствие.

Если использовать его как:
🧠 преподавателя
📖 интерактивную документацию
🔍 собеседника для проверки гипотез

— обучение сохраняется.

Если как:
🤖 автогенератор решений
🪄 магическую кнопку «сделай»

— мозг быстро уходит в режим энергосбережения.

Что это значит для компаний и образования

🏢 Для бизнеса
Риск вырастить инженеров, которые не способны контролировать ИИ-код. Особенно опасно в финтехе, медицине, безопасности.

🎓 Для обучения
ИИ нельзя просто «разрешить» — его нужно
встраивать в методику:
– запрет на автогенерацию
– акцент на объяснения
– отдельная практика отладки без ИИ

🤖 Для будущего
Чем умнее становятся модели, тем
важнее становится человек, который понимает, когда модель ошибается.

Итог

ИИ действительно делает нас быстрее.
Но без дисциплины он делает нас и
глупее — тихо, незаметно, без ощущения деградации.

Главный вывод исследования Anthropic звучит жёстко, но честно:

ИИ-ускорение — не короткий путь к мастерству.

И если мы не научимся пользоваться ассистентами осознанно, нас ждёт поколение разработчиков, которые пишут код быстрее всех…
и не понимают, почему он работает.

Источники