Добавить в корзинуПозвонить
Найти в Дзене
Учитель на миллион

«Иллюзия мастерства»: почему ИИ может мешать детям учиться. Разбор отчёта OECD

Вышел отчёт, который заставляет задуматься.
OECD (Организация экономического сотрудничества и развития) опубликовала Digital Education Outlook 2026 — масштабное исследование о том, как генеративный ИИ влияет на образование.
Главный вывод звучит тревожно: технологии могут создавать у учеников «иллюзию мастерства». Оценки растут, а реальные знания — нет.
Разбираюсь, что за этим стоит и что это
Оглавление

Вышел отчёт, который заставляет задуматься.

OECD (Организация экономического сотрудничества и развития) опубликовала Digital Education Outlook 2026 — масштабное исследование о том, как генеративный ИИ влияет на образование.

Главный вывод звучит тревожно: технологии могут создавать у учеников «иллюзию мастерства». Оценки растут, а реальные знания — нет.

Разбираюсь, что за этим стоит и что это значит для нас.

Главные цифры

Исследователи проанализировали данные из разных стран. Вот что обнаружили.

Рост результатов с ИИ: студенты, использовавшие инструменты вроде ChatGPT, показывали улучшение тестовых баллов до 127%.

Падение без ИИ: когда доступ к нейросетям убирали, результаты тех же студентов падали в среднем на 17%.

Вывод исследователей прямолинеен: ИИ не просто помогал студентам учиться. Во многих случаях он учился за них.

Эксперимент, который всё объясняет

В отчёте описан годовой эксперимент с участием более 1000 школьников в Турции.

Участников разделили на три группы:

  • Первая использовала обычный чат-бот, который давал готовые ответы
  • Вторая — «репетиторский» ИИ, который давал подсказки и наводящие вопросы, но не решения
  • Третья училась без ИИ вообще

Результаты оказались показательными.

Студенты, использовавшие чат-бот с готовыми ответами, набирали на 48% больше баллов, чем контрольная группа. Но это были баллы за работы, выполненные с помощью ИИ.

Когда провели экзамен без доступа к технологиям — преимущество исчезло. А иногда даже обернулось отставанием.

Что такое «иллюзия мастерства»

OECD использует термин «mirage of false mastery» — мираж ложного мастерства.

Суть простая. Впечатляющие результаты, сгенерированные ИИ, маскируют недоразвитие базовых навыков.

Ученик получает пятёрку за эссе, которое написал ChatGPT. Он видит хорошую оценку и думает: «Я молодец, я разобрался». Но на самом деле он не научился ничему — ни структурировать мысли, ни аргументировать, ни писать связный текст.

Перекладывание когнитивных задач на чат-боты создаёт риски «метакогнитивной лени» и отстранённости, которые могут тормозить развитие навыков в долгосрочной перспективе.

Не только ученики

Учителя тоже меняют поведение.

Предварительные данные опроса TALIS 2024 показывают, что около 37% учителей средней школы в странах OECD используют ИИ для планирования уроков или административной работы. В некоторых странах и крупных городах эта цифра превышает 60%.

Это экономит время. Но исследователи предупреждают: если учителя становятся посредниками для планов, сгенерированных алгоритмами, образование теряет человеческое ядро.

Считывать реакции учеников, корректировать объяснения, реагировать на эмоциональные сигналы — это нельзя автоматизировать без последствий.

Новое неравенство

Раньше считалось, что ИИ сократит разрыв в образовании. OECD говорит: возможно, происходит обратное.

Разрыв больше не в доступе к устройствам. Он в качестве ИИ и в том, присутствует ли рядом человек-наставник.

Состоятельные семьи могут сочетать премиальные ИИ-инструменты с квалифицированными репетиторами. Менее обеспеченные ученики полагаются на бесплатные чат-боты, которые дают ответы без объяснений.

На коротких дистанциях результаты могут выглядеть похоже. Но глубинные навыки решения проблем расходятся со временем. И этот разрыв следует за учениками в университет и на рынок труда.

Что делать

OECD не призывает запретить ИИ. Призыв другой: использовать его с педагогическим смыслом.

ИИ может улучшать результаты обучения, если используется с ясной педагогической целью или когда стратегии преподавания перестраиваются с учётом его доступности.

Ключевое различие:

  • Плохо: чат-бот, который даёт готовые ответы
  • Хорошо: ИИ-репетитор, который задаёт наводящие вопросы и помогает ученику думать самому

Отчёт призывает отказаться от использования готовых чат-ботов вроде ChatGPT в пользу специально разработанных образовательных ИИ-систем, созданных совместно с учителями.

Моё мнение

Два момента.

Первый. Это не про «ИИ — зло». Это про то, как мы его используем. Молоток — полезный инструмент. Но если ребёнок использует молоток, чтобы разбить орех, вместо того чтобы научиться раскалывать его правильно — проблема не в молотке.

Второй. Главный вопрос, который задаёт OECD: не «насколько хорошо ученики умеют использовать ИИ», а «могут ли они ещё думать без него».

Это вопрос, который стоит задавать себе каждый раз, когда мы даём детям доступ к нейросетям.

Что это значит для учителя

Несколько практических выводов.

Разделять инструмент и результат. Если ученик сдал блестящую работу — это ещё не значит, что он чему-то научился. Важно понимать, как он к этому результату пришёл.

Менять форматы оценивания. Традиционные модели оценивания, сфокусированные только на конечном продукте, становятся неадекватными. Нужно оценивать процесс, а не только результат.

Учить думать, а не искать ответы. ИИ, который даёт подсказки и наводящие вопросы, работает лучше, чем ИИ, который решает за ученика. Это принцип, который можно применять и без технологий.

Не бояться, но быть осторожным. ИИ — это инструмент. Он может усилить хорошее обучение. А может создать иллюзию, что обучение происходит.

Разница — в том, как мы его используем.

А вы замечали «иллюзию мастерства» у своих учеников? Как справляетесь? Напишите в комментариях — тема важная, хочется услышать опыт коллег.

Подписывайтесь на канал — здесь разбираем, как технологии меняют образование. Честно, с данными и без паники.