Найти в Дзене

Когда ошибки — подарок для учителя: будущие педагоги разбирали ошибки ИИ и обнаружили, в чем ошибаются сами

Нейросети постепенно входят в учебные практики, но многие будущие учителя по-прежнему воспринимают их как нечто инородное для школы. Это чувство дистанции мешает широкому внедрению технологии. Исследование Юэ Чжан из Гонконгского педагогического университета показывает, что вопрос упирается не столько в навыки, а сколько в то, как сами педагоги понимают свою роль и что они считают собственным профессиональным пространством. © AI В опросах студенты признавали пользу ИИ для подготовки уроков и проверки текстов, но одновременно технология вызывала у них тревогу. Если машина пишет эссе и проверяет грамматику, что остается учителю? Многие реагировали фразой «Я гуманитарий, это не мое». Юэ считает, что такая защита порождает беспомощность, потому что изменения происходят независимо от того, признают студенты их или нет. Частью исследования стал курс, где студенты применяли ChatGPT для педагогических задач. Например, в одном проекте предложили ИИ написать диалог по теме экологии для китайских

Нейросети постепенно входят в учебные практики, но многие будущие учителя по-прежнему воспринимают их как нечто инородное для школы. Это чувство дистанции мешает широкому внедрению технологии. Исследование Юэ Чжан из Гонконгского педагогического университета показывает, что вопрос упирается не столько в навыки, а сколько в то, как сами педагоги понимают свою роль и что они считают собственным профессиональным пространством.

© AI
© AI

В опросах студенты признавали пользу ИИ для подготовки уроков и проверки текстов, но одновременно технология вызывала у них тревогу. Если машина пишет эссе и проверяет грамматику, что остается учителю? Многие реагировали фразой «Я гуманитарий, это не мое». Юэ считает, что такая защита порождает беспомощность, потому что изменения происходят независимо от того, признают студенты их или нет.

Частью исследования стал курс, где студенты применяли ChatGPT для педагогических задач. Например, в одном проекте предложили ИИ написать диалог по теме экологии для китайских школьников. Модель проигнорировала культурный контекст и выдала универсальную заготовку, которая могла появиться в учебнике любой страны.

Разбирать такие осечки нейросети оказалось делом весьма увлекательным. Студенты увидели очевидные ограничения инструмента и начали формулировать для себя, когда он помогает, а когда мешает. Они говорили уже не «Я не понимаю технологии», а «Я использую ее там, где это усиливает урок».

Доцент Инобра Назир Джогезай отметил, что ИИ-грамотность строится не на технических действиях, а на понимании ценностей и образовательных целей. Проблема в том, что студенты боятся не самого ИИ, а системы, в которой учатся. Их волнует, не обвинят ли в нечестности, примет ли преподаватель работу, не станет ли технология поводом для конфликта. Без ясных правил этот страх только усиливается.

По мнению экспертов, университетам нужна ясная и прозрачная политика применения ИИ. Например, технология может помогать при поиске идей и работе с черновиками, но на экзаменах и защитах ее использование нужно ограничивать. Такие правила важно обсуждать вместе со студентами, а не просто вводить запреты сверху. Иначе разговор превращается в спор о дозволенном, вместо совместного исследования того, как технологии меняют учебный процесс.

Посмотреть семинар ВК видео / Youtube