Добавить в корзинуПозвонить
Найти в Дзене
Сельский учитель

Два года с роботом: как британские студенты не заметили подмены – и что это говорит о нашем образовании

Посреди лекции голос диктора вдруг сменил акцент – с британского на испанский. Примерно через полминуты вернулся обратно. Студенты Стаффордширского университета переглянулись: это была не оговорка живого человека. Это был сбой синтезатора речи. Они поняли с первого занятия. Пожаловались преподавателю – тот отмахнулся. Пошли в студкомитет – там пообещали разобраться. Дошли до администрации – и услышали, что преподаватели имеют право «использовать различные инструменты». Почти год студенты курса по программированию добивались ответа на простой вопрос: почему их учит нейросеть, а не человек? И почти год их не слышали. История выплеснулась в The Guardian в ноябре 2024 года. Выяснилось: преподаватель признал, что у него не было времени готовить программу, и он генерировал материалы нейросетью – не вычитывая, не исправляя, не проверяя. В лекциях встречались ссылки на законодательство США вместо британского, файлы с машинными названиями, обороты, характерные для американского английского. По
Оглавление

Посреди лекции голос диктора вдруг сменил акцент – с британского на испанский. Примерно через полминуты вернулся обратно. Студенты Стаффордширского университета переглянулись: это была не оговорка живого человека. Это был сбой синтезатора речи.

Они поняли с первого занятия. Пожаловались преподавателю – тот отмахнулся. Пошли в студкомитет – там пообещали разобраться. Дошли до администрации – и услышали, что преподаватели имеют право «использовать различные инструменты». Почти год студенты курса по программированию добивались ответа на простой вопрос: почему их учит нейросеть, а не человек? И почти год их не слышали.

История выплеснулась в The Guardian в ноябре 2024 года. Выяснилось: преподаватель признал, что у него не было времени готовить программу, и он генерировал материалы нейросетью – не вычитывая, не исправляя, не проверяя. В лекциях встречались ссылки на законодательство США вместо британского, файлы с машинными названиями, обороты, характерные для американского английского. По оценке одного из студентов, полезного содержания во всём курсе было около 5%. Санкций к преподавателю не последовало. Университет заявил, что «академические стандарты были соблюдены».

Коллеги, я думаю, многие из нас прочитали эту историю и почувствовали что-то неприятное. Не возмущение даже – скорее узнавание. Потому что первая мысль была не «как они посмели», а «а у нас так не бывает?»

ИИ уже в классе – и давно

Стаффордшир – не исключение и не курьёз. Это крайняя точка процесса, который идёт повсюду, просто тихо.

ИИ в образовании – не завтра и не послезавтра. Он здесь. Адаптивные платформы выстраивают индивидуальный маршрут для каждого ученика прямо во время работы: алгоритм видит, где ребёнок тормозит, и тут же предлагает другое объяснение или более лёгкое упражнение. Системы автопроверки анализируют письменные работы – не только на орфографию, но и на логику изложения, структуру аргументации. Чат-боты дают обратную связь в любое время суток, не уставая и не раздражаясь.

Коллега из Екатеринбурга рассказывал, что начал использовать ИИ для генерации задач по информатике по уровню конкретного ученика. Раньше на это уходило два часа в неделю – теперь двадцать минут. Освободившееся время он тратит на разговоры с теми, кто застрял: не на проверку, а на живое объяснение. Успеваемость в классе выросла – и дело не в алгоритме, а в том, что у него наконец появилось время быть учителем, а не составителем вариантов.

Это и есть ИИ как инструмент. Полезный, оправданный, работающий. Сэкономленное время возвращается туда, откуда его изначально и забирала рутина.

Но это – одна сторона. И она принципиально отличается от того, что произошло в Стаффордшире.

Госдума предлагает легализовать. Но что именно?

В конце 2024 года в Госдуме прозвучало предложение частично легализовать использование ИИ в учебном процессе. Пока речь идёт об обсуждении, а не о готовом законе – но сам факт показателен. Система начинает искать правовые рамки для того, что де-факто уже существует.

Что значит «частично легализовать»? Скорее всего – разрешить применение нейросетей для вспомогательных задач: генерация учебных материалов, помощь в подготовке к урокам, автоматизированная проверка тестов. Запретить при этом подмену живого педагога алгоритмом в тех случаях, когда закон требует именно человека.

Звучит разумно. Но дьявол, как обычно, в деталях: где именно проходит граница между «вспомогательным» и «основным»? И кто будет следить за тем, чтобы эта граница не сдвигалась год за годом?

Ответа на эти вопросы в инициативе пока нет. Что уже само по себе – ответ.

Показательно и другое: инициатива появилась не потому, что кто-то придумал красивую реформу. Она появилась потому, что жизнь обогнала закон. Школьники используют нейросети для домашних заданий, студенты – для курсовых, учителя – для подготовки к урокам. Всё это происходит в серой зоне, где нет ни чётких правил, ни ответственности. Законодатель пытается нагнать то, что уже случилось.

Помогает и заменяет – это не одно и то же

Вот тут начинается самое важное – то, о чём в новостях про ИИ говорят меньше всего.

Разница между «ИИ помогает учителю» и «ИИ вместо учителя» – это не разница в технологии. Это разница в функции.

Когда алгоритм подбирает задачи по уровню – он делает рутинную работу. Хорошо и быстро. Учитель при этом остаётся: он решает, что важно для этого конкретного ребёнка, замечает, что тот сегодня сам не свой, разговаривает с родителями, несёт ответственность за результат.

Когда алгоритм ведёт курс – он делает другое. Он занимает место, которое по природе своей должно принадлежать человеку. Не потому что машина справляется хуже – может, даже лучше объясняет. А потому что образование – это не только передача информации.

Педагог видит ребёнка. Не пользователя системы, не набор правильных и неправильных ответов – человека. Он замечает, когда умный ученик вдруг начинает отставать. Слышит в «я не понял задание» настоящее «у меня дома что-то случилось». Принимает решения, которые не описываются никаким алгоритмом – потому что они этические, а не вычислительные.

Алгоритм этого не делает. Не потому что плохой. Потому что другой.

И здесь – главная этическая граница. Не там, где ИИ делает ошибки. Там, где он всё делает правильно, но не замечает человека.

Можно делегировать машине: составление вариантов заданий разного уровня, первичную проверку фактических ошибок, напоминания и расписание, статистику успеваемости по классу, подбор дополнительных материалов по теме.

Нельзя делегировать: решение о том, нужна ли ребёнку помощь психолога; разговор с учеником, который остался после урока «просто так»; оценку того, честно ли написана работа или за ней стоит чья-то чужая рука; выбор – когда требовать, а когда отступить.

Это не сентиментальность. Это профессиональная компетенция, которая формируется годами и не имеет алгоритмического описания.

Что говорят педагоги, студенты и работодатели

Где, по мнению тех, кто думает об этом профессионально, проходит та самая граница?

Педагоги с опытом говорят примерно одно: граница проходит там, где заканчивается контекст. Всё, что можно описать алгоритмически – проверить, подобрать, напомнить, – машина делает не хуже. Но всё, что требует понять ситуацию конкретного ребёнка в конкретный момент его жизни, – нет. Разбор конфликта в классе. Решение, стоит ли сейчас требовать или лучше отступить. Это не автоматизируется – потому что здесь нет правильного ответа, есть только ответственный.

Студенты говорят другое – и их позицию стоит слышать, а не только осуждать. Многие признают, что пользуются нейросетями для написания рефератов и подготовки к семинарам. Но в разговорах честные из них добавляют: если бы преподаватель давал живую обратную связь – не оценку, а разговор, – они бы пользовались ИИ меньше. Алгоритм заполняет пустоту там, где человека нет. Или есть, но формально: пришёл, отчитал материал, ушёл.

Работодатели в этой дискуссии занимают прагматичную позицию. Им нужны сотрудники, которые умеют работать с ИИ-инструментами – это факт 2026 года, а не прогноз. Но им также нужны люди, которые умеют думать, когда инструмент даёт неверный ответ, когда ситуация нестандартная, когда нужно принять решение без подсказки. А это – результат живого образования, а не алгоритмического.

Три угла зрения. Один вывод: машина усиливает то, что уже есть. Если образование живое – ИИ сделает его эффективнее. Если образование формальное – ИИ его заменит. А тех, кто заметит и пожалуется, просто не услышат.

Что делать прямо сейчас

Первое: разобраться для себя, что в вашей работе можно автоматизировать без потери смысла. Составление вариантов контрольных, подбор примеров, напоминания ученикам о дедлайнах – это рутина, которую ИИ делает быстрее. Забирайте своё время обратно.

Второе: не ждать официального разрешения. Легальные инструменты уже есть – российские и зарубежные платформы с ИИ-ассистентами для учителей работают и доступны. Разница между «я боюсь трогать» и «я умею применять» – это разница между тем, кто управляет процессом, и тем, кого этот процесс обгоняет.

Третье: говорить с учениками честно. Не запрещать нейросети криком – объяснять, где их использование помогает учиться, а где обманывает самого себя. Студент, который отдал реферат алгоритму, не научился ничему. А тот, кто использовал ИИ для структурирования собственных мыслей и потом написал текст сам, научился больше, чем если бы работал только традиционными методами. Это разные сценарии – и педагог может помочь ученику понять разницу.

Те студенты в Стаффордшире заметили сразу – с первого занятия. Жаловались почти год. Их не услышали, потому что администрации было удобнее считать, что всё в порядке. Алгоритм не создал проблему. Он просто сделал невидимое – видимым.

ИИ не создаёт пустоту в образовании. Он её обнаруживает.

Вопрос не в том, разрешить или запретить. Вопрос в том, есть ли в нашем учебном процессе то, что машина в принципе не может сделать. И если есть – мы в порядке. Если нет – никакой запрет ничего не спасёт.

Пишите в комментариях, как вы думаете: почувствовали бы ваши ученики разницу, если бы часть уроков вёл алгоритм?