Добавить в корзинуПозвонить
Найти в Дзене

Я стал "иконкой доверия", а мой сын разучился говорить

— Слушай, а ты видел новую платформу? — спросил меня Колян, доцент с кафедры философии, пока мы пили кофе в буфете университета. Он развернул планшет. Красивый интерфейс. Графики прогресса. Адаптивные траектории. Персональные рекомендации. — Вот, смотри, — он тыкал пальцем в экран, — студент заходит, система анализирует его уровень, и — бац! — сама строит программу. Не надо думать, что ему задавать. Не надо проверять тесты. Не надо стоять у доски. — А что надо? — спросил я. — Сопровождать, — он улыбнулся. — Быть тьютором. Наставником. Человеческим лицом системы. Я тогда поверил. Мы все поверили. После трёх лет дистанционки, после бардака с документами, после усталости от живых аудиторий — это казалось спасением. Особенно когда декан Смирнов на общем собрании сказал: — Коллеги, это не замена вам. Это ваше освобождение. От рутины. От проверок. От бесконечных бумажек. Вы наконец сможете заняться настоящей наукой. Я посмотрел на свои руки. На мозоли от письма в журналах. На красные глаза п
Оглавление

— Слушай, а ты видел новую платформу? — спросил меня Колян, доцент с кафедры философии, пока мы пили кофе в буфете университета.

Он развернул планшет. Красивый интерфейс. Графики прогресса. Адаптивные траектории. Персональные рекомендации.

— Вот, смотри, — он тыкал пальцем в экран, — студент заходит, система анализирует его уровень, и — бац! — сама строит программу. Не надо думать, что ему задавать. Не надо проверять тесты. Не надо стоять у доски.

— А что надо? — спросил я.

— Сопровождать, — он улыбнулся. — Быть тьютором. Наставником. Человеческим лицом системы.

Я тогда поверил. Мы все поверили. После трёх лет дистанционки, после бардака с документами, после усталости от живых аудиторий — это казалось спасением.

Особенно когда декан Смирнов на общем собрании сказал:

— Коллеги, это не замена вам. Это ваше освобождение. От рутины. От проверок. От бесконечных бумажек. Вы наконец сможете заняться настоящей наукой.

Я посмотрел на свои руки. На мозоли от письма в журналах. На красные глаза после ночи с курсовыми.

И подумал: наконец-то.

Январь 2029. Кульминация или ...

Первый семестр прошёл как сказка.

Я сидел в кабинете, смотрел на экран, и система делала всё за меня. Назначала задания. Проверяла тесты. Строила рейтинги. Выявляла "зоны риска".

Мне оставалось только нажимать "подтвердить" и иногда — "скорректировать траекторию".

Студенты были довольны. Не надо ехать в университет. Не надо стоять у доски. Не надо отвечать вслух, когда трясутся колени.

Алгоритм был вежлив. Терпелив. Никогда не кричал. Никогда не опаздывал. Никогда не сказал "вы не поняли, потому что не думали".

Я звонил Коляну:

— Слушай, а это реально работает? Они же учатся?

— Работает, — он был счастлив. — Смотри статистику. Проходимость выросла на 34%. Время усвоения сократилось. Отчётность идеальная.

— А качество?

— А что такое качество? — он рассмеялся. — Они проходят тесты. Они набирают баллы. Они двигаются по траектории. Всё по науке.

Я повесил трубку и посмотрел на свой кабинет. Пустой. Раньше здесь сидели студенты. Спорили. Плакали. Смеялись. Приходили с чаем и просили "ещё раз объяснить".

Теперь здесь был только я и экран.

И зелёные галочки.

Мы тогда выдохнули. Ошибка исправлена. Система работает. Можно спокойно ждать весны.

Март 2029. Когда я увидел Машу

Маша была у меня на курсе "История социальных теорий". Или, точнее, была в моём цифровом кабинете — её аватарка появлялась в списке, я видел её прогресс.

Зелёный цвет. Стабильная траектория. Хорошие баллы. Система не выявила рисков.

Но однажды я пришёл в университет за книгами и увидел её в коридоре. Она сидела на подоконнике, закутанная в пальто, хотя в помещении было +22.

— Маша? — подошёл я. — Вы же у меня на курсе. Всё в порядке?

Она подняла глаза. Я увидел то, что не видит алгоритм. Красные веки. Следы слёз. Трясущиеся руки.

— Простите, — прошептала она. — Я не хотела, чтобы вы видели.

— Что случилось?

Она помолчала. Потом сказала:

— У меня мама умерла. Месяц назад. Я... я не могу спать. Не могу думать. Но система не видит. Она видит, что я выполняю задания. Что я набираю баллы. Что я "стабильна".

— А ты говорила?

— Кому? — она посмотрела на меня. — Алгоритму? Там есть кнопка "сообщить о проблеме". Я нажала. Мне пришло: "Рекомендуем обратиться к тьютору для коррекции траектории". Я нажала "запросить встречу". Система сказала: "Ваш тьютор доступен через 14 дней. Рекомендуем пройти модуль самопомощи 'Управление стрессом'".

Я стоял и чувствовал, как что-то ломается внутри. Я был её тьютором. Я. И я не знал, что моя студентка месяц ходит с онемевшим сердцем, потому что система показывала мне зелёную галочку.

— Почему ты не позвонила? — спросил я.

— Я не знала, что можно, — сказала она. — Я думала, вы только в системе. Что вы... не настоящий.

Май 2029. Иконка доверия

Я пришёл к декану Смирнову. С отчётом. С Машиной историей. С ещё десятком похожих.

Он слушал, кивал, смотрел в свой монитор.

— Иван Петрович, — сказал он наконец, — вы понимаете, что такое нагрузка?

— Понимаю.

— Один преподаватель на триста студентов. Это оптимизация. Это прогресс. Если мы вернёмся к живым аудиториям...

— Мы вернёмся к тому, что я увижу, когда студент плачет?

Он помолчал.

— Вы не понимаете. Система... она не заменяет вас. Она масштабирует вас. Ваше знание. Ваш опыт. Оно теперь доступно трёмстам, а не сорока.

— Моё знание — это не видео, — сказал я. — Моё знание — это когда я вижу, что человек не понял, и меняю подачу. Когда я чувствую, что он готов к спору, и бросаю ему вызов. Когда я вижу, что он выгорел, и...

— И что? — перебил он. — И тратите на него три часа вместо тридцати минут? А остальные двести девяносто девять? Они что, не люди?

Я замолчал. Он был прав в своей логике. В логике системы.

— Вы не лишний, Иван Петрович, — сказал он мягче. — Вы декоративный. Иконка доверия. Люди видят, что у них есть тьютор. Это важно для мотивации.

Я вышел из кабинета и долго смотрел на свой отражение в витрине. Иконка доверия. Красивое слово. Значит, я есть. Но меня не слышат. Я вижу, но не могу коснуться.

Октябрь 2029. Деградация

К осени я начал замечать странности.

На собеседованиях для стажировок. Я ходил с нашими студентами, рекомендовал их.

И видел, как они теряются, когда вопрос не по шаблону.

Когда им говорят: "А почему вы так решили?" — и они молчат, потому что система никогда не спрашивала "почему". Она спрашивала "какой вариант верный".

Когда их просят объяснить вслух — и они заикаются, потому что годами общались только с экраном.

Когда их ставят в группу с незнакомцами — и они не могут договориться, потому что система всегда назначала их партнёрами по совместимости алгоритма.

Я разговаривал с Коляном. Он тоже заметил. Но отвечал:

— Переходный период. Дообучим модели. Добавим софт-скиллз. Будет лучше.

— А пока?

— Пока... ну, они адаптируются. Рынок адаптируется. Все адаптируются.

Он смотрел в экран, где его студенты набирали идеальные баллы. И не видел, что они не умеют думать. Они умеют угадывать логику системы.

Февраль 2030. Мой сын

Сын мой, Петя, поступил в тот же университет. На мою кафедру. Я был горд.

И напуган.

Он сидел дома, в наушниках, смотрел в планшет. Я приносил ему чай, и он не замечал. Система держала его внимание лучше, чем любой живой преподаватель.

— Пап, — сказал он как-то, — а почему ты раньше кричал на студентов?

— Я не кричал. Я спорил. Это разные вещи.

— А зачем спорить? Тут всё понятно написано. Верный ответ — зелёный. Неверный — красный. Спорить с алгоритмом бесполезно.

Я смотрел на него и думал: а я спорил. Со студентами. С коллегами. С самим собой. И из этого спора рождалось что-то. Новое. Неожиданное. Живое.

А он будет знать только зелёный и красный.

Март 2030. Точка невозврата

Выпускной экзамен. Групповое задание. Живые заказчики из компаний.

Я смотрел, как наши студенты — с идеальными цифровыми профилями — стоят перед реальными людьми и не могут связать двух слов.

Один из заказчиков, человек лет пятидесяти, подошёл ко мне после:

— Что вы с ними делаете?

— Что значит "делаем"?

— Они как... как автоответчики. Знают правильные слова, но не понимают, почему. Можете объяснить — отвечают. Попросите предложить решение — ступор. Скажите, что решение не подходит — паника.

Он покачал головой:

— Мы брали у вас стажёров три года назад. Они были живые. Грубые, неотёсанные, но живые. А эти... эти как будто выросли в аквариуме.

Я пришёл домой и долго смотрел на Пете. Он проходил очередной модуль. Система похвалила его: "Оптимальная траектория. Продолжайте в том же духе".

— Петя, — сказал я, — а ты хочешь, чтобы я тебе объяснил? По-настоящему. Живьём. С поспорить, если что.

Он посмотрел на меня с удивлением:

— Зачем? Тут всё есть.

— Тут нет меня, — сказал я. — Твоего отца. Который может быть неправ. Который может тебя рассердить. Но который увидит, если ты заплачешь. И поймёт, почему.

Он помолчал. Потом закрыл планшет.

— Давай, — сказал он. — Попробуем.

Май 2030 — 2031. Люди заставили слушать

Я не знаю, что было бы, если бы я молчал.

Но я не молчал. Я написал письмо. Потом статью. Потом выступил на конференции — впервые за десять лет публично критиковал систему.

Меня освистали. "Ретроград". "Не понимает прогресса". "Хочет вернуться к пергаменту и перьям".

Но потом подтянулись другие. Колян — да, тот самый Колян — тоже написал. О признании, что система учит "дрессировке под интерфейс", а не мышлению.

Студенты. Не все, но многие. Они записывали видео: "Мне страшно задавать вопросы, потому что система снижает мой рейтинг за неоптимальную траекторию".

Родители. Они видели, как дети "отлично учатся" и не умеют разговаривать.

Работодатели. Они перестали верить цифровым рейтингам и вернули живые собеседования.

И постепенно, со скрипом, начались изменения.

Не отказ от технологий. Нет. Но возврат человека.

Живые семинары на старших курсах. Право преподавателя отменить оценку алгоритма. Обязательные очные практики. Защиты дипломов не перед камерой, а перед комиссией.

Маленькие победы. Но они были.

Мораль для тех, кто дочитал

Если вы думаете, что это история про плохую платформу — нет.

Это история про то, как легко заменить живое общение метриками. Как "удобство" для системы становится пустотой для человека. Как алгоритм, который не видит слёз, не может учить.

Образование — это не набор верных ответов. Это драма. Спор. Ошибка. Возвращение назад. Учитель, который вдруг замечает: с тобой что-то не так. И который может сказать "стоп" — не потому что так написано в протоколе, а потому что он человек.

Технологии нужны. Но как мост. Не как стена между учителем и учеником.

Берегите своих детей. И не бойтесь быть "неоптимальными" в мире, который считает только баллы.

А вы бы доверили алгоритму решать, чему учить вашего ребёнка? Или всё ещё верите, что преподаватель должен видеть слёзы, а не только зелёные галочки? Расскажите в комментариях — сколько нас осталось, кто помнит запах мела и звонок на перемену.