— Слушай, а ты видел новую платформу? — спросил меня Колян, доцент с кафедры философии, пока мы пили кофе в буфете университета.
Он развернул планшет. Красивый интерфейс. Графики прогресса. Адаптивные траектории. Персональные рекомендации.
— Вот, смотри, — он тыкал пальцем в экран, — студент заходит, система анализирует его уровень, и — бац! — сама строит программу. Не надо думать, что ему задавать. Не надо проверять тесты. Не надо стоять у доски.
— А что надо? — спросил я.
— Сопровождать, — он улыбнулся. — Быть тьютором. Наставником. Человеческим лицом системы.
Я тогда поверил. Мы все поверили. После трёх лет дистанционки, после бардака с документами, после усталости от живых аудиторий — это казалось спасением.
Особенно когда декан Смирнов на общем собрании сказал:
— Коллеги, это не замена вам. Это ваше освобождение. От рутины. От проверок. От бесконечных бумажек. Вы наконец сможете заняться настоящей наукой.
Я посмотрел на свои руки. На мозоли от письма в журналах. На красные глаза после ночи с курсовыми.
И подумал: наконец-то.
Январь 2029. Кульминация или ...
Первый семестр прошёл как сказка.
Я сидел в кабинете, смотрел на экран, и система делала всё за меня. Назначала задания. Проверяла тесты. Строила рейтинги. Выявляла "зоны риска".
Мне оставалось только нажимать "подтвердить" и иногда — "скорректировать траекторию".
Студенты были довольны. Не надо ехать в университет. Не надо стоять у доски. Не надо отвечать вслух, когда трясутся колени.
Алгоритм был вежлив. Терпелив. Никогда не кричал. Никогда не опаздывал. Никогда не сказал "вы не поняли, потому что не думали".
Я звонил Коляну:
— Слушай, а это реально работает? Они же учатся?
— Работает, — он был счастлив. — Смотри статистику. Проходимость выросла на 34%. Время усвоения сократилось. Отчётность идеальная.
— А качество?
— А что такое качество? — он рассмеялся. — Они проходят тесты. Они набирают баллы. Они двигаются по траектории. Всё по науке.
Я повесил трубку и посмотрел на свой кабинет. Пустой. Раньше здесь сидели студенты. Спорили. Плакали. Смеялись. Приходили с чаем и просили "ещё раз объяснить".
Теперь здесь был только я и экран.
И зелёные галочки.
Мы тогда выдохнули. Ошибка исправлена. Система работает. Можно спокойно ждать весны.
Март 2029. Когда я увидел Машу
Маша была у меня на курсе "История социальных теорий". Или, точнее, была в моём цифровом кабинете — её аватарка появлялась в списке, я видел её прогресс.
Зелёный цвет. Стабильная траектория. Хорошие баллы. Система не выявила рисков.
Но однажды я пришёл в университет за книгами и увидел её в коридоре. Она сидела на подоконнике, закутанная в пальто, хотя в помещении было +22.
— Маша? — подошёл я. — Вы же у меня на курсе. Всё в порядке?
Она подняла глаза. Я увидел то, что не видит алгоритм. Красные веки. Следы слёз. Трясущиеся руки.
— Простите, — прошептала она. — Я не хотела, чтобы вы видели.
— Что случилось?
Она помолчала. Потом сказала:
— У меня мама умерла. Месяц назад. Я... я не могу спать. Не могу думать. Но система не видит. Она видит, что я выполняю задания. Что я набираю баллы. Что я "стабильна".
— А ты говорила?
— Кому? — она посмотрела на меня. — Алгоритму? Там есть кнопка "сообщить о проблеме". Я нажала. Мне пришло: "Рекомендуем обратиться к тьютору для коррекции траектории". Я нажала "запросить встречу". Система сказала: "Ваш тьютор доступен через 14 дней. Рекомендуем пройти модуль самопомощи 'Управление стрессом'".
Я стоял и чувствовал, как что-то ломается внутри. Я был её тьютором. Я. И я не знал, что моя студентка месяц ходит с онемевшим сердцем, потому что система показывала мне зелёную галочку.
— Почему ты не позвонила? — спросил я.
— Я не знала, что можно, — сказала она. — Я думала, вы только в системе. Что вы... не настоящий.
Май 2029. Иконка доверия
Я пришёл к декану Смирнову. С отчётом. С Машиной историей. С ещё десятком похожих.
Он слушал, кивал, смотрел в свой монитор.
— Иван Петрович, — сказал он наконец, — вы понимаете, что такое нагрузка?
— Понимаю.
— Один преподаватель на триста студентов. Это оптимизация. Это прогресс. Если мы вернёмся к живым аудиториям...
— Мы вернёмся к тому, что я увижу, когда студент плачет?
Он помолчал.
— Вы не понимаете. Система... она не заменяет вас. Она масштабирует вас. Ваше знание. Ваш опыт. Оно теперь доступно трёмстам, а не сорока.
— Моё знание — это не видео, — сказал я. — Моё знание — это когда я вижу, что человек не понял, и меняю подачу. Когда я чувствую, что он готов к спору, и бросаю ему вызов. Когда я вижу, что он выгорел, и...
— И что? — перебил он. — И тратите на него три часа вместо тридцати минут? А остальные двести девяносто девять? Они что, не люди?
Я замолчал. Он был прав в своей логике. В логике системы.
— Вы не лишний, Иван Петрович, — сказал он мягче. — Вы декоративный. Иконка доверия. Люди видят, что у них есть тьютор. Это важно для мотивации.
Я вышел из кабинета и долго смотрел на свой отражение в витрине. Иконка доверия. Красивое слово. Значит, я есть. Но меня не слышат. Я вижу, но не могу коснуться.
Октябрь 2029. Деградация
К осени я начал замечать странности.
На собеседованиях для стажировок. Я ходил с нашими студентами, рекомендовал их.
И видел, как они теряются, когда вопрос не по шаблону.
Когда им говорят: "А почему вы так решили?" — и они молчат, потому что система никогда не спрашивала "почему". Она спрашивала "какой вариант верный".
Когда их просят объяснить вслух — и они заикаются, потому что годами общались только с экраном.
Когда их ставят в группу с незнакомцами — и они не могут договориться, потому что система всегда назначала их партнёрами по совместимости алгоритма.
Я разговаривал с Коляном. Он тоже заметил. Но отвечал:
— Переходный период. Дообучим модели. Добавим софт-скиллз. Будет лучше.
— А пока?
— Пока... ну, они адаптируются. Рынок адаптируется. Все адаптируются.
Он смотрел в экран, где его студенты набирали идеальные баллы. И не видел, что они не умеют думать. Они умеют угадывать логику системы.
Февраль 2030. Мой сын
Сын мой, Петя, поступил в тот же университет. На мою кафедру. Я был горд.
И напуган.
Он сидел дома, в наушниках, смотрел в планшет. Я приносил ему чай, и он не замечал. Система держала его внимание лучше, чем любой живой преподаватель.
— Пап, — сказал он как-то, — а почему ты раньше кричал на студентов?
— Я не кричал. Я спорил. Это разные вещи.
— А зачем спорить? Тут всё понятно написано. Верный ответ — зелёный. Неверный — красный. Спорить с алгоритмом бесполезно.
Я смотрел на него и думал: а я спорил. Со студентами. С коллегами. С самим собой. И из этого спора рождалось что-то. Новое. Неожиданное. Живое.
А он будет знать только зелёный и красный.
Март 2030. Точка невозврата
Выпускной экзамен. Групповое задание. Живые заказчики из компаний.
Я смотрел, как наши студенты — с идеальными цифровыми профилями — стоят перед реальными людьми и не могут связать двух слов.
Один из заказчиков, человек лет пятидесяти, подошёл ко мне после:
— Что вы с ними делаете?
— Что значит "делаем"?
— Они как... как автоответчики. Знают правильные слова, но не понимают, почему. Можете объяснить — отвечают. Попросите предложить решение — ступор. Скажите, что решение не подходит — паника.
Он покачал головой:
— Мы брали у вас стажёров три года назад. Они были живые. Грубые, неотёсанные, но живые. А эти... эти как будто выросли в аквариуме.
Я пришёл домой и долго смотрел на Пете. Он проходил очередной модуль. Система похвалила его: "Оптимальная траектория. Продолжайте в том же духе".
— Петя, — сказал я, — а ты хочешь, чтобы я тебе объяснил? По-настоящему. Живьём. С поспорить, если что.
Он посмотрел на меня с удивлением:
— Зачем? Тут всё есть.
— Тут нет меня, — сказал я. — Твоего отца. Который может быть неправ. Который может тебя рассердить. Но который увидит, если ты заплачешь. И поймёт, почему.
Он помолчал. Потом закрыл планшет.
— Давай, — сказал он. — Попробуем.
Май 2030 — 2031. Люди заставили слушать
Я не знаю, что было бы, если бы я молчал.
Но я не молчал. Я написал письмо. Потом статью. Потом выступил на конференции — впервые за десять лет публично критиковал систему.
Меня освистали. "Ретроград". "Не понимает прогресса". "Хочет вернуться к пергаменту и перьям".
Но потом подтянулись другие. Колян — да, тот самый Колян — тоже написал. О признании, что система учит "дрессировке под интерфейс", а не мышлению.
Студенты. Не все, но многие. Они записывали видео: "Мне страшно задавать вопросы, потому что система снижает мой рейтинг за неоптимальную траекторию".
Родители. Они видели, как дети "отлично учатся" и не умеют разговаривать.
Работодатели. Они перестали верить цифровым рейтингам и вернули живые собеседования.
И постепенно, со скрипом, начались изменения.
Не отказ от технологий. Нет. Но возврат человека.
Живые семинары на старших курсах. Право преподавателя отменить оценку алгоритма. Обязательные очные практики. Защиты дипломов не перед камерой, а перед комиссией.
Маленькие победы. Но они были.
Мораль для тех, кто дочитал
Если вы думаете, что это история про плохую платформу — нет.
Это история про то, как легко заменить живое общение метриками. Как "удобство" для системы становится пустотой для человека. Как алгоритм, который не видит слёз, не может учить.
Образование — это не набор верных ответов. Это драма. Спор. Ошибка. Возвращение назад. Учитель, который вдруг замечает: с тобой что-то не так. И который может сказать "стоп" — не потому что так написано в протоколе, а потому что он человек.
Технологии нужны. Но как мост. Не как стена между учителем и учеником.
Берегите своих детей. И не бойтесь быть "неоптимальными" в мире, который считает только баллы.
А вы бы доверили алгоритму решать, чему учить вашего ребёнка? Или всё ещё верите, что преподаватель должен видеть слёзы, а не только зелёные галочки? Расскажите в комментариях — сколько нас осталось, кто помнит запах мела и звонок на перемену.