Найти в Дзене

ИИ в университе не место или всё же?..

Оглавление

Представьте: за окном — золотой сентябрь, а в головах у студентов и школьников — кромешный ад сессии и контрольных. Руки так и тянутся зашвырнуть учебник подальше и сделать всё по-быстрому, «лишь бы сдать».

Раньше в ход шло всё: замусоленные решебники (ГДЗ), старшая сестра, смиренно согласившаяся помочь, и прочие кустарные методы. Но теперь! Теперь в кармане у каждого есть собственный цифровой гений — ChatGPT.

Преподаватели хмуря брови, качают головами и говорят, что это жульничество. Но поздно! Джин уже вырвался из бутылки, и обратно его не запихнуть. Так что вместо борьбы с ветряными мельницами, университетам по всему миру пришлось срочно отвечать на вопрос: а что, собственно, с этим делать? Давайте заглянем в их своды правил и посмотрим, кто как выкручивается.

Политика университетов в отношении использования ИИ быстро развивается и варьируется от полного запрета до активного поощрения. Однако можно выделить несколько общих тенденций и подходов, характерных для университетов по всему миру.

Общая тенденция: От запрета к регулированию и интеграции

Изначально многие учебные заведения реагировали запретами (особенно на экзаменах и в письменных работах), но по мере развития технологий пришло понимание, что это не решение. Сейчас большинство ведущих университетов движется в сторону разработки четких правил, обучения академической честности с учетом ИИ и интеграции этих инструментов в учебный процесс.

Условно политику можно разделить на три лагеря:

  1. Рестриктивная (Ограничительная): Акцент на запретах и обнаружении использования ИИ.
  2. Адаптивная (Приспосабливающаяся): Акцент на правилах и обучении этичному использованию.
  3. Интегративная (Интегрирующая): Активное поощрение использования ИИ как части учебного процесса и исследовательской работы.

Большинство современных политик стремится к адаптивной и интегративной моделям.

Ключевые элементы политик ведущих университетов

1. Академическая честность и цитирование

Это краеугольный камень большинства политик. Университеты требуют прозрачности в использовании ИИ.

  • Обязательное указание: Студенты и исследователи должны явным образом указывать, какие инструменты ИИ были использованы, для каких целей и с какими промптами.
  • Цитирование: Разрабатываются руководства по корректному цитированию генеративного ИИ (как стабильного источника, которым он не является). Например, многие рекомендуют использовать сноски или приложения с описанием роли ИИ в работе.
  • Запрет на прямое представление текста/кода ИИ как собственного: Это приравнивается к плагиату.

2. Использование на экзаменах и оценивании

Здесь политики наиболее строги и разнообразны:

  • Полный запрет: На закрытых экзаменах (при личной сдаче) использование любых электронных устройств и, соответственно, ИИ запрещено.
  • Разрешенное использование: В некоторых случаях, особенно для творческих заданий или проектов, использование ИИ может быть разрешено по согласованию с преподавателем. Важен контекст и цель задания.
  • Переосмысление оценивания: Многие университеты пересматривают форматы экзаменов и эссе, смещая фокус на:
    Устные экзамены (vivas)
    Презентации и защита своих работ
    Рефлексивные эссе о процессе использования ИИ
    Задания, требующие критического анализа и проверки сгенерированного ИИ материала.

3. Обучение и развитие навыков

Передовые университеты не просто запрещают, а учат использовать ИИ ответственно и эффективно.

  • Воркшопы и курсы: Проводятся занятия для студентов и преподавателей о возможностях и ограничениях ИИ, этических дилеммах и лучших практиках.
  • Развитие "AI Literacy": Упор на то, чтобы студенты могли критически оценивать выводы ИИ, проверять факты, формулировать эффективные промпты и понимать базовые принципы работы технологий.

4. Исследования и научная деятельность

Для преподавателей и исследователей политика обычно более либеральна:

  • Разрешено для: идеации, редактирования текстов, синтаксиса, перевода, обработки данных, написания кода.
  • Запрещено или требует указания: Использование ИИ для генерации гипотез, анализа данных или написания ключевых разделов статей без явного указания и проверки. Конфиденциальные данные нельзя загружать в публичные ИИ-модели.
  • Соавторство: ИИ не может быть указан в качестве соавтора научной публикации.

5. Защита данных и конфиденциальность

Важный аспект, особенно в свете GDPR (Общего регламента по защите данных) в Европе и других законов о защите данных.

  • Запрет на загрузку конфиденциальной информации: Студентам и сотрудникам запрещено вводить персональные данные, конфиденциальные исследовательские данные или материалы, защищенные авторским правом, в публичные ИИ-чаты (как ChatGPT или Gemini).

Примеры из разных регионов мира

  • США (например, Гарвард, MIT, Стэнфорд): Были среди первых, кто разработал подробные руководства. Делают акцент на "ответственном использовании", обязательном цитировании и пересмотре методов оценивания. MIT, например, предлагает множество курсов по ИИ-грамотности.
  • Великобритания (например, Оксфорд, Кембридж): Также приняли гибкий подход. Russell Group (объединение ведущих вузов Великобритании) выпустила заявление о пяти принципах использования ИИ, включая поддержку академической честности и подготовку персонала и студентов.
  • Австралия: Университеты активно разрабатывают политики. Например, Университет Мельбурна четко требует указывать использование ИИ, в то время как UNSW (Университет Нового Южного Уэльса) подчёркивает, что использование ИИ без указания является академическим нарушением.
  • Европа (например, университеты Германии, Франции): Часто более строгие правила в связи с GDPR. Много внимания уделяется защите данных. Некоторые университеты даже разрабатывают или внедряют собственные, локальные ИИ-инструменты с повышенной защитой конфиденциальности.
  • Азия (например, Сингапур, Гонконг, Япония): Подход варьируется. Некоторые технологически продвинутые университеты (например, в Сингапуре) активно интегрируют ИИ в обучение, в то время как другие могут придерживаться более традиционных и ограничительных взглядов.

Что по этому поводу думают в России?

Политика российских университетов в отношении использования ИИ находится на стадии активного формирования и пока значительно менее едина и проработана, чем в ведущих западных вузах. Однако общие тенденции и первые шаги уже clearly прослеживаются.

Общее состояние: "Режим разработки" и разрозненность

В отличие от скоординированных действий ассоциаций вузов на Западе, в России пока нет единой общефедеральной политики. Каждый университет (или даже отдельный преподаватель внутри него) вынужден вырабатывать свои подходы. Это приводит к большому разбросу: от полного запрета до осторожных экспериментов.

Ключевым внешним фактором является позиция Министерства науки и высшего образования РФ. Пока что оно не выпустило обязательных для всех предписаний, но обозначило общий курс:

  • Не запрещать, а регулировать.
  • Использовать ИИ как инструмент в помощь преподавателю и студенту.
  • Развивать отечественные аналоги (например, ChatGPT-подобные модели от Сбера, Yandex) и отдавать приоритет им.

Ключевые элементы формирующейся политики

1. Академическая честность: Запрет плагиата, но не использования

Это основной и самый распространенный пункт.

  • Прямой плагиат: Представление текста, сгенерированного ИИ, в качестве собственной работы единогласно приравнивается к плагиату и является нарушением академической добросовестности.
  • Требование указания: Многие вузы в своих проектах политик требуют от студентов обязательного указания факта использования генеративного ИИ, перечня использованных инструментов и даже примененных промптов (запросов). Сокрытие использования ИИ может караться так же строго, как и списывание.
  • Пересмотр заданий: Преподавателям рекомендуется перерабатывать задания, чтобы они требовали критического мышления, анализа и личной рефлексии, которые сложно полностью переложить на ИИ.

2. Использование на экзаменах и зачетах

Здесь политика в большинстве вузов жесткая и запретительная.

  • На прокторинговых экзаменах (которые стали нормой во многих вузах после пандемии) использование любых посторонних программ, включая ИИ, технически блокируется и является основанием для удаления с экзамена.
  • На традиционных "живых" экзаменах использование телефонов и ноутбуков обычно запрещено правилами.

3. Данные и конфиденциальность

Этот аспект становится ключевым.

  • Запрет на загрузку конфиденциальных данных: Студентам и преподавателям категорически запрещено загружать в публичные зарубежные ИИ-системы (как ChatGPT) тексты диссертаций, научные статьи, персональные данные студентов или любую другую информацию, представляющую ценность или являющуюся конфиденциальной.
  • Приоритет отечественным аналогам: Устанавливается рекомендация использовать российские сервисы (например, GigaChat от Сбера, YandexGPT), так как они работают в рамках российского юрисдикции и законов о защите данных.

4. Стимулирование использования в учебном процессе

На этом делается большой акцент.

  • Для преподавателей: ИИ предлагается использовать для:
    Составления планов лекций и семинаров.
    Генерации идей для заданий.
    Проверки грамматики и стиля текстов.
    Создания персональных образовательных траекторий для студентов.
  • Для студентов: Разрешается и поощряется использование ИИ для:
    Поиска идей и структурирования информации.
    Редактирования и корректуры собственных текстов.
    Объяснения сложных тем "своими словами" (как умный поисковик).
    Помощи в изучении программирования (аналог GitHub Copilot).

Примеры политик конкретных университетов

  • НИУ ВШЭ (Высшая школа экономики): Один из первых разработал и опубликовал подробные "Временные правила использования генеративного ИИ". Они требуют обязательного указания использования ИИ в работах. Преподаватель имеет право ограничить или запретить его использование в рамках своего курса. ВУЗ активно проводит семинары для преподавателей по интеграции ИИ в учебный процесс.
  • МГУ им. Ломоносова: Занял более осторожную позицию. Акцент делается на недопустимости плагиата и использовании ИИ только как вспомогательного инструмента с обязательной проверкой всех фактов. Разрабатываются собственные системы на базе ИИ.
  • ИТМО (Университет ИТМО): Как технический вуз, занимает более прогрессивную позицию. Здесь поощряется экспериментирование, в том числе использование ИИ для написания кода, анализа данных и оптимизации процессов. При этом также действуют строгие правила цитирования.
  • РЭШ (Российская экономическая школа): Приняла политику, очень близкую к западным аналогам: обязательное цитирование, запрет на использование для выполнения экзаменационных заданий и письменных работ, если иное не разрешено преподавателем.

Итог и рекомендации для студентов/преподавателей в России

  1. Нет единого правила. Все зависит от вашего конкретного вуза и, что еще важнее, — от позиции каждого преподавателя.
  2. Спросите первым делом. Перед использованием ИИ в любой учебной работе обязательно уточните у преподавателя, разрешено ли это и в каком объеме. Молчаливое использование крайне рискованно.
  3. Декларируйте и цитируйте. Если использование разрешено, подробно опишите в сноске или приложении, как именно вы использовали ИИ (например: "Для редактирования грамматики текста использовался сервис YandexGPT; для генерации первоначальных идей по структуре работы — GigaChat").
  4. Отдавайте предпочтение российским сервисам при работе с данными, касающимися учебы или исследований.
  5. Помните: ИИ — помощник, а не автор. Ваша собственная аналитика, критика и выводы — это то, за что вы получаете оценку. Текст ИИ — это сырая заготовка, которую вы должны critically переработать.

В целом, российская система высшего образования повторяет общемировой тренд: переход от первоначального шока и запретов к попыткам адаптации и интеграции, но с заметным запозданием и с сильным акцентом на кибербезопасность и импортозамещение.

А как вы относитесь к применению ИИ в университетах?

Вам также могут понравиться:

ИИ-репетитор: читерство или новый формат обучения?
MIR - Студия разработки умных устройств (Embedded NN Lab)31 августа
До чего дошёл прогресс, или научи меня, ИИ!
MIR - Студия разработки умных устройств (Embedded NN Lab)20 июля