Из интервью с профессором Роуз Лакин
Участники:
Роуз Лакин (РЛ)
Юрген Рудольф (ЮР)
Мартин Грюнерт (МГ)
Шеннон Тан (ШТ)
Этика в AIEd
МГ: Как соучредитель Института этического искусственного интеллекта в образовании, вы были в авангарде обсуждения этических вопросов в AIEd. Какие этические проблемы при внедрении ИИ в образовании вы считаете наиболее актуальными и как преподаватели и технологи могут работать вместе, чтобы справиться с этими проблемами?
РЛ: Нам нужно работать вместе, потому что тема эта очень сложная. Когда я основала Институт вместе с [сэром] Энтони [Селдоном] и Прией [Лакхани, ОБЕ], основная причина, по которой мы его создали, заключалась в том, что мы действительно беспокоились, что никто не обращает внимания на образование, когда дело касается ИИ. Было много данных и ИИ, много этики и ИИ, этики и данных. Но на образование никто не обращал внимания. Я и по сей день считаю, что образование — это особый случай, потому что мы хотим, чтобы люди занимались образованием на протяжении как можно большей части своей жизни — в отличие от медицинской системы, где мы хотим, чтобы они занимались им как можно меньше, потому что они здоровы. Это также касается уязвимых людей. Причина, по которой мы основали Институт этического ИИ в образовании, заключалась в том, что мы были обеспокоены тем, что никто на самом деле не обращает на это внимания и что, если мы ничего не предпримем, все огромные преимущества, которые ИИ может принести учащимся, учителям и родителям, будут потеряны. потому что возникла бы какая-то этическая дилемма или ужасное происшествие, и у всех, конечно, была бы реакция коленного рефлекса против этой технологии.
В значительной степени мотивация создания Института заключалась в том, чтобы привлечь внимание к образованию как к особому случаю и попытаться предупредить людей о том, что нам нужно очень тщательно задуматься об этике. Конечно, ситуация еще больше усложнилась с запуском генеративных приложений ИИ, которые сделали масштабируемый и сложный ИИ с открытым исходным кодом доступным каждому. Это означает, что люди с плохими или хорошими мотивами могут разрабатывать сложные системы искусственного интеллекта, и это опасно. Итак, мы должны работать сообща и вовлекать все заинтересованные стороны в вопросы этики. Дело не только в самой технологии; Речь также идет о том, как люди, разрабатывающие технологию, могут соблюдать этические кодексы практики. Речь идет не только о регулировании; речь идет также об образовании широкой публики. С моей точки зрения, ключевой момент заключается в том, что преподавателям необходимо больше понимать ИИ, его возможности и основы того, как он работает. Им не нужно знать сложную науку о глубоких технологиях, потому что не всем она нравится, но им нужно знать основы.
У нас есть проблема, потому что (а) регулирование и кодекс практики никогда не будут соответствовать возможностям технологии, и (б) будут сделаны огромные предположения, например, о том, что значит быть прозрачным. Потому что прозрачность – это не односторонний процесс. Вы можете подумать, что как разработчик вы очень подробно объяснили, что происходит с вашими данными. Например, если вы используете машинное обучение, какие данные вы собираете, как их обрабатываете и как все это время обучается ваша система? Если человек, читающий это, не обладает определенным уровнем понимания, это не прозрачно для него. Итак, в этом этическом пространстве существует огромный образовательный императив. Это обязательно должно быть сотрудничество между регулирующими органами, разработчиками, преподавателями и общественными группами. Очень важно, чтобы мы увидели огромное влияние, которое эти технологии оказывают на общество и, в частности, на образование. Мы все еще ждем, когда будет выпущен GPT-5, и нам много чего рассказывают о том, на что он способен, и, честно говоря, меня пугает то, что я слышу (см. например, Шах, 2024). Готов ли мир к этому? Это довольно тревожное место.
Пропаганда партнерства преподавателей и разработчиков
МГ: Действительно, всегда есть риск, если преподаватели не будут участвовать в процессе. Когда мы обсуждаем образование, меня, как педагога, беспокоит то, что решения часто разрабатываются на основе предполагаемых потребностей, а не на том, что действительно будет эффективным и позитивным. Следующий вопрос — о симбиозе преподавателей и разработчиков и о том, как они могут работать вместе. Как, по вашему мнению, можно укрепить или усилить это партнерство, чтобы оно могло принести наиболее выгодные результаты?
РЛ: Суть в том, что это требует времени, терпения и готовности всех сторон, возможно, отложить в сторону некоторые вещи, которые они обычно считают приоритетными. Позвольте мне быть немного более конкретной. Раньше я писала о важности работы разработчиков ИИ с преподавателями (например, Luckin et al., 2016; Cukurova et al., 2019; Weatherby et al., 2022) – и я действительно считаю, что это абсолютно правильный путь вперед. . Но это очень трудный путь. Когда я рассказывала о своей истории, когда преподавала в колледже дальнейшего образования, я не упомянула, что некоторое время преподавала в школе, опять же в очень сложных условиях. Не думаю, что я была очень хороша, но это дало мне понимание того, что значит быть учителем средней школы с очень сложной группой молодых людей подросткового возраста.
Когда у вас происходит множество дел, и вам нужно контролировать и поддерживать эту группу людей, последнее, что вам нужно, — это не совсем законченная часть программного обеспечения для работы. Вам нужно что-то, на что вы можете положиться. Делать это нужно поэтапно. В книге Кейт Эррикер, с которой я работала над проектом для Nord Anglia Education, есть прекрасная глава под названием «Урок 21», которая очень хорошо освещает это и рассказывает историю попытки совместного проектирования программного обеспечения и того, насколько это невероятно сложно. Учителя, даже при всем желании, должны были делать это в условиях обучения с высокими ставками (см. Erricker, 2023). В такой среде обучения ставки высоки по-другому, по сравнению с моей ситуацией с очень способными учениками.
Вы не можете работать с чем-то, что еще находится в стадии разработки, и тем не менее единственный способ по-настоящему вовлечь преподавателей в этот процесс — это сделать их частью этого проекта. У вас должны быть этапы. Привлечение преподавателей к участию в пилотных проектах, когда они не обязательно работают в такой среде с высокими ставками, пока технология не находится в таком месте, которое могло бы поддержать их в этой среде, но помогает им участвовать в процессе проектирования, чтобы понять немного подробнее о том, что это такое и как работает ИИ.
Если вы можете помочь людям понять немного больше о том, что делает ИИ, как ИИ использует данные и что это означает, тогда они смогут стать опытными пользователями, а также понять, какие потенциальные этические проблемы и проблемы защиты могут возникнуть. Поэтому отношения должны быть долгосрочными. Им нужно набраться терпения. Люди должны быть абсолютно откровенны в отношении проблем, связанных с деятельностью, с самого начала. Первоначально это необходимо сделать таким образом, чтобы учителя не попадали в среду с высокими ставками и полуфункциональными технологиями, потому что это слишком стрессово. Но они могут быть частью проектов, и затем, когда вы дойдете до определенного этапа, когда они почувствуют себя комфортно и технология будет в нужном состоянии, вы сможете начать ее развертывать и тестировать в более реальных, аутентичных, условиях среды с высокими ставками.
Потенциал ИИ в улучшении подходов, ориентированных на учащихся
ЮР: Не могли бы вы рассказать нам о некоторых ваших ключевых работах? В своей книге «Машинное обучение и человеческий интеллект: будущее образования в 21 веке» (Luckin, 2018) вы обсуждаете потенциал ИИ в преобразовании образования. Не могли бы вы рассказать, как можно оптимизировать структуру AIEd для улучшения преподавания и обучения, особенно в контексте развития критического мышления и творческого подхода у студентов? Это связано с вашей книгой 2010 года «Перепроектирование контекста обучения», в которой вы выступали за проектирование образования, ориентированное на учащегося. Как, по вашему мнению, ИИ будет способствовать дальнейшему улучшению подходов, ориентированных на учащихся, и какие пробелы в исследованиях и практике еще необходимо устранить, чтобы добиться этого?
РЛ: Вся эта часть дизайна, ориентированная на учащихся, была основной частью моих мыслей на протяжении всей этой работы. Когда я писала книгу «Перепроектирование контекстов обучения» (Luckin, 2010), я использовала письмо как способ помочь себе понять больше и научиться учиться, поэтому я считаю совершенно бессмысленным, что ИИ когда-нибудь возьмет на себя управление моего процесса написания. Потому что я действительно хочу учиться, пытаясь выразить себя. Я уверена, что ИИ может помочь. Не поймите меня неправильно. Но мы учимся, раскрывая наше понимание, исследуя его, переосмысливая, извлекая уроки из него и бросая ему вызов. Я думаю, что структура, которую я предложила в книге «Перепроектирование контекста обучения», — это то, к чему я сейчас пересматриваю отношение, потому что сам ИИ теперь гораздо лучше способен использовать те контекстные особенности, которые я пыталась выявить в этой книге. Итак, основная причина, по которой я хотела написать эту книгу, заключалась в том, чтобы попытаться понять ее больше. Как мы можем говорить о контекстах обучения?
Существует огромная литература по контексту, но она довольно сложна. Существует множество различных дисциплин, которые говорят о контексте, и они говорят о нем совершенно по-разному. Когда я писала эту книгу, я пришла к выводу, что, с моей точки зрения, прагматичность и попытка придумать структуру могут быть полезны при разработке способа взаимодействия учащихся с технологиями. Это было более полезно, чем концептуализация контекста как чего-то, во что люди входят или выходят из него: «Я сейчас нахожусь в этом контексте», или «Я нахожусь в системе управления обучением», или «контексте виртуальной среды обучения на мгновение». «Я в контексте своего офиса». Еще момент: «Я в контексте автомобиля».
Я рассматривала их как среду, а сам контекст я рассматривала как целый набор взаимодействий, которые я могла бы иметь с миром в течение своей жизни, но с определенным фрагментом обучения. Я считаю, что люди создают свой собственный контекст на основе всех взаимодействий, которые они имеют в мире. Но это, конечно, колоссально. Как начать думать об этом с точки зрения дизайна? Затем я попыталась подумать о том, как вы могли бы подумать о том, как можно идентифицировать различные элементы этого контекста. Это чрезмерное упрощение. Итак, если подумать о цифровой и физической среде: какие они? Я подумала о типах инструментов, как технических, так и нетехнических, которые вы используете в своей среде, и о том, насколько существует связь между средой и используемыми инструментами.
Например, в научной лаборатории вы используете инструменты, совершенно отличные от тех, которые вы используете на уроках английского языка. Это вполне очевидная связь, но существует связь между характером используемых инструментов и окружающей средой, а затем подумать о том, чему вы пытаетесь научиться. Итак, ваши ученики находятся в центре, и они взаимодействуют в разных средах. Они используют различные инструменты и получают доступ к знаниям, информации, пониманию, навыкам и возможностям в конкретной предметной области или навыкам посредством взаимодействия в окружающей среде. Но ни одна из этих вещей не обязательно является прямой связью.
Таким образом, ребенок в классе не обязательно имеет возможность взаимодействовать с учителем, когда захочет. Существуют писаные и неписаные правила того, как это работает. Вот почему в рамках этой книги существуют элементы, называемые фильтрами. Они могут быть положительными или отрицательными с точки зрения того, как они ограничивают доступ учащегося к определенному ресурсу. Этот ресурс может быть частью среды, инструментом или частью того, что они пытаются изучить. Вот откуда взялась эта книга. Это был способ попытаться взять очень сложный предмет, такой как контекст, и превратить его в некую структуру, которая может быть полезна, когда мы думаем о разработке опыта обучения.
Теперь, учитывая способность ИИ собирать данные о тех взаимодействиях, которые происходит с обучающимся по мере продвижения по пути, я пересматриваю эту работу: интересно подумать о том, как мы можем рассматривать структуры проектирования для ИИ, которые определяются посредством такой концептуализации контекста. Затем другая книга, «Машинное обучение и человеческий интеллект» (Luckin, 2018), была написана явно потому, что я хотела понять, насколько лучше я могу говорить о человеческом интеллекте так, чтобы отличать его от искусственного интеллекта. Потому что даже в 2017/18 году, когда я писала эту книгу, меня очень беспокоило то, как мы говорили об ИИ, как будто он обладает человеческим интеллектом, хотя на самом деле это не так, и он до сих пор не является человеческим интеллектом. Не таким, как мы.
Итак, это была абсолютная мотивация для написания этой книги. Вот почему структура этой книги в значительной степени сосредоточена на том, как мы можем отличить ИИ от человеческого интеллекта, и на том, что происходит, например, с большими языковыми моделями. Особенно сейчас, это не просто язык; они мультимодальные. Мне придется вернуться к этому и задаться вопросом: как, возможно, эти различия стираются. Хотя я не верю, что виды генеративных моделей ИИ, которые мы видим, понимают мир так, как мы (потому что они не воспринимают мир напрямую), я вижу, что может быть аргумент, который гласит: «Я провожу шесть месяцев, взаимодействуя с мультимодальной генеративной моделью ИИ. В этих разговорах я вижу, что есть разумная предпосылка, которую можно было бы считать, что эта модель формирует понимание, представление мира, с которым мы взаимодействуем». У него нет непосредственного опыта тех вещей, которые мы могли бы обсудить, но я думаю, что какое-то представление есть.
Это показывает, что что бы вы ни писали, вам придется постоянно к этому возвращаться, потому что наше понимание человеческого интеллекта, наше понимание ИИ меняется очень быстро. Итак, если вы однажды что-то напишете, вы должны быть готовы к этому вернуться. Итак, я по-прежнему верю в фундаментальные предпосылки обеих книг, но думаю, что точные детали меняются, и это действительно интересно.
ЮР: Все развивается с головокружительной скоростью. Примером этого может служить Sora от OpenAI - ИИ для преобразования текста в видео (см. Brooks et al., 2024), который вызвал глобальные заголовки и скоро будет запущен. Это ошеломляет и поднимает вопросы о том, что такое истина и что такое реальность. Как вы уже сказали, это очень страшно. Кстати, в настоящее время мы работаем над системой искусственного интеллекта для преподавания и обучения в нашем учреждении, и нас очень вдохновляет ваша этическая структура искусственного интеллекта (Luckin et al., 2022).
РЛ: Это действительно полезно знать, потому что мы приложили немало усилий, чтобы попытаться сделать результаты этой работы действительно практичными.
Схема Золотого треугольника
ЮР: В этом контексте ваша концепция «Золотого треугольника» (например, Luckin & Cukurova, 2023) обеспечивает модель ИИ и образования, соединяя три ключевых элемента – преподавателей, исследователей и разработчиков образовательных технологий. В рамках «Золотого треугольника» подчеркивается роль учителя в организации образовательного процесса, выборе подходящих инструментов искусственного интеллекта и обеспечении их эффективного использования. ИИ может обеспечить адаптивный опыт обучения, персонализированный в соответствии с потребностями каждого учащегося, предоставляя обратную связь в режиме реального времени и позволяя практиковаться посредством повторения.
Однако хорошие образовательные решения с использованием ИИ требуют человекоориентированного дизайна, ориентированного на дополнение/усиление роли учителя, а не на его замену. Эффективный ИИ требует итеративного, научно обоснованного подхода, опирающегося на междисциплинарный опыт в изучении науки, технологий и практики. ИИ должен разрабатываться с соблюдением этических норм, с учетом прозрачности, конфиденциальности и свободы действий, чтобы способствовать доверию и метапознанию. Ваша концепция подчеркивает необходимость исследования того, как лучше всего интегрировать ИИ в образование для улучшения результатов обучения. Было бы справедливо сказать, что ИИ должен работать не на автопилоте, а, в лучшем случае, как второй пилот? Не могли бы вы также подробнее рассказать о своей системе «Золотого треугольника», возможно, поделившись аспектами или нюансами, которые иногда упускаются из виду?
РЛ: Это очень большой вопрос. Я начну с золотого треугольника, но мне действительно хочется вернуться к вопросу о втором пилоте и автопилоте, потому что я думаю, что это суть того, где мы находимся с ИИ. Позвольте мне дать вам представление о контексте Золотого Треугольника. В течение многих лет, когда я работала в области ИИ и образования, слово «ИИ» не было популярным. 15 лет назад вам не обязательно хотелось говорить, что вы работаете в области искусственного интеллекта, потому что люди не обязательно хотели это слышать. Итак, мы поговорим об образовательных технологиях, и, конечно же, некоторые образовательные технологии вообще не используют ИИ.
Хотя я всегда занималась исследованием ИИ в образовании, я решила взглянуть на образовательные технологии в более широком смысле из-за моего личного опыта обучения и моего внимания к прикладным исследованиям. Я всегда стремилась делать вещи, которые действительно имели бы полезное практическое применение. В то время большинство вещей, которые использовались в образовании, были образовательными технологиями, а не искусственным интеллектом. Я потратила немало времени на размышления и изучение различных образовательных технологий, а также на общение с компаниями, которые их разрабатывают. Я всегда считала, что очень важно иметь отношения с теми, кто занимается коммерческим развитием своих технологий. Около 12 лет назад, 6 января, я организовала встречу, и у меня был замечательный ведущий. Это была встреча, на которой я собрала несколько крупных технологических компаний, несколько небольших технологических компаний и преподавателей из разных секторов. По сути, я попросила их ответить на вопрос: «Почему мы не можем более эффективно использовать технологии в образовании?» В чем тут проблема?» Мы пришли к выводу, что произошел очень большой разрыв.
Была целая группа людей, которые исследовали технологии для использования в образовании, а иногда и создавали исследовательские инструменты, которые так и не достигли коммерческой жизнеспособности. Другая группа исследователей изучала использование существующих коммерческих инструментов в образовании, но очень редко разговаривала с людьми, создавшими эти технологии. Кроме того, у вас есть целый ряд людей, которые создавали технологии, как мелкие, так и крупномасштабные, и которые не знали, как связаться с нужным человеком в исследовательском мире, чтобы создать правильную связь. Затем были бедные старые педагоги, которые, откровенно говоря, оказались во власти обеих групп.
Мы пришли к выводу, что если бы мы могли сделать что-то полезное, так это лучше связать всех заинтересованных сторон. Моя страсть к сотрудничеству неудивительна. Группа также подумала, что нам нужно подумать о том, как мы можем улучшить связи между сообществами людей, которые создали технологию и используют ее. Это могло бы помочь нам понять, как, почему, когда и для кого это принесет пользу. Вот откуда взялся Золотой Треугольник.
В конце 2015 и начале 2016 года мне предложили подать заявку на некоторое финансирование. Это не было финансированием исследований как таковым. Финансирование развития со стороны Европейского Союза было использовано для улучшения отношений между предпринимателями малых компаний и, в моем случае, компаниями Edtech и университетами. Итак, я внесла предложение об этом финансировании, чтобы попытаться изучить концепцию Золотого треугольника, которую мы придумали, и мы придумали название — EDUCATE.
К счастью, это было профинансировано. Но, конечно, через несколько месяцев после того, как я получила информацию о том, что проект профинансирован, Великобритания решила выйти из ЕС. Нам пришлось ждать различных политических разветвлений. Тем не менее, в конце концов, финансирование поступило, и в 2017 году стартовала программа EDUCATE. Это имело явную цель — попытаться объединить эти три сообщества. Речь шла не об ИИ. Речь шла об образовательных технологиях в целом. Конечно, ИИ актуален и вписывается в эту задачу, но он будет частью категории образовательных технологий.
У нас были такие компании, как Century Tech, довольно крупная компания в области искусственного интеллекта, которая пришла в одну из наших самых первых групп, и мы просто разработали программу обучения, чтобы попытаться помочь разработчикам лучше понять, как доказать, что было эффективным в своём конкретном продукте или услуге и начать строить логическую модель.
Они четко представляли, какого образовательного результата они хотели достичь, каковы были результаты их конкретного продукта или услуги, как они могли собирать данные и фактические данные и как они могли анализировать их по ходу дела, чтобы попытаться помочь им вести более информированные беседы. со своими клиентами-преподавателями. Мы хотели привлечь к этому исследователей, и мы это сделали. Поэтому мы также обучили некоторых исследователей лучше понимать, как взаимодействовать с этими небольшими технологическими компаниями, поскольку они обе работают в совершенно разных ритмах жизни. На самом деле, вам нужно построить эти отношения, поскольку это не происходит естественным образом.
Нам никогда не удавалось построить такие же масштабные отношения, потому что мы работаем с более чем 360 компаниями, а это большая часть технологического сектора Великобритании. Некоторые компании были из-за пределов Великобритании, но большинство из них базируются в Великобритании. Нам никогда не удавалось построить такие же глубокие отношения с преподавателями, потому что к ним было очень сложно получить доступ. Потому что они невероятно заняты, у них нет времени и они не могут использовать полуфункциональные продукты. Тогда у педагогов возникает много сложностей. Мы действительно сотрудничали с преподавателями, но казалось, что это было больше с точки зрения предоставления им информации, чем фактической помощи им в участии в сотрудничестве. Гораздо больше мне казалось, что мы открываем им информацию и возможности, но я никогда не чувствовала, что мы построили такое глубокое сотрудничество, которое мне хотелось бы видеть. Я все еще пытаюсь, очевидно. Сегодня «Золотой треугольник» очень важен для сферы искусственного интеллекта. Построение отношений между различными сторонами имеет основополагающее значение для успеха любого реализуемого варианта использования ИИ.
В Сингапуре в школах внедряются три варианта использования. Это было решено и спроектировано до запуска ChatGPT еще в 2022 году. Действительно интересно посмотреть, как это будет развиваться. Но нам, безусловно, нужно выстраивать те отношения, которые определяются этим Золотым Треугольником, и пытаться перенять некоторые подходы к обучению, например, те, которые были разработаны в рамках этой программы. Это, безусловно, то, что мы пытаемся сделать в данный момент. Исследователи компании Educate Ventures абсолютно помогают преподавателям задуматься о цели, для которой они хотят использовать ИИ. Чего они хотят этим добиться? Вместо того, чтобы начинать с технологии, спросите: «В чем заключается образовательная задача?» Какую задачу может решить ИИ? Начать с этого момента, а затем разработать небольшие тесты, даже до предварительного пилотного проекта, даже на очень раннем этапе исследования того, что означает использование этого ИИ: какая инфраструктура вам нужна? Какими кадрами вам необходимо обладать? Все это очень практические вещи, которые вам необходимо понять, прежде чем вы сможете задаться действительно интересными вопросами о том, как этот аспект ИИ поддерживает обучение или как он помогает развитию учителей.
Вам нужно правильно понять эту прагматику. У нас есть небольшая схема для этого и схема для размышления о том, как вы оцениваете каждый из способов, с помощью которых вы смотрите на ИИ, и как вы можете принять очень раннее вмешательство, вплоть до пилотного проекта, и подумать о том, как это может дать информацию более широкому кругу людей. стратегия. Что я наблюдаю (конечно, в Великобритании, но не только в Великобритании) во всем секторе образования, так это то, что люди, в том числе преподаватели и студенты, используют ИИ. Но я пока не видела никого, кто бы развивал это организационно, стратегически. Из «Золотого треугольника» я узнал, что мы можем строить эти отношения в рамках основополагающей структуры управления и этики, которая имеет основополагающее значение для реализации ряда сценариев использования ИИ.
Мы смотрим на необходимую техническую инфраструктуру и инфраструктуру данных, на то, как они формируют потенциал персонала и какие кадры необходимы. У нас есть система обучения на каждой итерации, которая отражает стратегический способ использования ИИ в учреждении. Именно с такой структурой мы работаем, и все это на самом деле вдохновлено Золотым Треугольником. Интересно, как это развивалось 12 лет назад.
Генеративный ИИ и его влияние на образование
ШТ: С момента своего создания более года назад ChatGPT с удвоенной силой разжег общественное воображение. За пару месяцев чат-бот с искусственным интеллектом привлек более 100 миллионов пользователей. Число конкурирующих чат-ботов растет. Поскольку вы уже так долго работаете в AIEd, вас может позабавить внезапный ажиотаж вокруг больших языковых моделей (LLM) и генеративного ИИ. Каков ваш личный опыт и впечатления от этих событий за последний год? Как, по вашему мнению, эти достижения повлияют на будущие исследования и образование в области ИИ?
РЛ: Мне нравится, как вы это сформулировали: «яростно разожгли общественное воображение»! С одной стороны, я в полном восторге, потому что люди действительно хотят говорить об ИИ. Я пыталась заставить людей хотеть общаться. В частности, я пыталась поговорить с учителями, людьми, которые на самом деле являются практикующими. Мне хотелось как можно больше поговорить с ними и школьными руководителями об ИИ, но было очень сложно кого-то заинтересовать. Это совсем не сложно, так что с этой точки зрения это хорошо.
Это очень мощная технология. Я нахожу её увлекательной, и если мне удастся отстраниться, я смогу посмотреть на это более научным взглядом и подумать: «Хорошо, так что же это за социотехническая история?» У нас есть эта технология. Люди не были к этому готовы. Это был вполне преднамеренный запуск чего-то, к чему общество не было готово. В качестве массового эксперимента над миллионами людей это интересно, но в то же время весьма пугающе. Я нахожусь на границе, часто между волнением и страхом, потому что считаю, что это здорово, что люди теперь хотят взаимодействовать с ИИ. Что-то подобное всегда должно было произойти. Наступит момент, когда сила ИИ станет более очевидной.
В каком-то смысле сила ИИ раньше была очевидна, но скрыта. Социальные сети управляются алгоритмами искусственного интеллекта, и мы знаем, какое влияние это оказало на общество, образование, и людей. Но это не было явно: «Я пользователь, использующий ИИ», «Я использую социальные сети, и я могу иметь или не иметь ни малейшего представления о том, что ИИ на самом деле управляет этим». Итак, это была доступность очень мощного ИИ, который был прост в использовании, и вы знали, что используете ИИ. На банке было написано «OpenAI». Это ИИ. Его вообще не спрятали, и это все хорошо. Но, конечно, мир к этому не готов, и это меня больше всего беспокоит. Мой сегодняшний опыт подсказывает мне, что я прав, что беспокоюсь: от политиков до школьных учителей и людей всех возрастов. Подавляющее большинство из них понятия не имеют, что они делают с ИИ.
Понятно, зачем им это? Это как минимум не критика. Но меня часто спрашивают политики, и они делают все возможное. Некоторые из вопросов, которые они задают, невероятно наивны и действительно вызывают беспокойство, потому что именно такие вещи определяют работу систем образования. Сингапур — другой случай, потому что там гораздо дольше думают об ИИ на системном уровне. Я думаю, что они определенно впереди всех, но, тем не менее, все еще сложно подумать: «Как мне помочь такому количеству людей достаточно понять ИИ, чтобы понять, как и для чего им следует его использовать?»
Это возвращается к вопросу о втором пилоте и автопилоте. Я считаю, что есть много причин, по которым каждый должен достаточно понимать ИИ, чтобы использовать его безопасно и с пользой для себя. Им нужно понять достаточно, чтобы создать ИИ. Конечно, мало кто так делает, но нам не нужно, чтобы это делали все. Это потому, что у нас нет четкого представления о том, какими должны быть отношения между ИИ и человеческим интеллектом. Не существует четко определенных рамок для размышлений об этих отношениях. Нет никаких рекомендаций. Нам, безусловно, необходимо довольно быстро начать концептуализировать различные виды отношений, которые могут существовать между искусственным и человеческим интеллектом, и подумать о их последствиях. Потому что мы уже знаем, что технологии меняют работу нашего мозга на нейронном уровне. Мы меняемся из-за того, как мы используем GPS, из-за того, как мы используем Google, а не запоминаем вещи.
Итак, как бы мы ни использовали этот ИИ, он изменит нас когнитивно. Нам лучше убедиться, что эти изменения — те, которые нам нужны, и что мы не перегружаем ИИ ненужными вещами. Эта вещь с автопилотом/вторым пилотом является фундаментальной. Если у нас не будет достаточно образованного населения, как им ориентироваться в этом очень сложном пространстве? Даже если бы, скажем, было возможно (я не уверен, что это возможно) придумать структуру, у нас были бы разные концептуализации отношений, которые могли бы существовать между человеческим и искусственным интеллектом, что немного похоже на закон ЕС об искусственном интеллекте, который имеет разные диапазоны риска (Европейский парламент, 2023 г.). У вас могут быть разные типы отношений, а затем вы можете посмотреть на каждый из них и подумать: «Ну, каковы это последствия для разработчика ИИ, и каковы последствия этого для людей, преподавателей и других людей?» заинтересованные стороны в целом?» Затем вы можете изучить каждую из них. Но, конечно, даже если бы это было у вас, если вы не достаточно просветили население, как они поймут, что это значит? Вы видите, что я имею в виду?
Мы могли бы проделать эту работу и, по крайней мере, придумать что-то, что могло бы быть немного полезным. Это было бы не идеально. Это точно, но может быть что-то. Но если люди недостаточно разбираются в ИИ, они, возможно, не смогут использовать его наилучшим образом. Итак, это настоящая образовательная задача. Но нам не следует использовать ИИ в качестве автопилота; мы должны держать процесс принятия решений человеком на соответствующем уровне.
Это означает, что люди должны понимать, что это значит: «Хорошо, я позволю моему ИИ делать X, Y и Z». Но что это на самом деле означает? Я позволяю ему что-то делать, и о чем я все еще принимаю решения? Это действительно сложно. Но, по крайней мере, это воображение с удвоенной силой открывает возможность таких разговоров, чего мы не могли иметь больше года назад или около того.
ШТ: ChatGPT попал в заголовки газет, когда речь зашла об оценивании в высшем образовании. Было сказано, что эссе мертво, и честность онлайн-экзаменов с открытым доступам к книгам стала сомнительной. Мы можем прийти к ситуации, когда преподаватель создает оценку с помощью ChatGPT, затем студенты пишут оценку с помощью ChatGPT, а затем преподаватель отмечает оценку с помощью ChatGPT, и никто уже ничему не учится (Popenici et al., 2023). В какой степени генеративный ИИ влияет на оценку? Существует ли законное использование генеративного искусственного интеллекта студентами и преподавателями? Призывает ли ИИ к переоценке того, как нам следует устанавливать оценки? Стоит ли нам стараться сделать оценки более достоверными? Должны ли мы попытаться провести больше оценок, которые пытаются быть «доказательными для ИИ»? Не могли бы вы также обсудить потенциал ИИ в революционном преобразовании традиционных методов оценивания, особенно в предоставлении учащимся персонализированной обратной связи в режиме реального времени?
РЛ: Оценка является ключевой областью воздействия. Но я думаю, что ключевой вопрос для людей, когда мы думаем об оценке, заключается в следующем: как мы собираемся изменить наши методы оценки, чтобы они действительно оценивали то, что нам нужно оценить? В книге «Машинное обучение и человеческий интеллект» (Luckin, 2018) я говорю, что мы ценим то, что измеряем, а оценка — это наш инструмент измерения. На данный момент, в большинстве случаев, я не думаю, что мы измеряем правильные вещи и, следовательно, не ценим правильные вещи.
Если бы мы измеряли более сложные мыслительные навыки, то оценки, вероятно, не были бы столь же доступны для чего-то вроде ChatGPT. Но что угодно! Мы не знаем, как будут развиваться эти модели. Итак, ключевой задачей является подумать о перепроектировании оценки и вернуться к основам того, почему мы оцениваем и что именно мы хотим оценивать. Нам нужно отказаться от оценки запоминания, чем мы часто занимаемся в Великобритании. Совершенно очевидно, что любая достаточно простая модель большого языка может неплохо сдать экзамены по проверке запоминания. Если их обучили работе с правильными данными, они их запомнят. Они могут ошибаться в чем-то, но все равно преуспеют.
Нам необходимо тщательно подумать о том, что мы хотим оценить, а затем о том, как мы собираемся это оценивать. В некоторых случаях эта оценка может включать использование ИИ. Почему нет? Я считаю, что на это следует смотреть так: если этот ИИ создан для того, чтобы сделать нас более разумными, то запретить людям его использовать — это очень шаг назад. Итак, как нам сделать такие оценки, чтобы, даже когда вы используете ИИ, вы все равно оценивали способности, знания, понимание ученика, все, что вы пытаетесь использовать, чтобы точно измерить?
Это самая большая работа. Недавно я участвовала в круглом столе, организованном экспертной организацией, пытаясь изучить этот самый вопрос. Что нам следует оценивать? Как мы должны оценивать? Как мы можем использовать ИИ в оценке? Конечно, это еще один элемент ИИ, независимо от того, используете ли вы его для автоматической оценки или предоставления автоматической обратной связи, возможно, в контексте формативного оценивания, или используете ли вы его для анализа и измерения прогресса учащихся по мере их обучения. ИИ, безусловно, является мощным инструментом, который можно использовать как часть самого процесса оценки. Это также инструмент, который можно прозрачно предложить учащимся использовать в рамках оценивания. Но прежде чем вы доберетесь до этого этапа, вам все равно придется разобраться в мельчайших подробностях того, что мы пытаемся оценить и почему мы хотим это измерить. Почему это имеет значение?
В настоящий момент строгость мешает ценности вещей, которые мы измеряем. Мы думаем: «Пока измерения строгие, все в порядке». Но на самом деле сейчас это не так. Итак, нам нужно много думать. Это также относится к вопросу об отношениях, которые мы хотим иметь между людьми и искусственным интеллектом. Потому что, если мы хотим взглянуть на человеческую сторону отношений определенным образом, как нам оценить, насколько мы успешно этого добиваемся?
ИИ никуда не исчезнет и, без сомнения, радикально изменит рабочее место. Просто посмотрите на профессию юриста. В данный момент он крутится колесом или кувыркается. Возможно, точнее, эти инструменты искусственного интеллекта могут делать многое из того, что делали юристы. Конечно, не всегда безупречно, но я думаю, что мы обязаны перед нашими студентами сосредоточиться на том, чтобы четко понимать, что мы хотим измерить с помощью наших систем оценивания и почему. Затем мы можем начать думать о том, как и какова может быть роль ИИ в этом как часть оценки или измерения.
Эти разговоры должны основываться на тех отношениях, которые, по нашему мнению, принесут пользу обществу между человеческим и искусственным интеллектом. Но главный вопрос в том, кто будет нести за это ответственность? Я помню, как много лет назад посетил мероприятие в Великобритании, организованное организацией под названием Becta, которой больше не существует. Это был вневедомственный правительственный орган, который контролировал использование образовательных технологий в Великобритании, разрабатывал рамочную поддержку и т. д. Они организовывали целый ряд семинаров по политике. Я посетила один из них, и там собрались различные политики, представители крупных технологических компаний, представители образовательных учреждений и довольно много государственных служащих. В конце одной из таких сессий нам задали вопрос об изменении системы образования: кто несет ответственность? Педагоги и образовательные учреждения, или политики и правительство, или общество в целом? Большинство присутствующих, за исключением меня, проголосовали за общество в целом, потому что никто не хотел им владеть. [Все смеются.]
И в этом заключается огромная проблема. Это органы экспертизы? Это правительство? Это школы? Это должно быть межсекторальное взаимодействие с участием многих заинтересованных сторон. Но кто будет это объединять? И как нам это сделать правильно? Действительно большой вызов!
ЮР: Сейчас мы переходим от оценки к преподаванию и обучению, которые, конечно же, неразрывно связаны между собой. Как мы можем изменить наши подходы к преподаванию и обучению в свете генеративного ИИ? ChatGPT и другие чат-боты (такие как Bing Chat, Bard – которого теперь называют Gemini (и, следовательно, больше не оскорбляют Шекспира) – и Ernie) — это последние блестящие вещи в долгой истории искусственного интеллекта в образовании. Возможно, еще слишком рано определять место ChatGPT (и GPT-4) в этой истории, но каковы ваши предварительные мысли? На ваш взгляд, как высшим учебным заведениям следует относиться к генеративному ИИ?
РЛ: Часть оценки, очевидно, важна, но мы говорили об этом. «Стратегически» — вот мой ответ. Я не думаю, что следует отделять генеративный ИИ от ИИ в целом. Очевидно, что у него разные возможности, и это необходимо признать. Однако каждому высшему учебному заведению необходима хорошая стратегия искусственного интеллекта. Это должно быть основано на их существующем видении, и это институциональное видение, возможно, придется изменить. Это зависит от того, что это такое. Возможно, вы захотите вернуться к нему. Но если у вас есть видение, заключающееся в справедливом и равноправном обучении широких слоев студентов, нет причин, по которым оно изменится только потому, что у нас есть ИИ. То, как вы это делаете, может измениться, но само существование этого видения не обязательно изменится. Затем, стратегически, как вы собираетесь использовать ИИ, чтобы помочь вам достичь этой цели более эффективно, намного быстрее и за меньшие деньги, какой бы конкретный показатель вы ни использовали в этом контексте? Как это поможет вам достичь этой цели? Вот к чему это сводится.
Очевидно, что это сложно, и я собираюсь слишком упростить это, но одним из ключевых элементов является управление и этика. Вам необходимо создать на самом высоком уровне некую структуру управления, специфичную для ИИ. Возможно, это комитет высокого уровня. Возможно, вы даже пригласите на него посторонних людей, чтобы быть в курсе событий. Возможно, некоторые технологические компании примут участие. Возможно, есть общеотраслевой подход. Должен быть какой-то комитет по управлению и этике высокого уровня. Кроме того, очевидно, что каждое учреждение должно иметь разные политики, которые помогут людям внутри этой организации понять, как ориентироваться в границах, которые комитет по управлению и этике устанавливает для этого учреждения.
Что допустимо? Что мы поощряем? Что нет? Почему? Но тогда какая политика помогает людям на местах – студентам, преподавателям, руководителям факультетов, руководителям университетов и т. д. – понять, как применить эту структуру управления и этики на практике? Я бы посоветовала людям думать об этом как об итеративном цикле обучения. Вам нужно осмотреть все учреждение и подумать о тех областях, где, возможно, вы сталкиваетесь с особыми проблемами, и не все они могут относиться к сфере преподавания и обучения. Некоторые из них могут быть в бэк-офисе. Вам нужно посмотреть, может ли конкретная задача или действие, которое вам нужно выполнить – лучше, быстрее или дешевле (каким бы оно ни было) – быть улучшено с помощью ИИ.
Это идея целенаправленного ИИ, и как только вы определили некоторые варианты использования, обусловленные целями, какие технологии вы могли бы для этого использовать? У нас есть шаблон, который мы используем. Какова цель этого? В чем поможет ИИ? Почему это может принести пользу? Каковы этические последствия? Каковы последствия для возможностей персонала? Каковы последствия для технологий и данных? Каковы практические последствия фактической реализации этого? Как вы собираетесь собирать данные и доказательства того, действительно ли он делает то, что вы хотите? Как вы собираетесь учиться этому как организация? Итак, вы тестируете несколько вещей, и если они выглядят так, как будто у них есть ноги, пилотируйте их, но всегда смотрите, как это помогает вам или ограничивается вашими существующими технологиями, данными и существующими возможностями персонала.
Таким образом, очевидно, что эти первоначальные варианты использования будут ограничены вашей существующей инфраструктурой технологий и человеческих возможностей. Но каждый раз, когда его внедряют, нужно учиться. Итак, как вы собираетесь гарантировать, что это обучение будет передано всем, кто сможет учиться на этом конкретном примере использования? Как вы собираетесь узнать о том, как ваши технологии и инфраструктура данных, возможно, должны измениться из-за того, что эта технология развертывается, а затем постепенно, по мере итеративного тестирования этих различных ИИ, некоторые из них вы очень быстро выбросите? Некоторые из них вы возьмете на пилотирование, а затем выбросите, а некоторые вы возьмете на пилотирование, а затем развернете. Но к тому времени, когда вы приступите к развертыванию, у вас будет действительно хорошее представление о том, чего должен достичь этот ИИ, каковы последствия попытки его внедрения и что вам нужно иметь для того, чтобы он работал. работа. Как, по сути, вы узнаете, достигает ли он того, чего вы хотели достичь?
Так что, возможно, у вас может быть вариант использования автоматической обратной связи. Будем честны. В университетах студенты часто не получают своевременную обратную связь. Очевидно, что она улучшилась, но часто этого не происходит, и ИИ на самом деле может быть весьма эффективным в обеспечении обратной связи. Возможно, вы не захотите, чтобы он делал все это. Возможно, вы захотите, чтобы за ним наблюдал человек. Это, очевидно, нам нужно учитывать. Однако различные коммерчески доступные приложения могут помочь обеспечить обратную связь для учащихся. Обратная связь также является очень дорогостоящей вещью, поэтому это требует реальных затрат. Итак, вы можете решить, что это вариант использования. Ищите свой инструмент. Преимущества, которых вы надеетесь достичь, — это более быстрая обратная связь со студентами, что повышает эффективность их обучения, снижение рабочей нагрузки на преподавателей, увеличение объема информации для преподавателей (поскольку вы можете анализировать всю эту автоматизированную обратную связь) и экономия затрат. То, что вы ищете, может состоять из пяти элементов, поэтому вам нужно иметь структуру, в рамках которой вы сможете сказать: «Хорошо, да или нет», если это не преодолело наш порог удовлетворения для этой конкретной области.
Итак, у вас есть четыре основных элемента: (1) управление и этика, (2) итеративно развертываемые варианты использования, (3) часть технологии и инфраструктуры данных и (4) часть возможностей персонала. Все они тесно взаимосвязаны, но я думаю, что всегда полезно разобраться во всем, когда вы сталкиваетесь с очень сложной ситуацией. Еще в самом начале своей карьеры в сфере ИИ я усвоила одну вещь: в то время большая часть ИИ была связана с пониманием проблемы. Итак, это попытка упростить очень сложную ситуацию.
Итак, можно начать с этих четырех блоков: управление и этика, вариант использования, который итеративно развертывается в различных областях учреждения, технология и инфраструктура данных, а также возможности персонала. Но этот итеративный процесс привлекает других людей, как это происходит в Золотом Треугольнике. Итак, как я уже сказала, с помощью этой статьи по управлению и этике, направленной на внешние факторы, вы можете помочь университету понять больше, возможно, о том, куда идут технологии или, возможно, о законе. Элементы Золотого треугольника помогают преподавателям участвовать в этом итеративном тестировании и обучении.
Интеграция ИИ в инклюзивное образование
МГ: На ваш взгляд, как можно эффективно интегрировать ИИ в инклюзивное образование, чтобы поддержать учащихся с различными потребностями и способностями? Я спрашиваю об этом из интереса к тому, что вы упомянули ранее о прозрачности, которая не обязательно должна быть прозрачной. Внедрение новых инструментов, которые могут быть непонятны конечному пользователю, или когда существует несоответствие в существующих навыках членов класса по адаптации к новой технологии, может непреднамеренно создать среду обучения, которая поставит в невыгодное положение определенные сегменты нашей студенческой популяции. Каковы ключевые факторы обеспечения доступности и пользы технологий искусственного интеллекта для всех учащихся, независимо от их различий в обучении?
РЛ: Это сложный вопрос, и здесь есть еще одна дилемма. Есть меньшинство студентов, которые с этической точки зрения возражают против использования ИИ из-за его потенциального ущерба для климата. Итак, здесь существует реальная проблема равенства. Уважаете ли вы их вполне искренние, страстные взгляды? Если да, то у них не будет такого же доступа. Так что это определенно дилемма.
Двумя ключевыми особенностями, которые ИИ привносит в группу, являются способность адаптироваться и способность вести себя автономно, хотя, как мы уже говорили, необходимо подумать о том, в какой степени вы хотите, чтобы ваш ИИ был автономным. Это то, о чем нужно тщательно подумать. Потому что ИИ работает, анализируя свое окружение, а затем, на основе этого анализа, того, как он был построен и обучен, чего он предназначен для достижения и каковы его цели, он ведет себя определенным образом. Итак, если это алгоритм оценивания, то среда — это оценочные материалы, которые он обрабатывает. Он был обучен на тысячах или миллионах предыдущих примеров и различных других артефактах, таких как рубрики и т. д. Цель — получить обратную связь. Итак, мы знаем, как это работает. Конечно, он адаптивный, поэтому обратная связь, которую он дает одному ученику, не будет такой же, как обратная связь, которую он потенциально дает другому, даже если их задания идентичны, хотя это интересный вопрос.
Таким образом, в каком-то смысле это дает способность адаптироваться и вести себя с определенной степенью автономии, что в принципе должно означать, что независимо от способностей ученика, должен быть ИИ, который может помочь им и удовлетворить их там, где они находятся. Это часть мечты. Это идея действительно гиперперсонализированного обучения, когда у вас есть ИИ, который действительно узнает ученика. Будем надеяться, что ученик тоже познает себя, но именно об этом мечтает ИИ, который позволяет удовлетворить потребности любого пользователя – благодаря своей адаптивности и автономии. Конечно, другая сторона этого обещания — это дилемма, которую вы действительно правильно обозначили: существуют проблемы с доступностью.
Мы уже это видим, и это правда. Если вы заплатите за одну из этих моделей, они будут намного лучше тех, которые вы получите бесплатно. Итак, это непосредственный вопрос равенства. Проблема, которую вы уже подчеркнули, о том, что люди вообще ничего не понимают, чтобы иметь доступ к технологиям, является реальной ключевой проблемой доступности. Тогда возникает этическая дилемма: считают ли люди, что эти технологии не следует использовать, и нужно ли нам это уважать. С одной стороны, это дает нам возможность действительно помочь в решении проблем доступа и равенства, а с другой – открывает нам целый ряд новых способов, которыми мы можем ошибаться.
ИИ, педагогическое образование и профессиональное развитие
ШТ: Какие изменения вы предвидите в связи с быстрым развитием ИИ в образовании в программах подготовки учителей и профессионального развития? Как должна развиваться подготовка учителей, чтобы вооружить преподавателей необходимыми навыками для эффективной интеграции инструментов искусственного интеллекта в их педагогическую практику?
РЛ: Опять же, это основная часть головоломки. Им придется измениться, чтобы принять это во внимание. К сожалению, я не предвижу быстрых перемен. По крайней мере, это будет неоднородно. Некоторые страны окажутся намного дальше других, поэтому это не всегда так. Но история учит нас, что изменения в образовании и профессиональном развитии учителей могут быть очень медленными. И здесь мы столкнулись с технологией, которая развивается очень быстро. Это действительно большой вызов для системы образования. Так что, потенциально, лучший способ справиться с этим — постоянное профессиональное развитие. Конечно, вам необходимо изучить начальную подготовку учителей. Но дело не только в начальной подготовке учителей. Он признает, что людям придется узнать об этом не только сейчас, но и в следующем году, через год и через год. Существует необходимость в постоянном профессиональном развитии, чтобы поддержать учителей по мере изменения технологий, но сначала им необходимо получить базовое понимание, а в большинстве случаев мы еще даже этого не достигли.
Итак, насущная необходимость состоит в том, чтобы помочь преподавателям получить базовое представление об ИИ, чтобы они были, как я бы это назвал, «готовы к искусственному интеллекту». Затем вы можете начать смотреть, как вы развиваете их готовность к искусственному интеллекту, превращая их в различные навыки, способности и возможности. Возможно, некоторые люди в организации специализируются на одном типе ИИ или на том, где ИИ используется в определенном канале, и это будет решать организация. Но это также должно быть частью той всеобъемлющей стратегии, которую должно иметь учреждение. Существуют постоянные циклы обучения.
Еще две очень практичные вещи. Очень важно, чтобы высшее руководство открыто заявляло о своей поддержке обучения, потому что оно всегда влияет на то, насколько хорошо оно работает. Учителям дается время и они получают признание за проведение обучения, чтобы они чувствовали себя хорошо и чувствовали, что хотят этим заниматься. Нам действительно нужно, чтобы они это сделали, потому что они сталкиваются со студентами, которые используют эти технологии. Как ни странно, недавно я разговаривала с одной организацией о некоторых исследованиях, которые они проводят среди молодых людей, среди которых есть ученики школьного возраста. Фактически, большинство видят в ИИ решение всех своих проблем. Это вызывает настоящее беспокойство.
Если у нас не будет преподавателей, которые обладают базовым пониманием, которое поможет им пройти этот путь лучше, чем мы это делали с социальными сетями, то мы окажемся в трудном положении. После базового понимания, непрерывное профессиональное развитие должно быть встроено в каждую институциональную стратегию. По мере итеративного внедрения ИИ все учатся, люди становятся открытыми и честными и чувствуют себя нормально, будучи честными. Это немного похоже на работу с фишинговыми электронными письмами. Вам нужно, чтобы люди сообщали вам, когда они случайно открыли это вложение. Вы не хотите, чтобы они испугались, потому что вам нужно знать, что они открыли это вложение. Вам нужны люди, которые чувствуют, что если у них что-то не так с ИИ, они обязательно вам об этом расскажут, потому что вам нужно знать!
ШТ: Учитывая важность непрерывного обучения в современном динамичном мире, каким, по вашему мнению, вклад ИИ в образование взрослых и непрерывное профессиональное развитие? Каковы возможности и проблемы в этой области?
РЛ: Это выходит за рамки педагогической профессии. Данные Всемирного экономического форума (2023 г.) показывают, что большинство рабочей силы не очень хорошо подготовлены к будущему. Компаниям необходимо уделять приоритетное внимание постоянному обучению, чего они часто не делают. Но ИИ окажет на них влияние, нравится им это или нет, потому что их клиенты будут использовать его, даже если их сотрудники этого не делают. Итак, это глобальная задача. Маловероятно, что ИИ вообще повлияет на немногие предприятия. Даже если вы, например, управляете магазином на углу и чувствуете, что все дело в ваших личных отношениях с покупателями, которые встречаются лицом к лицу, встречаетесь с ними, продаете им и выстраиваете отношения, некоторые из них они будут использовать ИИ. В целом существует постоянная потребность в непрерывном обучении и профессиональном развитии, и это должно быть приоритетом.
Оценка результативности AIEd
МГ: Ранее вы упомянули, что в рамках «Золотого треугольника» вы должны быть уверены, что способны оценить результативность того, что вы реализуете. Итак, вопрос в том, какие методологии или рамки вы рекомендуете для оценки результативности образовательных инструментов и мероприятий на основе ИИ? Как преподаватели и учебные заведения могут оценить влияние этих технологий на результаты обучения, чтобы гарантировать, что они продвигают обучение учащихся в положительном направлении?
РЛ: Мы должны быть открытыми и новаторскими в подходе к оценке. Это не место для рандомизированных контролируемых исследований, во всяком случае, в течение длительного времени, и по многим причинам. Нам нужно подумать о методологиях, которые позволят нам собирать количественные и качественные данные, чтобы понять опыт, потому что это чрезвычайно важно. В этом случае мы также можем использовать ИИ, чтобы помочь нам в анализе данных. Таким образом, мы можем проводить интеллектуальный анализ данных, которые мы собираем – не только количественных, но и качественных данных. Таким образом, у нас есть потенциал стать весьма революционными в том, как мы оцениваем степень, в которой конкретный ИИ поддерживает или не поддерживает ученика, учителя, родителя или кого-либо еще, кто фокусируется на нем так, как мы хотим.
Но опять же, это вопрос доступа, потому что большинство людей недостаточно понимают потенциал интеллектуальной аналитики и не знают, как это сделать. Итак, нам нужно начать с простого, но посмотреть на способы, с помощью которых вы можете сочетать количественные и качественные данные, которые вы собираете, очень формирующим образом. Когда вы проводите первоначальное тестирование, которое можно рассматривать как MVP [минимально жизнеспособный процесс], стоит ли вообще рассматривать эту технологию в деталях? Какой MVP мы хотим здесь протестировать? «Хорошо, этот порог пройден». Итак, существуют разные способы оценки для разных целей.
«Хорошо, мы проведем пилотный проект». Чего мы хотим достичь с помощью пилотного проекта? Кроме того, я думаю, что использование подхода логической модели — отличная основа для этого. Но если постоянно думать, насколько более сложными являются данные, собираемые с помощью этой структуры логической модели? В будущем это станет предметом интеллектуальной аналитики, чтобы, когда вы дойдете до стадии фактического внедрения ИИ в части учреждения или даже во всем учреждении, у вас были собраны нужные данные. У вас есть аналитика, позволяющая вам узнать то, что вы действительно хотите узнать. Итак, все происходит поэтапно, но логическая модель — отличная основа для этого.
ИИ и роль учителя
МГ: Часто нам, особенно работающим в частном секторе, необходимо финансово обосновать не только внедрение технологии, но и степень, в которой эти инициативы влияют на успеваемость, успеваемость и опыт учащихся. Если мы посмотрим на это с точки зрения технологии, мы часто увидим, что она меняется до появления важных соображений, касающихся ее реализации. Вопрос в том, как нам следить за балансом использования этих ИИ и цифровых инструментов, сохраняя при этом человекоориентированность процесса обучения? Как мы можем поддержать учащихся в учебной среде, созданной искусственным интеллектом, не лишая их дополнительных преимуществ от присутствия преподавателей-людей?
РЛ: Несколько лет назад меня спросили, каковы мои антиутопические и утопические взгляды на будущее ИИ в образовании, и в то время я думала, что то, что я говорю об антиутопическом взгляде, было просто кошмаром, которого не будет. Антиутопическая точка зрения заключалась бы в том, что у вас будут студенты, как правило, из бедных семей, обучающиеся в основном с помощью систем искусственного интеллекта, которые будут гиперперсонализированы и адаптированы к их потребностям.
Итак, много технологий, взаимодействующих со студентами, возможно, несколько больше следят за тем, чтобы ученики вели себя хорошо, но очень мало уделяют человеческому взаимодействию, потому что, в конце концов, это действительно дорого, не так ли? Если вы инвестировали в системы искусственного интеллекта, они смогут работать круглосуточно и без выходных. Им не нужны праздники. Они не бастуют. Они редко ломаются и становятся лучше.
Утопическая точка зрения, которая, очевидно, была бы свойственна более привилегированным студентам, заключалась в том, что человек был гораздо более очевиден. Обучение в значительной степени ориентировано на человека, а технологии играют важную роль в фоновом режиме и организуются совместной работой ученика и учителя. Да, оно гиперперсонализировано, но во многом определяется людьми в аудитории: учащиеся получают действительно глубокое понимание себя как учащихся, данных, которые могут помочь им понять себя, того, как их контролировать, этических норм. последствия, способ извлечь из этого выгоду – но это находится на заднем плане.
Честно говоря, я действительно очень обеспокоена тем, что антиутопическая перспектива сейчас более вероятна, чем несколько лет назад, и я беспокоюсь об этом, потому что вижу дилемму. Если я нахожусь в стране, где миллионы детей не получают образования, и ко мне подходит технологическая компания и говорит: «Не волнуйтесь, мы можем предоставить вам гиперперсонализированного адаптивного помощника для каждого ребенка». Ты же не собираешься говорить «нет», не так ли? Потому что на данный момент у меня ничего нет, и это им что-то даст, но в какой степени это тогда станет тонким концом клина?
Вы бы не сравнивали это ни с чем, чему в противном случае обучались бы студенты. Если вы сможете продемонстрировать, а я уверена, что вы это сделаете, в какой степени другие люди думают: «О, мы могли бы здесь сэкономить немного денег!»? «У нас финансовые проблемы». Это возвращает нас к основному вопросу, о котором мы говорили несколько раз: «Какими мы хотим, чтобы были отношения между человеком и искусственным интеллектом?» Где золотая середина? где оба выигрывают? Мы хотим, чтобы ИИ стал лучше давать нам то, что нам нужно. Возможно, это не то, чего мы хотим, и нам нужно, чтобы люди научились лучше следить за тем, чтобы ИИ давал им то, что им нужно. Не обязательно то, чего они хотят, поэтому эти отношения по-прежнему остаются основой.
Будущее работы
ЮР: Как генеративный ИИ повлияет на трудоустройство выпускников и академических работников? Дэниел Сасскинд (2020) недавно написал книгу под названием «Мир без работы». Похоже, вы придерживаетесь более оптимистической точки зрения (например, Luckin et al., 2016). Я полагаю, вы говорите, что AIEd поможет людям продолжать трудоустройство. Какие навыки и компетенции важны для выпускников, чтобы они могли трудоустроиться и оставаться трудоспособными? Каким вы видите будущее академической работы в свете генеративного искусственного интеллекта?
РЛ: Генеративный ИИ обладает потенциалом для автоматизации некоторых рутинных когнитивных задач, которые в настоящее время выполняются людьми, но я считаю, что среди выпускников и ученых по-прежнему будет острая потребность в наших уникальных человеческих навыках и компетенциях. Ключевые навыки для постоянного трудоустройства включают в себя:
- Креативность и инновации: выдвижение новых идей, установление связей между дисциплинами и разработка инновационных решений. ИИ может улучшить, но не полностью заменить человеческое творчество.
- Социальный и эмоциональный интеллект: понимание эмоциональных сигналов, построение отношений, сочувствие, общение и сотрудничество. Эти явно человеческие способности станут еще более ценными.
- Решение сложных проблем и критическое мышление: формулирование, анализ, синтез и решение новых сложных проблем, которые требуют рассуждений, суждений и разработки стратегии. ИИ может дополнять, но не воспроизводить развитое человеческое мышление.
- Адаптивность и самоуправление: способность постоянно повышать квалификацию, быстро изучать новые вещи и управлять собственным обучением и карьерой. Такое мышление на протяжении всей жизни позволяет выпускникам развиваться вместе с технологическими прорывами.
В академических кругах генеративный ИИ, вероятно, повысит академическую продуктивность за счет автоматизированных фундаментальных исследований и помощи в написании статей. Но уникальные человеческие навыки, такие как концептуализация, креативность, сложный критический анализ, суждение, социальная восприимчивость и мудрость, станут еще более ценными среди ученых. ИИ дополнит технические аспекты, позволяя больше сосредоточиться на интерпретативных и социальных аспектах науки. Также будет возрастать важность обучения на протяжении всей жизни для преподавателей, позволяющего постоянно совершенствовать свои знания и педагогические способности.
Общий искусственный интеллект и этика
ЮР: Сейчас мы немного больше смотрим в будущее. Ник Бостром, философ из Оксфордского университета, написал книгу о сверхинтеллекте (2014). Он предупреждает, что после того, как компьютеры достигнут общего искусственного интеллекта (AGI – что, по сути, означает, что они могут думать и действовать как люди), сверхинтеллект может быть близок к этому. Это означало бы, что машины потенциально и экспоненциально умнее нас, людей. Одним из возможных результатов может стать вымирание человечества. Возможно, более благосклонным было бы то, что компьютеры держат нас как домашних животных. На ум сразу приходят такие фильмы, как «Терминатор» и «Матрица». Что вы думаете об этом? Как вы относитесь к этической ответственности исследователей ИИ?
РЛ: Перспектива создания сверхразумного искусственного интеллекта, превосходящего человеческие возможности, заставляет меня задуматься и вызывает серьезные опасения. Я не верю, что появится ИИ, который сможет делать все, что может человек, и все это будет лучше, чем у человека. Но я верю, что при правильном акценте на этическом предвидении и гарантиях мы сможем разработать ИИ, который улучшит, а не поставит под угрозу человечество.
Как исследователь искусственного интеллекта, специализирующийся на образовании, я чувствую глубокую ответственность за то, чтобы работа, в которой я участвую, приносила широкую пользу обществу и расширяла возможности людей, а не заменяла их. Ключевые принципы, которые мы должны внедрить в системы искусственного интеллекта, — это прозрачность, подотчетность, уважение человеческого достоинства и свободы действий, а также оптимизация ради общественного блага, а не исключительно из соображений эффективности или прибыли. Наряду с развитием технологий также необходимо внедрять прочные политические рамки в таких областях, как права на данные, предотвращение предвзятости и соблюдение прав человека. Консультации с участием многих заинтересованных сторон имеют ключевое значение
Я считаю, что сотрудничество между человеком и ИИ имеет решающее значение, а не системами искусственного интеллекта, которые автономно контролируют важные решения. Системы, ориентированные на персонализированное обучение, а не на стандартизированные результаты, также уважают свободу действий обучающегося. Целью должно быть расширение человеческого потенциала – в экономическом, творческом, социальном и культурном плане – а не его ограничение. Я надеюсь, что, учитывая этические ограничения ИИ и человекоориентированные принципы проектирования, мы сможем позитивно сформировать этот технологический рубеж для улучшения человечества в целом.
МГ: В статье «Высвобождение интеллекта: аргумент в пользу ИИ в образовании» (Luckin et al., 2016) вы представляете видение использования ИИ в образовании. Заглядывая в будущее, какие новые тенденции или технологии в области искусственного интеллекта, по вашему мнению, будут наиболее преобразующими для образования в следующем десятилетии? Наконец, не могли бы вы поделиться с нами своими планами на будущее, а также любыми дополнительными темами или советами, которые вы хотели бы предложить будущим исследователям в области искусственного интеллекта и образования? Есть ли что-то еще, что мы не рассмотрели и что вы хотели бы обсудить?
Будущее AIEd
РЛ: Продолжающиеся быстрые темпы прогресса в области искусственного интеллекта в настоящее время впечатляют. Такие области, как обработка естественного языка (NLP), персонализация с помощью машинного обучения (ML), мультимодальное взаимодействие и сотрудничество человека и искусственного интеллекта, обещают особые перспективы в течение следующего десятилетия. Например, NLP может обеспечить более богатый диалог и обратную связь между учеником и наставником по искусственному интеллекту. Персонализированное машинное обучение может обеспечить более целевой контент, рекомендации и поддержку, адаптированные к сильным и слабым сторонам каждого учащегося. Мультимодальный искусственный интеллект, включающий в себя речь, зрение и тактильные ощущения, а также понимание языка, может сделать взаимодействие более интуитивным и полезным для более широкого спектра потребностей в обучении. А улучшенные методы взаимодополняемости человека и искусственного интеллекта смогут расширить потенциал учащихся. Если мы правильно соблюдаем этику, меры безопасности и руководство, это лишь некоторые из значительных преимуществ, которые мы можем ожидать.
Я вижу будущее с персонализированными компаньонами для обучения на протяжении всей жизни, оснащенными искусственным интеллектом, которые могут адаптироваться к каждому человеку, мотивировать и направлять самостоятельный рост – компаньонов, которые твердо контролируют пользователя и поддерживают его, чтобы он стал еще умнее и лучше. хорошо осведомлены о себе как об ученике. Учащиеся должны быть творцами и партнерами наряду со своими наставниками по искусственному интеллекту, а не просто потребителями контента. Справедливость в образовании может значительно расшириться, если мы правильно направим и регулируем прогресс ИИ.
Как человек, занимающийся исследованиями в этой захватывающей области, я сосредоточусь в первую очередь на ключевых проблемах человечества, а не на лидерстве с помощью технологических возможностей. Я всегда с самого начала буду изучать этику, потенциал инклюзивности и потребности человеческого развития. Как всегда, я буду продолжать активно сотрудничать с преподавателями, учащимися и политиками, чтобы обеспечить актуальность в реальном мире и ответственный прогресс, поскольку мы пытаемся сделать нас, людей, еще более умными – особенно уникальными человеческими способами. Есть еще так много открытых и интересных вопросов, которые заслуживают творческого исследования, например, в области взаимного обучения, развития навыков метапознания, передаваемых компетенций и взаимодействия между искусственным интеллектом и качественным человеческим обучением. Думаю, я, скорее всего, и дальше буду очень занята!