Добавить в корзинуПозвонить
Найти в Дзене

Правовые риски цифровой дидактики, связанные с антропоморфными персонами в цифровой среде

Автор статьи: к.ю.н., доцент МГПУ Толкачев Андрей Николаевич Аннотация. Настоящая работа выполнена в рамках исследовательского проекта, посвященного проблемам применения искусственного интеллекта в образовательном процессе. В статье применяется комплексный подход к рассмотрению рисков внедрения ИИ-персон в процесс обучения. Введение Активное внедрение технологий искусственного интеллекта (ИИ) в учебный процесс сегодня несет не только положительный эффект, но и потенциальные риски, среди которых антропоморфные ИИ-агенты — цифровые персонажи, способные к интерактивному и эмоционально окрашенному общению с обучающимися завоевывают все более значимое положение. Их использование в качестве учителей, консультантов, тьюторов, репетиторов и даже компаньонов по учебе открывает новые возможности для персонализации обучения. Пользователь получает заманчивое предложение: выбрать любую историческую персону в качестве цифрового персонажа, наделенного искусственным интеллектом (ИИ), и общаться с ни

Автор статьи: к.ю.н., доцент МГПУ Толкачев Андрей Николаевич

Аннотация. Настоящая работа выполнена в рамках исследовательского проекта, посвященного проблемам применения искусственного интеллекта в образовательном процессе. В статье применяется комплексный подход к рассмотрению рисков внедрения ИИ-персон в процесс обучения.

Введение

Активное внедрение технологий искусственного интеллекта (ИИ) в учебный процесс сегодня несет не только положительный эффект, но и потенциальные риски, среди которых антропоморфные ИИ-агенты — цифровые персонажи, способные к интерактивному и эмоционально окрашенному общению с обучающимися завоевывают все более значимое положение. Их использование в качестве учителей, консультантов, тьюторов, репетиторов и даже компаньонов по учебе открывает новые возможности для персонализации обучения. Пользователь получает заманчивое предложение: выбрать любую историческую персону в качестве цифрового персонажа, наделенного искусственным интеллектом (ИИ), и общаться с ним, как с живым человеком, делиться с ним своими проблемами, давать ему задания, просить у него советов и решений для разных жизненных ситуаций и в том числе для получения образования. «Искусственный субъект» имеет не только визуальное воплощение (аватар), биографию и характер исторической личности, – у него определенные запросом пользователя сфера информационного обеспечения, роль, характеристики, цель и стиль общения, ограничения по тематике и терминологии. Например, Зигмунд Фрейд может стать другом студента-психолога, а Сальвадор Дали – студента-дизайнера.

Однако наделение таких систем человекообразными чертами и поведением порождает комплекс нерешенных вопросов на стыке права и психологии. Положение усугубляется отсутствием адекватного правового регулирования статуса и ответственности таких «цифровых педагогов».

Если изучить содержание и объем понятия "ИИ-персона", – можно увидеть, что перед нами продвинутый ИИ-агент, который имеет высокую авторитетность в силу используемого образа знаменитой личности, а потому он выходит за рамки стандартных виртуальных ассистентов. Как говорится, «агент без страха и упрека». Он предоставляет контекстно-осознанные, структурированные, увлекательные взаимодействия, использующие набор инструкций и данных большой языковой модели (например, Chat GPT). Если представить, что сама модель — это бесхарактерный ученый-энциклопедист, то "Персона" — это его роль, основанная на сценарии и режиссерских указаниях. Конечно, не будем сбрасывать со счетов качество запроса пользователя и инструкции для персонажа, о том какой информацией можно или нельзя оперировать «Персоне».

Но есть один нюанс. Если скажем, два пользователя независимо друг от друга будут создавать «ИИ-персону» знаменитого российского адвоката XIX века Плевако Ф.Н. и составят разные инструкции, то получат противоположные советы данного адвоката, несмотря на сохранение искусственным интеллектом ключевых характеристик ИИ-персоны. По какой причине «ИИ-персона» повернется разной стороной к двум пользователям? Если первый пользователь укажет на использование адвокатом закона и логики в проигранных судебных делах, а второй – на использовании эмоциональных выступлений в выигранных судебных делах, то рекомендации данного ИИ-агента не совпадут.

В любом случае перед нами «консультант», который не может полностью заменить педагога и гарантировать правильность своих советов. Но поскольку «ИИ-персона» оказывает на пользователя мощное психологическое воздействие генерируемых в ИИ образов, необходимо научное осмысление и оценка возникающих рисков, и прежде всего в образовании.

Результаты исследования

В силу отсутствия актуальных социологических опросов по теме, рассмотрению подлежат некоторые результаты научных экспериментов и онлайн-опросов по влиянию художественных образов на человека, в таких медиа, как кино, видеоигры и социальные сети.

Одна из известных современных психологов Крэйг Андерсон и ее коллеги проанализировали сотни отдельных исследований, посвященных влиянию агрессивных видеоигр на поведение. Мета-анализы последовательно показывают наличие небольшой, но статистически значимой прямой связи между воздействием агрессивных изображений и сцен в играх и последующими агрессивными мыслями, чувствами и поведением. Ученые доказали наличие психологического возбуждения из-за агрессивного контента, активацию агрессивных когнитивных схем, и, самое главное, эмоциональное привыкание к образу [5].

Заслуживают внимания исследования "транспортации" (погружения), что провели американские ученые М. Грин и Т. Брок. Теория транспортации утверждает, что степень погруженности человека в нарратив коррелирует с эффективностью его влияния на убеждения человека, причем вне зависимости от того, вымышленными или реальными являются представленные в нарративе герои и события. Доказано, что транспортация представляет собой особое состояние вовлеченности и погруженности в нарратив, которое способствует усилению психологического воздействия и может привести к изменению связанных с содержанием нарратива убеждений человека.

Психологи обнаружили феномен погружения человека в художественный мир фильма, и мысленного "переноса" в него, что ведет к преувеличению воздействия на себя художественного образа. Например, после погружения в историю о преданном друге респонденты проявляли больше просоциального поведения.

Характеристиками нарратива, способствующими усилению транспортации в него стали наличие смысла в фильме, важность и актуальность поставленных проблем, потенциал воздействия. Кроме того, важен сюжет фильма, его логичность и динамичность, реалистичность показанного, а также привлекательность самой истории [6].

Наконец, укажем данные исследований мнения респондентов о самоидентификации себя в Интернете и влиянии его на их потребительское поведение среди представителей молодежи города Пенза. Объектом исследования были молодые пользователи интернета в возрасте от 18 до 25 лет. Предметом исследования было поведение респондентов в Интернете и влияние их интересов в социальной сети на изменение потребительского поведения в жизни. Результаты выявили интересный феномен: абсолютное большинство респондентов не заметили изменений в своем потребительском поведении под влиянием Интернета [7]. Тот факт, что респонденты не заметили изменений, свидетельствует о том, что цифровое влияние в основном действует на подсознательном или латентном уровне. Это создает фундаментальный разрыв между юридической фикцией "разумного и осведомленного потребителя" и цифровой реальностью.

Художественный образ вызывает эмоциональное заражение, навязывает модели поведения и картины мира. Можно заметить и факт идентификации, когда учащийся охотно примеряет на себя роли героев. Наконец, действенное убеждение происходит через нарратив, когда история убеждает сильнее, чем логические аргументы. Создаваемый искусственным интеллектом образ несет аналогичное воздействие, как и образы, рассмотренные выше[8]. Это мощный психологический инструмент, способный формировать восприятие учащихся, менять их убеждения и направлять их поступки.

В условиях динамично развивающейся цифровой среды риски взаимодействия учащихся с любыми цифровыми «квазисубъектами» безусловно растут.

Риск падения снижения роли и авторитета педагога перед более информированным и никогда не устающим ИИ-педагогом, имеющим неограниченное терпение и доступность. Но для педагога, который готов принять новые технологии и сосредоточиться на человеческой составляющей своей профессии, авторитет не только не упадет, но и возрастет. Он станет тем самым "наставником", который помогает расти не только интеллектуально, но и личностно [9].

Риск снижения мотивации исследователя на самостоятельный поиск, отбор и анализ информации в связи с наличием готовых ответов, ссылок на источники и решения от искусственного интеллекта, даже если воспроизводится ложная картина объекта исследования [10].

Риск увлеченности искусственным образом, психологической зависимости от него у пользователя, снижения критичности и падения так называемого «цифрового иммунитета» пользователя из-за безграничного роста доверия к цифровой системе [11].

Риск ошибки в работе компьютерного алгоритма, приводящей к необъективным результатам по причине некачественные данных, которые могут содержать негативный опыт, не верифицированную информацию, человеческие предубеждения и некорректные односторонние предположения, исходящие от отдельных групп пользователей [12].

Риск игнорирования «коммуникативной педагогики», основанной построенные на создании творческих коллективов с большой ролью командной работы, и наличием потенциала для дискуссий. Как утверждает Волков А.Е., директор института общественных стратегий Московской школы управления СКОЛКОВО: «Сколь угодно хорошо информированный преподаватель, который сам не создает новое знание в исследованиях и разработках, сегодня проиграет в передаче знаний какому-нибудь DeepSeek. …Выход — переход в «коммуникативную педагогику», которая возможна только при активной позиции самого студента и работе на переднем фронтире знания преподавателя профессора» [13].

Завершая обзор рисков, уместно добавить, что утрата самостоятельности мышления учащегося в результате зависимости от ИИ-персоны становится препятствием в приобретении навыков и компетенций, необходимых современному специалисту, которые были установлены в результате социологического опроса экспертов АНО «Национальные приоритеты». Это аналитическое мышление, способность к обучению и адаптации, критическое и стратегическое мышление, а также способность рассуждать логически и решать проблемы. Рейтинг основан на опросе 1000 экспертов, представляющих прежде всего образовательные учреждения [13].

Выводы

Возможные пути преодоления вышеназванных проблем можно сформулировать следующим образом:

1. Принятие нормативных актов, обязывающих разработчиков создавать ИИ-системы, более прозрачные для проверки, которые не являются «черными ящиками» источников получения информации.

2. В законодательстве необходимо закрепить правовую конструкцию «квазисубъекта» («электронного лица») как сущности, не обладающей правосубъектностью и возложить ответственность за действия подобного ИИ-агента на создателей, владельцев или операторов квазисубъектов.

3. Пользователь должен иметь право и знать способ и процедуру получения ответа, на каком основании ИИ принял то или иное решение.

4. Создание перечня дизайнерских паттернов и алгоритмов, которые намеренно вызывают психологическую зависимость пользователя искусственного интеллекта, максимально увеличивая время пользователя в приложении или системе с целью введения ограничений на их использование.

5. Формирование социально обоснованного ИИ с включением в учебные программы информации об ограничениях использования ИИ, способах развития критического мышления, проведением факт-чекинга, способов творческой переработки результатов, дискурсивных практик с применением учебных ролевых игр.

6. Внедрение ИИ-персон в обучение как помощника преподавателя должно учитывать специфику той или иной персоны и возможность противоречий идей, которые она будет транслировать. В российском образовании уже применяются технологии оценки использования ИИ в работах студентов, способные фиксировать этапы подготовки текста и достоверность источников. Есть платформы, интегрированные с основными редакторами (Word, Google Docs, Яндекс Документы).

В итоге можно говорить, что концепция «электронного лица» оценивается как перспективная, но находящаяся на начальной стадии научно-правового осмысления. Можно констатировать факт существования взаимосвязанных параллельных процессов в образовательной парадигме: процессе повышения уровня и качества запросов к ИИ от учащегося и процессе совершенствования учебного продукта от ИИ по запросам учащегося. Вот почему нужны строгие правовые и этические рамки для разработчиков ИИ, почему необходима профилактика как угрозы создания манипулятивных ИИ-персон, так и угрозы нарушения кибербезопасности учащихся.

Научная статья опубликована в журнале "Бизнес и дизайн ревю". №1.2026.