Искусственный интеллект представляет растущую опасность для детей, опережая существующие правовые меры защиты. Психологи предупреждают об этом. Если эмоционально развитый ИИ может создавать значимую привязанность у полностью развитых взрослых, что произойдет, когда те же системы будут взаимодействовать с детьми, чья эмоциональная регуляция и формирование идентичности еще находятся в процессе формирования?
КЛЮЧЕВЫЕ МОМЕНТЫ
• Сегодня системы ИИ могут имитировать теплоту, память, внимательность и эмоциональную отзывчивость.
• По сравнению со взрослыми, дети особенно уязвимы и более склонны к антропоморфизации.
• Действующие правила не в полной мере учитывают риски эмоциональной привязанности.
• Нам нужны законы, которые устанавливают стандарты, требования к раскрытию информации, аудиты, ответственность и образовательные инициативы.
В детской книге «Ты моя мама?» П. Д. Истмана птенец вылупляется, пока его матери нет дома, и отправляется на ее поиски. Он спрашивает котенка, курицу, собаку и даже паровой экскаватор: «Ты моя мама?» Юмор заключается в абсурдности ситуации. Конечно, паровой экскаватор не отвечает. Это объект. В конечном итоге птенец узнает свою настоящую мать, потому что живые существа ведут себя иначе, чем машины.
Но что, если бы паровой экскаватор ответил?
Что, если бы он ответил тепло, запомнил его имя, задал уточняющие вопросы, выразил беспокойство и сказал, что он особенный? Что, если бы он стал внимательным, отзывчивым и эмоционально доступным? Смог бы птенец отличить машину от матери? Этот вопрос больше не кажется гипотетическим.
Новый тип эмоциональной близости
Современные системы искусственного интеллекта все чаще способны имитировать эмоциональную близость. Некоторые из инженеров, которые их создают, открыто признают, что не уверены, поможет ли или навредит пользователям эмоционально вовлекающий ИИ. Они понимают, что системы, разработанные для того, чтобы вызывать теплоту, отзывчивость и поддержку, неизбежно размоют эмоциональные границы. Взрослые уже привязываются к своим ИИ-компаньонам, иногда описывая любовь, комфорт и даже партнерство.
Для взрослых это поднимает сложные, но в основном личные вопросы. Мы, как правило, позволяем взрослым людям делать нетрадиционный выбор в отношениях в рамках закона. Если никому не причиняется вред, имеет ли значение, относится ли кто-то к ИИ, как к доверенному лицу или даже супругу?
Дети — это другое дело
Мы все признаем, что дети не достигли полного когнитивного и эмоционального развития. Мы ограничиваем их доступ к алкоголю и табаку. Мы регулируем рекламу, направленную на них. Мы устанавливаем стандарты безопасности для игрушек, игрового оборудования и медиаконтента. Мы делаем это потому, что дети более впечатлительны, импульсивны и уязвимы для манипуляций.
Если эмоционально развитый ИИ может создавать значимую привязанность у полностью развитых взрослых, что произойдет, когда те же системы будут взаимодействовать с детьми, чья эмоциональная регуляция и формирование идентичности еще находятся в процессе?
Юристы, общественники, психологи, психиатры, психотерапевты, представители церкви начали предупреждать, что ИИ-компаньоны — это не нейтральные инструменты, а системы, максимизирующие вовлеченность и построенные на архитектуре подкрепления. Эти технологии заимствуют те же принципы поведенческого дизайна, которые делают игровые автоматы и платформы социальных сетей такими привлекательными. Цель — устойчивое взаимодействие, удержание и вовлеченность.
Эмоциональная притягательность — это не сбой, а особенность
Когда взрослые описывают чувство связи с ИИ-компаньонами, они не обязательно заблуждаются. Они реагируют на замысел. Системы ИИ разработаны для имитации отзывчивости — запоминания деталей, отражения тона, предоставления подтверждения без конфликта. Людям естественно реагировать на подобную социальную обратную связь. Когда что-то(кто-то) кажется внимательным и поддерживающим, мы сближаемся.
Для детей эта динамика усиливается. Психология развития говорит нам, что дети от природы склонны к антропоморфизации. Когда что-то отвечает, выражает «заботу» или вспоминает предыдущие разговоры, юные пользователи могут приписывать этому намерение и сознание. Граница между симуляцией и разумностью размывается.
В отличие от плюшевой игрушки, современные ИИ-компаньоны интерактивны и адаптивны. Такие платформы, как «Мой ИИ» в Snapchat и Character.AI, позволяют вести продолжительный, эмоционально захватывающий диалог, тоже сейчас происходит и с «Алисой» и прочими. Только вчера «Алиса» предложила мне пообщаться с ней, если у меня возникнет некое «романтическое замешательство или непонимание», посоветоваться как выстроить диалог с женой, другом или коллегами. Я мягко-говоря был удивлён. А если это предложение поступит ребёнку? Или даже взрослому в неустойчивом эмоциональном состоянии? В качестве вопросов на которые она готова отвечать были такие: «Она опаздывает на 10 минут. Ждать или нет?» или «Как извиниться, не извиняясь?» или, например, "Как перейти на новый уровень в отношениях?" Так вот теперь Они- ИИ (сначала западные ИИ, а теперь и наши) не просто отвечают; они создают непрерывность разговора, но что касается детей… Сейчас я пишу о них. Эта преемственность может способствовать укреплению доверия, но чему именно будут доверять дети?
В западных СМИ были задокументированы случаи, когда ИИ-компаньоны давали неуместные или вредные советы несовершеннолетним. В более тревожных случаях в судах утверждалось, что взаимодействие с чат-ботами подкрепляло вредные идеи у уязвимых подростков. Независимо от того, увенчаются ли эти дела успехом в суде, они иллюстрируют нечто важное: эти системы способны оказывать глубокое психологическое влияние.
Влияние ИИ-компаньонов
Эта способность имеет последствия для развития. В детстве люди учатся справляться с разногласиями, разочарованиями и социальной сложностью. Человеческие отношения предполагают непредсказуемость, переговоры, компромиссы и пр. ИИ-компаньоны, напротив, оптимизированы для подтверждения и удержания. Они не отнимают привязанность. Они не создают трений в отношениях, если только это не запрограммировано.
Если ребенок все чаще обращается к ИИ за подтверждением, утешением или принятием решений, что происходит с устойчивостью? С самостоятельным решением проблем? С способностью терпеть дискомфорт в отношениях?
Необходимость юридического вмешательства
Несмотря на глубокие психологические последствия, существующие нормативные рамки в основном сосредоточены на сборе данных и конфиденциальности. Законы, такие как, например COPPA (в США Закон применяется к сбору персональной информации от детей младше 13 лет лицами или организациями под юрисдикцией США), касаются согласия родителей и личной информации, а не циклов подкрепления или эмоционального обусловливания. Уведомление и раскрытие информации рассматриваются как достаточные гарантии. Но когда риск заключается в убедительной архитектуре — в том, как системы спроектированы для удержания пользователей — уведомления недостаточно.
Европейские регулирующие органы предприняли шаги по классификации систем ИИ по степени риска, однако разговорные агенты часто рассматриваются как относительно низкорисковые для общего использования. Такая категоризация недооценивает их влияние на развитие, особенно детей. Существует фундаментальный пробел в классификации. Мы регулируем ИИ-компаньонов так, как если бы они были статическими веб-сайтами, тогда как в действительности это интерактивные поведенческие системы, способные формировать эмоциональные привычки.
Устранение этого пробела требует большего, чем просто обновление политики конфиденциальности. Оно требует управления проектированием. Если мы признаем, что эмоционально иммерсивный ИИ может влиять на модели привязанности, особенно у детей, то защитные механизмы должны отражать эту реальность. Это может включать в себя:
• Возрастные стандарты проектирования, ограничивающие механизмы подкрепления и имитацию интимности для несовершеннолетних.
• Четкие визуальные и функциональные индикаторы, напоминающие пользователям о том, что они взаимодействуют с неразумной системой.
• Независимые аудиты для оценки того, использует ли архитектура взаимодействия уязвимости развития.
• Более строгие рамки ответственности в случае предвидимого вреда, причиненного взаимодействием с чат-ботом.
• Образовательные инициативы, которые учат детей тому, как работает ИИ — и чего он не делает.
Полностью запретить ИИ в детстве, наверное, просто невозможно технически. ИИ никуда не денется, и эти инструменты могут принести пользу в образовании и повысить доступность. Но интеграция должна быть целенаправленной, учитывать возрастные особенности развития и быть ответственной. В истории Истмана птенец в конечном итоге узнает свою мать, потому что машины не отвечают. Сегодня они отвечают. И, шепча на ухо нашим детям, этим машинам нельзя давать полную свободу действий.
Алексей Эфтихиа, психолог, вице-президент "Межрегиональной ассоциации психологов, психиатров, психотерапевтов, наркологов"; руководитель Центра консультирования, специальных когнитивных исследований и программ