Недавно на консультации я работала с необычным запросом. Клиентку беспокоило не внутреннее состояние, а странное чувство, возникшее после просмотра социальных сетей.
Она наткнулась на аккаунт красивой блондинки, в описании которого значилось: «Я родилась в семье миллиардеров». Заинтригованная, она зашла на страницу и в рилсах увидела душераздирающую историю: девушка рассказывала, как в детстве с ней никто не дружил из-за денег родителей, как в юности она страдала от прыщей и комплексов, а потом попала в ужасную аварию и потеряла руку.
В комментариях люди плакали, благодарили за смелость и писали слова поддержки. Но кто-то холодно заметил: «Это искусственный интеллект».
Моя клиентка испытала шок. «Я поверила ей, — сказала она. — Я почувствовала боль. Но теперь я не знаю, что делать с этим чувством. Если это ложь, то что вообще правда?»
Сейчас мы стали свидетелями феномена, назовем это - эмпатический взлом. Если кто-то из вас уже сталкивался с таким чувством, предлагаю разобраться и глубже его изучить.
- Та страница, которую описана выше, — это не просто технический эксперимент. Это тонко выстроенная психологическая ловушка для привлечения подписчиков. Создатели этого ИИ-персонажа (или целой команды, стоящей за ним) использовали классическую «историю Золушки», но в современной, травматичной упаковке.
- Несправедливо обиженный герой. С самого начала нам дают контекст: «богатая наследница». Это вызывает либо любопытство, либо легкое раздражение. А затем следует падение: одиночество, прыщи, увечье. Это идеальный нарратив. Мы устроены так, что в большинстве случаев сочувствуем тем, кто «был на вершине и упал на дно». Это вызывает более сильный отклик, чем история человека, который всегда был беден и несчастен.
- Прыщи (проблемы подросткового возраста, принятия себя) и потеря конечности (преодоление физической травмы) — это универсальные человеческие страхи. ИИ не чувствует боли, но он научился идеально её симулировать, нажимая на наши больные кнопки.
- Мы привыкли думать, что ИИ — это что-то роботизированное. Но современные нейросети генерируют идеальные лица с микромимикой, которую наш мозг считывает как «живую». Если раньше фейки можно было распознать по «стеклянным глазам» или неестественной пластике, то сейчас эта грань стерта.
Так где та грань, что можно делать, а что нельзя?
Я вижу эту грань в точке информированного согласия и отсутствия намерения причинить вред. И маркировки ИИ.
Ведь когда мы идем в театр, мы знаем, что актер играет. Мы покупаем билет, чтобы добровольно пережить эмоции. Мы сопереживаем Гамлету, зная, что это вымысел. Когда мы читаем книгу, мы понимаем, что автор мог выдумать персонажа.
Но когда мы заходим на страницы соцсетей, мы находимся в пространстве, которое по умолчанию считается пространством реальных людей. Мы не подписываем договор о том, что готовы к вымыслу. Нас вводят в заблуждение.
И что же происходит на самом деле?
Люди отдают свою энергию, время и душевное тепло пустоте. Человек пишет комментарий со словами: «Я тоже потерял руку, я понимаю твою боль», надеясь на встречу с родственной душой. А вместо этого его боль просто собирает просмотры для бездушного алгоритма.
Представьте, что вы начали бы плакать над красивой куклой в витрине, думая, что она живая, а потом продавец рассмеялся бы вам в лицо. Что бы вы почувствовали?
Если такие страницы станут нормой, нас может ждать «эпидемия недоверия». Психика человека — это не компьютер, она не может работать в режиме «всегда проверяй данные на подлинность» 24/7. Мы живем в режиме доверия по умолчанию — это основа социальных связей.
Когда этот режим ломается, люди перестанут сочувствовать вообще, чтобы случайно не попасть впросак. «А вдруг это снова бот?», «Если я не могу отличить человека от машины, то что делает человеком меня? Моя боль — единственное, что у меня осталось?»
Так как нам жить в этом новом мире, где аватарка может оказаться сгенерированной картинкой, а трогательная история каким-нибудь кодом?
Самый простой способ, это тест на реальность встречайтесь с людьми в офлайн-пространстве или хотя бы по видеосвязи в реальном времени. Искусственный интеллект пока с трудом справляется со спонтанными диалогами «здесь и сейчас».
Развивайте «цифровую интуицию». Обращайте внимание на стерильность контента. Идеальная картинка, идеально выстроенная драматургия, отсутствие «некрасивых» деталей реальной жизни (неудачных ракурсов, бытового фона, пауз и слов-паразитов в сторис). Реальность всегда немного несовершенна.
Проверяйте «факт боли». Если история вызывает у вас слишком сильную, почти манипулятивную жалость, задайте себе вопрос: «Зачем этот человек делится этим со мной? Какая его настоящая цель?». В реальной жизни люди часто стесняются своей боли и раскрываются постепенно. ИИ же вываливает всю драму сразу, как товар на витрину.
Сохраняйте эмпатию, но перенаправьте её. Если вы узнали, что история оказалась фейком, не корите себя за то, что поверили. Похвалите себя за то, что вы способны на сострадание. Это ваше человеческое качество. А свою злость на обманщиков направьте на то, чтобы предупредить других.
Конечно, история с блондинкой-миллиардершей, потерявшей руку, — это зеркало, которое технологии поставили перед нами. И я думаю, это только начало. Оно показывает нам, как мы жаждем «красивых страданий», как легко мы готовы отдать свое сердце тому, кто упаковал горе в привлекательную обложку.
Но настоящая человеческая связь рождается не из идеальной драмы, а из тихого, несовершенного, живого присутствия другого человека. И пока мы можем отличить живое тепло от холодного монитора — мы остаемся людьми.
*Этот случай описан с разрешения клиентки.
Автор: Волкова Ольга Николаевна
Психолог, Коуч
Получить консультацию автора на сайте психологов b17.ru