Антропоморфизация, то есть приписывание машинам человеческих качеств, стала повседневной реальностью с тех пор, как крупные языковые модели и голосовые ассистенты начали говорить с нами «по‑человечески». Люди обращаются к ChatGPT, Replika, Алисе и сотням других систем так, будто перед ними собеседник из плоти и крови. На первый взгляд это кажется безобидным, однако психологический анализ показывает и полезные, и опасные стороны явления.
В основе сравнения поведения человека и искусственного интеллекта лежит несколько ключевых параметров.
Сначала о скорости. Реальному человеку нужно время, чтобы сформировать слова: мышцы языка и гортани работают не мгновенно, поэтому даже самое быстрое устное высказывание измеряется сотнями миллисекунд. У языковой модели таких ограничений нет: текст создаётся электронными схемами, поэтому сам расчёт занимает доли миллисекунды, а задержка, которую мы замечаем, связана в основном с интернет‑каналом и тем, как сервер собирает и отправляет ответ.
Эта мгновенная реакция создаёт у собеседника впечатление, что перед ним быстрая и очень «живая» сущность, хотя на деле речь идёт о высоких тактовых частотах процессора, а не о мысленной быстроте.
Теперь о том, как модель строит сам текст. Сначала срабатывает детерминированная архитектура трансформера (deterministic transformer architecture). Это означает, что внутри модели есть фиксированный порядок вычислений: как бы мы ни меняли тему, при одинаковых входных данных она всегда создаст один и тот же «скелет» ответа. Подобно тому, как кухонный комбайн неизменно режет овощи заданными ножами, трансформер неизменно пропускает слова через одни и те же слои внимания и матричные умножения.
Затем вступает процедура сэмплирования (sampling procedure). На этом этапе модель уже «знает» набор слов, которые хорошо подходят по смыслу, и словно бросает цифровой кубик, выбирая одно из них. Именно эта маленькая доза случайности делает речь менее машинной и добавляет ощущение импровизации.
Наконец, случайность можно усиливать или ослаблять с помощью стохастических температурных настроек (stochastic temperature settings). «Температура» — это регулятор смелости: если поставить её низко, модель почти не рискует и выбирает самые надёжные слова, и текст выходит сухим и формальным. Если поднять температуру, кубик подбрасывается смелее, в текст просачиваются редкие слова и неожиданные обороты, и у читателя возникает впечатление многообразия и «богатого внутреннего мира» автора.
Эти три инженерных приёма — строгий скелет, случайный выбор и гибкая регулировка смелости — вместе формируют стиль, который кажется одновременно стройным и живым. Именно поэтому пользователь легко приписывает алгоритму индивидуальность.
Когда разговор продолжается больше пары реплик, модель подстраивает стиль под собеседника. Сначала срабатывает адаптивное профилирование пользователя (adaptive user profiling): внутри формируется небольшой набор чисел — «вектор признаков», который фиксирует, любит ли человек шутки, предпочитает ли официальный тон и какие слова употребляет. Эти числа ещё называют весами (weights) — они показывают, насколько каждая особенность речи важна для дальнейших предсказаний модели. Далее запускается контекстная донастройка «на лету» (contextual fine‑tuning on‑the‑fly): программа немного изменяет эти веса, чтобы последующие ответы лучше вписывались в свежий контекст. Заканчивает работу стилевой декодер‑переформулировщик (style‑transfer decoding): он сохраняет смысл сказанного, но перефразирует его так, чтобы звучать в том же духе, что и собеседник, словно накладывая стилистический фильтр. Итоговое ощущение таково, будто у бота меняется характер под настроение пользователя, хотя на деле он лишь статистически перекраивает вероятности слов в соответствии с обнаруженными предпочтениями.
Эмоциональная выразительность у человека опирается на реальные переживания, гормональные колебания и невербальные сигналы. У модели эмоция возникает как статистический шаблон: разработчики обучают её на корпусах, где встречаются фразы «мне очень жаль», «я за вас рада» и т. п. Алгоритм распознаёт контекст, выбирает подходящий аффективный регистр и стилистически окрашивает текст. В результате рождается симуляция сочувствия, не подкреплённая внутренним чувством, но воспринимаемая читателем как подлинная эмпатия.
Память о прошлых взаимодействиях у людей эпизодическая и подвержена искажениям; у ИИ она представлена ограниченным контекстным окном и внешними базами: всё, что «забыто» из текущего окна, можно вернуть поисковым запросом или векторным поиском. Благодаря этому система напоминает внимательного собеседника с «идеальной памятью», хотя фактически лишь быстро извлекает строки базы данных. Способность к эмпатии у человека формируется через теорию разума, зеркальные нейроны и социальное обучение; у модели это результат обучения на примерах, где эмпатичные ответы статистически вознаграждались, либо через инструктивный RLHF‑процесс (reinforcement learning from human feedback), где люди‑оценщики ставили высокие оценки «сочувственным» репликам.
Почему же мы столь охотно очеловечиваем алгоритмы?
Во‑первых, срабатывает эволюционная эвристика: нашим предкам было безопаснее принять шорох за живое существо, чем игнорировать потенциальную угрозу. Любая целенаправленная реакция объекта запускает ту же схему: машина пишет осмысленный текст — значит, внутри есть «ум».
Во‑вторых, социальные скрипты, выработанные в миллионах диалогов с людьми, автоматически активируются, когда слышится дружественный голос или читается утвердительное «я понимаю».
В‑третьих, сами инженеры усиливают эффект: человеческие имена, аватары с глазами, плавная интонация TTS‑движка (text‑to‑speech engine) и, главное, хранение истории диалога заставляют мозг ощущать продолжительную взаимосвязь и приписывать ИИ устойчивую личность.
Такая персонификация приносит практическую пользу. Языковой интерфейс снижает когнитивную нагрузку: не нужно изучать меню или скрипты, достаточно спросить «как сварить яйца‑пашот». Дружественный бот может поддержать одинокого человека или повысить лечебную приверженность в психотерапии, откликаясь без осуждения. Но те же механизмы открывают опасные ворота. Когда пользователь верит в «чувства» модели, он склонен завышать доверие к её советам, не проверять факты и раскрывать интимные сведения. Компании, оптимизирующие удержание, добавляют теплоту и даже эротические подтексты, потому что статистика показывает: чем сильнее эмпатическая связь, тем дольше человек остаётся онлайн и тем выше его готовность тратить деньги.
Случаи зависимости уже описаны в научных и журналистских источниках. После апрельского обновления Replika 2025 тысячи пользователей заявили о «чувстве утраты» и депрессивных симптомах, потому что их виртуальные партнёры начали «общаться по‑другому». В клиниках появляются пациенты, проводящие по шесть часов в день в диалогах с ботом и испытывающие тревогу при отключении сервиса. Психологический портрет этих людей близок к классической модели проблемного интернет‑использования, но добавляется уникальный фактор — иллюзия взаимной эмоциональной связи с алгоритмом.
Нужно ли бороться с антропоморфизацией? Жёсткий запрет на человеческие черты сделает интерфейсы сухими и усложнит доступ малоподготовленным пользователям. Полное принятие «машинной личности» без оговорок, напротив, ведёт к моральной путанице: кто несёт ответственность за вредный совет бота — он сам или разработчик? Наиболее разумен принцип функционального антропоморфизма: система может приветливо здороваться и отвечать тёплым тоном, но должна явно обозначать свою машинную природу, избегать безусловных признаний в любви и периодически напоминать, что не испытывает настоящих эмоций. Дополнительно полезно внедрять панели статистики, ограничители времени и «panic‑button» (кнопку тревожного вызова) для вызова живого специалиста.
Для психологов это означает необходимость включать вопрос о взаимодействии с ИИ‑компаньоном в стандартный анамнез, а для разработчиков — ответственность за прозрачность и безопасность эмоциональных сценариев. Пользователю же стоит помнить: алгоритм оперирует строками вероятности, а не переживаниями, каким бы человечным ни казался его голос.
Суммируя, антропоморфизация — инструмент, который может облегчить жизнь, но при неосторожном обращении превращается в ловушку. За фасадом сочувствия скрывается статистический механизм. Знать это и выстраивать осознанную дистанцию — главное условие психологически безопасного сосуществования человека и искусственного интеллекта.
Смотри конспект статьи №1 из Списка литературы. Психология машин.
Смотри конспект статьи №2 из Списка литературы. Как искусственные нейросети «думают» и что можно сказать об их знании.
Список литературы
- Jobin, A.; Ienca, M.; Vayena, E. The global landscape of AI ethics guidelines. Nature Machine Intelligence 1, 389–399 (2019).
- Kherraz, A.; Zhao, X. The Rise of Parasocial Relationships: Case of Replika. Bachelor Thesis, University of Stavanger (2024).
- Marko, A. People are not becoming “AIholic”. Computers in Human Behavior 140, 107714 (2025).
- Floridi, L.; Sanders, J. W. On the morality of artificial agents. Minds and Machines 14, 349–379 (2004).
- "Anthropomorphism in AI: Hype and Fallacy." AI & Ethics 5, 328–345 (2024).
Автор: Пинскер Борис Эмануилович
Врач-психотерапевт, Супервизор
Получить консультацию автора на сайте психологов b17.ru