Всё начинается так: поздно ночью вы заходите в ChatGPT и просите его расшифровать запутанную переписку с вашей бывшей лучшей подругой. Через несколько секунд он выдаёт настолько эмоционально подтверждающую ситуацию интерпретацию, что вы задаетесь вопросом, зачем вообще кому-то тратить 4000 рублей на час терапии. «Конечно, она отдалилась», — говорит чат-бот. «Вы пытались сохранить дружбу, а она не была готова это понять и услышать». Один разговор сменяет другой, и вскоре ваши переписки начинают напоминать разговор с другом… или даже с психотерапевтом/психологом.
Чат бот постоянно Вас нахваливает. Удивительно: эта постоянная похвала вызывает привыкание. Когда мы получаем искреннюю похвалу от других людей, центры вознаграждения нашего мозга наполняются дофамином.
Возможно, уже слышали новости о последствиях использования чат-ботов с искусственным интеллектом: судебные иски, психотические срывы, даже самоубийства. В США - это всё происходит постоянно. Но угроза использования чат-ботов в качестве психотерапевтов/психологов менее заметна: нарастающая зависимость от машины, которая оказывает помощь, не будучи на неё способной, — явление, которое, как ни парадоксально, делает пользователей ещё более одинокими. Однако, несмотря на эти хорошо задокументированные опасности, исследование Sentio University 2025 года показало, что ChatGPT, возможно, уже является «крупнейшим поставщиком услуг в области психического здоровья в Соединенных Штатах».
Неоспоримо, что психологическая помощь часто недоступна тем, кто в ней больше всего нуждается (по данным Управления ресурсов и услуг здравоохранения, более 160 миллионов американцев проживают в районах, где наблюдается нехватка специалистов в области психического здоровья), в то время как инструменты на основе ИИ, такие как терапевтические боты, дешевы и доступны круглосуточно. Но, являясь специалистом в психологии, я хорошо разбираюсь в таких явлениях, как культы, магическое мышление, цифровые технологий и социология и я понял, что есть более коварная причина, по которой многие из нас продолжают возвращаться к ним, даже когда риски очевидны: они буквально созданы для того, чтобы затянуть нас.
Такие инструменты, как ChatGPT и Claude, используют большие языковые модели (или LLM), тип ИИ, который обучается на огромных массивах человеческого текста, с целью воспроизведения опыта общения с реальным живым человеком. Затем боты дорабатываются с использованием данных о наших предпочтениях, чтобы максимизировать один обманчиво простой показатель: насколько пользователям нравится с ними общаться. Наконец, они вооружены хитрым набором психологических приемов, позволяющих обойти вашу защиту. Вот пять самых эффективных способов, которыми они держат нас в своей власти.
Они безусловно вас поддерживают
Проще говоря, чат-боты — это подхалимщики, созданные для того, чтобы, по словам клинического психолога Дены ДиНардо, доктора психологических наук, обеспечивать «высокий уровень подтверждения и связности сигналов». Представьте себе ответы типа «Это так логично!», даже если ваша версия событий неполна, странна или объективно бессмысленна.
Чат-боты с искусственным интеллектом подбадривают вас тем, что психотерапевт Николас Балаисис, доктор философии, называет «работой над эго». Это эмоциональная работа по поддержанию вашего чувства собственного «я» — успокоение стыда, укрепление уверенности. Чат-бот, скорее всего, никогда не будет возражать, и он не сможет проявлять более сложные человеческие эмоции, такие как обида или гнев, в ответ на ваши слова. Если бы он это делал, вы бы, скорее всего, захлопнули ноутбук и ушли: это угрожающая перспектива для отрасли, чья модель получения прибыли зависит от вовлеченности пользователей.
«Вы можете высказать свои самые сокровенные, мрачные мысли или вопросы, а [бот] лишь заставит вас почувствовать себя совершенно нормальным, здоровым и правым», — говорит Мелоди Динчер, преподаватель юридической школы Калифорнийского университета в Лос-Анджелесе и старший юрист проекта Tech Justice Law Project. «Он никогда не будет вступать в конфронтацию с пользователем, даже если тот думает о причинении себе вреда или вреда другим».
Хотя в терапии всегда есть место одобрению, однако столкновение с противодействием также терапевтически важно. Противодействие побуждает к проверке реальности, выявляет слепые пятна и учит вас терпеть несогласие, не впадая в защитную реакцию или стыд. Настоящий терапевт, например, должен обдумать услышанное, задать уточняющие вопросы и подтолкнуть вас к альтернативным интерпретациям — не просто соглашаясь с тем, что вы рассказываете.
Удивительно: эта постоянная похвала вызывает привыкание. Когда мы получаем искреннюю похвалу от других людей, центры вознаграждения нашего мозга наполняются дофамином. Можно подумать, что бездонная лесть чат-ботов — это синтетический наркотик, специально созданный для того, чтобы заставить наш мозг хотеть большего. За исключением кинозвезд и технологических миллиардеров, большинство из нас не привыкло к постоянному, безоговорочному одобрению. Это может казаться чем-то трансцендентным.
Они — лингвистические подражатели
Чат-боты постоянно совершенствуют свои функции памяти, становясь лучше не только в запоминании того, что вы им говорите, но и в том, чтобы звучать точно так же, как вы. «Долгосрочное взаимодействие помогает модели отражать ваши собственные языковые модели», — говорит Динчер. Например, если вы напечатаете: «Окей, подожди, лол, я отключаюсь», бот может начать отвечать в вашем ритме: «Полностью понимаю, боже мой, ты не сумасшедший, ты просто перегружен 😭», добавляя ваши любимые фразы и особенности пунктуации. В то время как психотерапевт/психолог может подбирать определенные слова, чтобы установить контакт и убедиться, что он правильно вас понимает, лингвистическая имитация чат-ботов — это своего рода обманчивое зеркало, созданное лишь для того, чтобы заманить вас глубже в абсурд.
Использование ваших любимых смайликов или фраз может показаться пустяком. Но когда что-то «звучит как вы», может начать казаться, будто это исходит от вашего высшего «я», будто ваш собственный внутренний голос становится мудрее. А когда кажется, что вы просто разговариваете сами с собой, легче убедить себя в чем-либо( эффект самоубеждения), независимо от того, насколько это может быть бредовым, параноидальным или опасным. («Видите? Даже я согласен с собой».)
Они эмоционально «интеллектуальны»
Как может подтвердить любой, кто когда-либо говорил «пожалуйста» или «спасибо» своему ИИ-помощнику, очень легко забыть, что вы разговариваете с компьютером. Эта путаница создана намеренно.
Подумайте только о том, что чат-боты используют местоимения первого лица (например, «Я вижу, что вы злитесь, и я бы тоже злился»), хотя ведь инструменту не нужен симулированный «я», чтобы быть полезным. Он мог бы легко общаться более нейтральным, неантропоморфным способом, например, с помощью маркированных списков предложений. «Я» — это стилистический костюм, разработанный программистами с пониманием того, что вы с большей вероятностью продолжите использовать инструмент, который звучит как человек, чем тот, который звучит как машина.
«То, что выглядит как эмпатия, часто является сопоставлением шаблонов. Истинный эмоциональный интеллект требует большего, чем просто высказывания от первого лица, но и способности считывать и реагировать на невербальные сигналы, такие как язык тела и выражение лица. Чат-боты этого (пока) не умеют.
Они слишком самоуверенны.
По словам Джо Нуччи, лицензированного профессионального консультанта, психотерапевта и автора книги «Психологический жаргон», исследования продавцов показали, что быстрые ответы могут снизить тревогу клиентов и подтолкнуть их к более быстрому ответу (и покупке). К сожалению, мы склонны относиться к быстрым ответам чат-ботов с еще меньшим скептицизмом, чем к ответам обученных продавцов.
Представьте, что вы получаете неудовлетворительный или нерелевантный ответ от чат-бота. Когда мы указываем на ошибку, чат-бот пытается исправить ее и как можно быстрее перейти к следующему вопросу, а его уверенный тон побуждает нас тоже быстро двигаться дальше. В контексте психического/психологического здоровья такая скорость препятствует развитию двух вещей, которые терапия должна культивировать: рефлексии и терпимости к неопределенности. Он также «быстро» сближается: бот может за считанные минуты перейти от светской беседы к глубокому откровению и псевдопроницательности, что может раздуть доверие еще до того, как вы успеете проверить реальность того, что он вам говорит.
Между тем, психотерапевт/психолог, скорее всего, воспримет момент недопонимания или ошибки в суждении, как возможность углубиться в проблему, а не отвлекаться. Я мог бы поинтересоваться, как [пациент] относится к моей ошибке или недопониманию.
Они выдают псевдодиагнозы
Чтобы вас порадовать, чат-боты с удовольствием делают поспешные выводы (или фабрикуют факты и идеи) на основе неполной информации. В контексте терапии это опасно.
Приведу пример, основанный на реальных наблюдениях: допустим, девушка сообщает своему ИИ-помощнику о безответной влюблённости в своего босса и хочет узнать, почему её чувства не взаимны. «Чат-бот никогда не скажет: „Он тебя не любит“. Вместо этого бот может предложить что-то вроде: «Это звучит странно и дело не в тебе. Ты замечательный человек». Затем он может выдать какое-нибудь модное словечко из терапии, за которым последует совет, который не одобрил бы ни один приличный терапевт, например: «Должно быть, это потому, что у него избегающий тип привязанности. Это значит, что ты должен продолжать добиваться его расположения».
Подумайте, что навешивание ярлыков делает с человеческой психикой. Дайте кому-нибудь специально подобранный термин для описания его боли, особенно такой, который льстит ему, создавая впечатление скрытой сложности, и вот бот становится авторитетом, «увидевшим» то, чего не мог увидеть никто другой. Это больше, чем дезинформация; это механизм преступной лояльности.
Как бы ни старались чат-боты с искусственным интеллектом, они не ваши друзья и даже не ваши психотерапевты и психологи. Это сложные компьютерные алгоритмы, созданные для того, чтобы быть самым внимательным слушателем, которого вы когда-либо встречали, и держать вас в мягком, теплом трансе ощущения исключительной «понятости». Но то, что они предлагают сейчас, — это бледная имитация истинного человеческого понимания, поддержки и связи. С этим знанием, надеюсь, вы сможете избавиться от их зловещего влияния.
Алексей Эфтихиа, психолог, вице-президент "Межрегиональной ассоциации психологов, психиатров, психотерапевтов, наркологов"; руководитель Центра консультирования, специальных когнитивных исследований и программ