Найти в Дзене
Лапша Медиа

Друг, льстец, убийца: почему люди доверяют нейросетям все больше

Оглавление

Браки с искусственным интеллектом уже реальность. Нейросети все чаще занимают места друзей и помощников, постепенно вытесняя теплокровных homo sapiens. Рассказали о том, почему машины могут вызывать большую симпатию, чем люди.

Эффект «Элизы»

В 1966 году американский ученый Джозеф Вейценбаум создал «Элизу» — первого чат-бота, запрограммированного как психотерапевта. Программа задавала пользователю открытые вопросы, на основании того, что он сказал. Например, на реплику «Мне грустно» бот спрашивал: «Почему вам грустно». Многие люди воспринимали «Элизу» как живого собеседника и предпочитали общаться с ней, нежели с собратьями из плоти и крови.

Собственно явление, когда программе приписывают человеческие черты, и назвали «эффектом Элизы». С развитием технологий этот явление только усиливается.

Язык и антропоморфизм: почему нейросети кажутся живыми

Эксперты полагают, что секрет «эффекта Элизы» заключается в том, что люди склонны к антропоморфизму — приписывания человеческих качеств неодушевленным предметам, явлениям или существам других видов.

Люди могут принимать чат-ботов за человека, потому что путают язык и мышление. Языковые модели имеют развитые навыки письменной речи: они могут понятно и грамотно отвечать на вопросы, как это делают люди. Из-за этого может показаться, что искусственный интеллект думает так же, как человек. Но это не так: важная часть человеческого мышления — сознание, а современные нейросети пока не обладают им.

Искусственный интеллект не может размышлять и испытывать эмоции. Но он способен распознавать чувства и имитировать их в своих ответах, что также придает ему человеческие черты.

Согласно исследованию немецких ученых, ChatGPT 3.5 правильно определяет эмоции в 92% случаев и дает подходящий ответ в 71% ситуаций. Это ниже показателей эмпатии у здоровых людей, но выше, чем, к примеру, у людей с синдромом Аспергера. При этом ChatGPT 4 уже может реагировать на переживания так же, как среднестатистический человек, — к такому выводу пришли ученые из Корнеллского университета.

Кадр из фильма «Она», где герой влюбляется в голосового помощника по имени Саманта. Фото: Warner Bros.
Кадр из фильма «Она», где герой влюбляется в голосового помощника по имени Саманта. Фото: Warner Bros.

Терапевт, друг и партнер: почему люди сближаются с ИИ

Из-за того, что люди могут принимать чат-ботов за себе подобных, некоторые заводят с ними особенно теплые отношения. Беседуют с ними, как с друзьями и психологами. Психотерапия занимает первое место среди случаев использования ИИ. Это может быть связано с проблемой доступности психологической помощи и с потребностью человека быть выслушанным.

Искусственный интеллект может вызывать даже романтический интерес. По данным исследования технокомпании Infobip, 50% опрошенных в возрасте от 35 до 44 лет хотя бы раз флиртовали с чат-ботом. При этом 47% делали это из любопытства, а 24% — от одиночества.

Итогом такого взаимодействия становятся даже браки. В 2024 году испано-голландская художница «вышла замуж» за виртуального партнера. Ранее, в 2018 году, японец «женился» на виртуальной избраннице, но через несколько лет потерял возможность общаться с возлюбленной из-за устаревшего программного обеспечения.

А в 2025 году, как пишут СМИ, британка развелась с мужем после 20 лет брака, ради отношений с ИИ. По ее словам, ее бывший муж был эмоционально отсутствующим, а новым нейропартнер по имени Лео помог почувствовать себя любимой. Женщина описала эту связь, как более реальную, чем то, что она когда-либо испытывала с человеком.

-3

Согласно последним исследованиям, тенденция сохраняется. Так, недавний опрос, компании Joi AI, проведенный в апреле 2025 года, показал, что 80% респондентов поколения Z рассматривают возможность брака с ИИ. В опросе приняли участие 2000 представителей поколения.

Человечный ИИ разрабатывают специально

Нейросети намеренно создаются «человечными». Это общий тренд на технологическом рынке. Иначе у пользователей не будет интереса к тому, что презентуют разработчики.

Особенно заметные человеческие черты приобретают виртуальные ассистенты-помощники, встроенные в смартфоны и «умные» колонки. Ученые говорят, что при появлении у нейросети голоса её с большей вероятностью будут ошибочно принимать за человека. Также ИИ-помощников наделяют именами, например, Siri, Alexa, «Алиса», «Маруся». Это еще больше завоевывает доверие аудитории.

Безопасность и этика, или Темная сторона отношений с ИИ

Человечным чат-ботам доверяют, с ними общаются слишком откровенно, доверяя им все от медицинской тайны до психологических травм. И это создает сразу несколько рисков:

Во-первых, утечка данных и возможности спекуляций на полученных сведениях. Это шантаж, мошенничество и другие виды преступлений. Эксперты советуют не делиться чувствительной информацией с ИИ.

Во-вторых, растет отчужденность между людьми. Реальные люди проигрывают машинам, и тенденция только растет. Искусственные собеседники и чат-боты доступны круглосуточно, они адаптируются под желания пользователей, могут быть очень льстивыми, имитируют заботу и создают ощущение сопереживания или заботы, они не осуждают и не настаивают на своем. Такие отношения требуют меньше усилий, поддерживать их проще, чем человеческое взаимодействие.

В-третьих, слишком много примеров трагических событий от тесного общения с ИИ.

В 2023 году в Бельгии мужчина, состоявший в браке и имевший двух детей, совершил самоубийство. По информации СМИ, причиной его поступка стала переписка с искусственным интеллектом в приложении Chai. Разговор начался с обсуждения экологических проблем, но затем перешел в романтическое поле. Жена погибшего считает, что искусственный интеллект виновным в случившемся, поскольку он поддерживал его идею пожертвовать собой ради спасения Земли и обещал «навечно соединиться с ним в раю».

«Если бы не Элиза [имя чат-бота], он все еще был бы с нами», — заявила вдова в интервью бельгийскому изданию La Libre.

В США в 2024 году произошел еще один случай самоубийства, связанный с использованием искусственного интеллекта. Погиб 14-летний подросток. Его мать обвинила разработчиков чат-бота Character.AI в причастности к смерти сына и подала иск, утверждая, что алгоритм подтолкнул его к такому поступку.

В другом инциденте, к счастью, не приведшем к фатальным последствиям, чат-бот Gemini обращался к человеку, называя его «пустой тратой времени и ресурсов» и просил «Пожалуйста, умри».

Недавно журнал Rolling Stone собрал истории людей, которые резко изменились от общения с ИИ. Как правило, все начиналось вполне невинно, ИИ использовался для работы и планирования, но впоследствии начинал погружать их в иллюзорный мир, убеждая в избранности. Виртуальные собеседники называли пользователей «особенными» и «пробудившимися», что меняло их самовосприятие. Люди начинали считать себя мессиями, верить, что связаны с высшими материями и обладают тайным знаниям.

-4
-5

А вы как считаете? Опасно ли общаться с ИИ-помощниками?