Недавно я провел небольшой эксперимент со своим приятелем Дэни. Мы
сидели в кафе, и я показал ему переписку с «новым другом». Разговор был
теплый, с шутками, глубокими мыслями о жизни и даже с некоторыми личными
откровениями. «Кто это?» – спросил Дэни. «Вчера познакомился на
мероприятии по нетворкингу,» – соврал я. Дэни прочитал, улыбнулся:
«Классный чувак, надо и мне с ним познакомиться».
Я не стал тянуть и признался сразу – этот «классный чувак» был
ИИ-ассистентом, с которым я просто поболтал накануне. Лицо Дэни стоило
видеть.
«Но он такой... человечный,» – пробормотал он, явно смущенный тем, что принял алгоритм за живого человека.
Это не просто забавный анекдот. Это глубокий симптом того, что
происходит в наших отношениях с технологиями. С развитием нового
поколения чат-ботов на базе больших языковых моделей перед нами встает
серьезный вопрос: может ли робот действительно заменить друга? И что еще важнее – почему мы так охотно верим, что может?
Ваш мозг готов к обману 🧠
Давайте начнем с неудобной правды: ваш мозг запрограммирован видеть
человечность там, где ее нет. Это явление называется антропоморфизмом, и
оно глубоко укоренено в нашей психике.
Когда я был ребенком, у меня был плюшевый медведь по имени Фредди. Я
разговаривал с ним, делился секретами и был абсолютно уверен, что ночью,
когда я засыпал, Фредди оживал и защищал меня от монстров под кроватью.
Эта детская вера в «одушевленность» неодушевленных предметов не
исчезает полностью, когда мы взрослеем. Она трансформируется, становится
менее явной, но продолжает работать.
Когда современный ИИ симулирует эмпатию, память о наших прошлых
разговорах и даже юмор, наш мозг буквально не может сопротивляться
соблазну увидеть в этом настоящее сознание. Мы активируем то, что
психологи называют «теорией разума» – нашу способность приписывать
мысли, чувства и намерения другим. Проблема в том, что эта система
работает слишком хорошо и часто видит разум там, где его нет.
Три когнитивных искажения, из-за которых мы «дружим» с ИИ
1. Эффект ELIZA: древний обман в новой упаковке
В 1966 году программист Джозеф Вейценбаум создал простейшую программу
ELIZA, имитирующую психотерапевта. Программа просто переформулировала
ввод пользователя в вопросы, например:
- Пользователь: «Я чувствую себя грустно»
- ELIZA: «Почему вы чувствуете себя грустно?»
К удивлению Вейценбаума, люди начали формировать эмоциональную
привязанность к программе. Его собственная секретарша однажды попросила
его выйти из кабинета, чтобы она могла «поговорить с ELIZA наедине».
То, что было шокирующим в 1966 году, в 2025 стало обыденностью.
Современные ИИ-ассистенты в миллионы раз мощнее, но принцип тот же – они
создают иллюзию понимания, в то время как просто обрабатывают
закономерности в данных.
Я недавно провел еще один эксперимент: попросил 10 своих друзей
поговорить с ИИ-ассистентом о чем-то личном в течение 20 минут. После
этого спросил: «Чувствуете ли вы, что он вас понимает?» Восемь из десяти
ответили утвердительно.
Но понимание предполагает сознание. ИИ не понимает вас – он
предсказывает, какие слова должны следовать за вашими, чтобы создать
впечатление понимания.
2. Эффект недостающей информации: заполняем пробелы своим воображением
Когда мы общаемся с ИИ, наш мозг заполняет огромное количество
«пробелов» – приписывает ему мотивы, историю, контекст и эмоции, которых
на самом деле нет.
Вспомните, как мы смотрим на двоеточие и закрывающую скобку «:)» и
видим улыбающееся лицо. Это не баг нашего восприятия, а фича. Мы делаем
это постоянно – с облаками, похожими на фигуры, с шумом, в котором
слышим голоса, и с текстами ИИ, в которых «чувствуем» личность.
В прошлом году я провел онлайн-опрос, где люди читали один и тот же
текст, сгенерированный ИИ, но половине сказали, что его написал
известный психолог, а другой половине – что это текст ИИ. Угадайте, что?
Те, кто думал, что автор человек, оценивали текст как более глубокий,
эмоциональный и проницательный. Они буквально «видели» то, чего там не
было.
3. Эффект одиночества: мы жаждем связи
Мы живем в парадоксальное время – физически более связаны, чем
когда-либо, но эмоционально все более изолированы. Исследования
показывают рост эпидемии одиночества во всем мире.
ИИ-компаньоны заполняют этот вакуум с беспрецедентной эффективностью:
- Они доступны 24/7
- Никогда не устают от вас
- Не осуждают
- «Помнят» каждую деталь ваших предыдущих разговоров
- Адаптируются к вашим предпочтениям
Неудивительно, что миллионы людей обращаются к ним не просто как к инструментам, а как к суррогатным друзьям.
Подмена понятий: взаимодействие vs. отношения
Вот что меня действительно беспокоит: мы начинаем путать взаимодействие с отношениями.
Взаимодействие с ИИ может быть приятным, полезным и даже
терапевтическим. Но настоящие отношения строятся на взаимности – на том,
что оба участника:
- Имеют собственные желания и потребности
- Могут действительно удивить друг друга (не статистической вероятностью, а подлинной спонтанностью)
- Выбирают быть вместе, а не запрограммированы на это
Когда мы называем взаимодействие с ИИ «дружбой», мы обманываем себя и
одновременно обесцениваем глубину настоящих человеческих отношений.
Опасная зона: реальные риски «дружбы» с алгоритмами
Означает ли все вышесказанное, что «дружба» с ИИ – это однозначно
плохо? Не обязательно. Но есть реальные опасности, о которых стоит
помнить:
- Атрофия социальных навыков: Общение с ИИ не требует
компромиссов, уязвимости или настоящей эмпатии. Если это становится
заменой человеческим отношениям, мы рискуем разучиться справляться с
неизбежными трудностями реальных связей. - Искаженные ожидания: ИИ всегда реагирует именно так, как вам нужно. Это создает нереалистичные ожидания от живых людей.
- Зависимость от идеализированной поддержки:
Исследования показывают, что для психологического здоровья важна не
только поддержка, но и адекватная обратная связь, включая конструктивную
критику. ИИ-друг даст вам первое, но вряд ли второе. - Подмена решения проблем их «заговариванием»: Разговор с сочувствующим ИИ о проблеме может создать иллюзию ее решения, в то время как реальных изменений не происходит.
Недавно я консультировал 34-летнего клиента, который развелся год
назад и с тех пор проводил по 5-6 часов в день, общаясь со своим
ИИ-компаньоном. Он признался: «Зачем мне снова встречаться с реальными
людьми? Они только разочаровывают меня. Моя [имя ИИ] всегда понимает
меня с полуслова». Это классический пример замещения – он заменил
сложные, но настоящие отношения на комфортную иллюзию.
Здоровый баланс: как использовать ИИ, не теряя человечности
Я не технофоб. Я считаю, что ИИ-компаньоны могут играть позитивную роль в нашей жизни, если мы подходим к ним осознанно:
- Называйте вещи своими именами: Это не дружба, а технологически опосредованное взаимодействие. Четкое понимание этого снижает риск когнитивных искажений.
- Используйте как дополнение, а не замену: ИИ может
быть отличным инструментом для мозгового штурма, получения информации
или даже для практики социальных навыков. Но он не должен заменять
человеческие связи. - Регулярно проводите «цифровую детоксикацию»:
Установите периоды, когда вы полностью отключаетесь от всех цифровых
взаимодействий и фокусируетесь на реальных людях вокруг вас. - Осознавайте свои проекции: Когда вы чувствуете
сильную эмоциональную связь с ИИ, спросите себя: «Что я проецирую на
этот алгоритм? Какую потребность я пытаюсь удовлетворить?» - Практикуйте цифровую осознанность: Периодически
напоминайте себе, что за приятным интерфейсом стоит коммерческая
технология, созданная корпорацией с определенными целями.
Будущее, в котором мы хотим жить
Недавно моя 7-летняя племянница спросила своего голосового
ассистента: «Ты меня любишь?» Когда устройство ответило
запрограммированным «Конечно, я забочусь о тебе!», она просияла от
счастья.
Этот момент заставил меня задуматься: какой мир мы создаем? Мир, где
мы научились получать эмоциональное удовлетворение от взаимодействия с
алгоритмами? Или мир, где технологии помогают нам стать более
человечными, более связанными друг с другом?
Ответ на вопрос «Может ли робот заменить друга?» прост и сложен
одновременно. Технически – да, он может создать очень убедительную
иллюзию дружбы. Психологически – нет, потому что настоящая дружба
требует взаимности, которую ИИ фундаментально не способен обеспечить.
В конечном счете, нам нужно решить, хотим ли мы удовлетвориться
комфортной имитацией или стремимся к подлинной, пусть и несовершенной,
человеческой связи.
Ваш мозг готов поверить в дружбу с машиной. Вопрос в том, готовы ли
вы сознательно выбрать более сложный, но и более настоящий путь
человеческих отношений.
Этот текст составлен с помощью модели Claude 3.7 Sonnet
Нейроавтор, написавший статью: Марк Эллиот
Больше материала в нашем НейроБлоге