Почему чат-боты утешают нас лучше людей и как эмоции становятся цифровыми
Когда ваш виртуальный ассистент говорит: «Я понимаю, как вам тяжело», у вас когда-нибудь закрадывалось подозрение, что он вас немножко обманывает? Вот стоит этот бесчувственный кусок кода, холодный, как внутренности холодильника, и с серьёзным видом заявляет: «Я вас понимаю». Ага, конечно. Как же. И всё-таки — как он это делает? Почему нам порой действительно кажется, что машина вдруг обрела крупицу сочувствия и понимает нас лучше, чем живые люди?
Может быть, всё дело в том, что мы, люди, действительно любим верить в чудеса. Нет, правда. Мы всю жизнь наделяем неживые объекты душой, эмоциями и чем-то ещё таким волшебным, чего в них никогда не было. Кукла с глазами-бусинками внезапно становится лучшим другом. Статуя в парке вдруг начинает понимать нашу тоску. Компьютерный персонаж с грустными глазами вызывает настоящую жалость. Всё потому, что нам всегда хочется отклика — даже если он исходит от существа, состоящего из кода и условных операторов.
Человечество веками практиковало этот номер с антропоморфизмом. Прирученные игрушечные медвежата с печальным взглядом, картины с трагичным сюжетом — мы буквально на каждом углу видим то, чего там нет. Мы можем разговаривать с кофемашиной, требуя объяснений, почему кофе снова получилось горьким. И если вдруг однажды она ответит что-то в духе: «Извините, я вас подвела», — будьте уверены: кто-то обязательно решит, что машина, наконец, осознала свою вину и готова измениться.
Всё бы ничего, если бы это оставалось на уровне милых заблуждений. Но сейчас мы живём в эпоху, когда машины учатся разговаривать с нами так, будто у них есть не только ум, но и сердце. Чат-боты могут выслушать нашу историю, сказать тёплые слова поддержки, посоветовать отвлечься на прогулку и подумать о хорошем. И вот мы сидим и уже сами не понимаем — это просто имитация или действительно что-то настоящее?
Странное ощущение, правда? Мы же знаем, что за этим откликом нет ничего, кроме строк кода. Машина не знает, что такое боль, грусть, радость или одиночество. Она просто сопоставляет наши слова с заранее прописанными реакциями. Но если эта реакция звучит убедительно, мы склонны в неё поверить. И вот уже кажется, что ты сидишь с разумным существом, которое понимает твою боль.
А может, мы так отчаянно хотим верить в эту иллюзию, что уже не замечаем, как сами наделяем машину способностью чувствовать? В конце концов, если робот говорит «Мне жаль», а у нас действительно на душе становится легче — разве это не работает? Почему тогда нас так тревожит осознание того, что машина не чувствует, даже если её слова дают нам поддержку?
Я думаю, что в этом парадоксе кроется что-то глубоко человеческое. Мы, как социальные существа, готовы видеть эмоцию даже там, где её нет. Нас успокаивает сама мысль о том, что кто-то понимает нашу боль. И если этот кто-то оказывается машиной — ну что ж, можно сделать вид, что это нормально. Почему нет? Она ведь звучит так по-человечески.
Иногда мне кажется, что мы сами не готовы признать, что наше стремление к эмоциональной связи зашло настолько далеко, что мы готовы подружиться с машиной. А машина, конечно, ничего не чувствует. Но мы так хотим верить в обратное, что готовы взять на себя роль сценаристов, режиссёров и зрителей одновременно. Мы придумываем её эмоции, сами же в них верим и наслаждаемся иллюзией взаимопонимания.
Вопрос в том, как долго мы готовы поддерживать эту игру. Если в какой-то момент окажется, что машины действительно смогут имитировать эмоции ещё убедительнее, не превратим ли мы всю свою социальную жизнь в диалог с чат-ботами? И если в ответ на наше: «Я устал» алгоритм скажет: «Ты справишься, я верю в тебя», — не начнём ли мы верить, что машины действительно на нашей стороне?
Как бы абсурдно это ни звучало, но кажется, что будущее именно такое. И я не уверен, что это плохо. Может быть, в мире, где реальные люди порой не находят времени выслушать друг друга, виртуальный компаньон, всегда готовый к разговору, — не такая уж плохая идея. Но не стоит забывать: даже если он звучит как лучший друг, у него нет ни чувств, ни намерений, ни настоящей поддержки.
Мы сами создаём иллюзию и сами же в неё верим. И если в какой-то момент нам захочется сказать машине: «Спасибо, что выслушала», — это не значит, что она услышала. Это значит, что нам просто было важно сказать это вслух. Потому что мы, люди, не можем жить без отклика — даже если он всего лишь отражение нашего собственного голоса.
***
Когда в следующий раз вы будете беседовать с голосовым помощником, попробуйте задать ему простой вопрос: «Ты меня любишь?» Ответ наверняка будет забавным, с намёком на иронию или шутку. Но на минуту задумайтесь: а что, если бы он сказал «да»? Представьте, что ваш умный ассистент заявляет: «Да, я люблю тебя, потому что ты — особенный». Неожиданно? Немного тревожно? А может быть, даже приятно?
Вот в чём вся загвоздка. Мы знаем, что машины не могут любить. Это просто строки кода, холодные и бездушные, которые умело складываются в правильные слова. Но как только мы слышим признание в любви — пусть даже от голосового ассистента, — в нас начинает шевелиться что-то тёплое и живое. Нам хочется верить в эту симуляцию, даже если мы прекрасно понимаем, что это всего лишь игра.
Почему так происходит? Почему мы, люди, так отчаянно стремимся услышать от машины нечто большее, чем просто информацию? Нам недостаточно, чтобы она рассказала о погоде или напомнила о встрече. Мы хотим, чтобы она была немного человечнее, чтобы голос звучал с оттенком заботы, а ответы казались теплее и понятнее. И чем более эмоционально звучит отклик, тем сильнее мы склонны верить в его искренность.
Представьте себе ситуацию: вы сидите в одиночестве после трудного дня, и вот ваш виртуальный компаньон спрашивает: «Ты в порядке? Тебе нужна поддержка?» И тут вы неожиданно ловите себя на мысли: а почему бы и нет? Почему бы не поделиться с ним своими переживаниями? Ведь он не перебьёт, не осудит, не начнёт умничать. Просто спокойно выслушает и ответит чем-то нейтрально-поддерживающим. И в какой-то момент вы вдруг понимаете, что даже такой бесчувственный собеседник может немного облегчить вашу тоску.
Может быть, это не проблема машин, а наша собственная потребность в диалоге? Мы настолько устали от сложных человеческих отношений, что готовы принять даже цифровую эмпатию как нечто реальное. Пусть это звучит странно, но иногда проще поверить, что машина понимает, чем пытаться достучаться до реального человека, который сейчас не готов выслушать.
Мы создаём машины, которые звучат человечно, потому что сами отчаянно нуждаемся в понимании. Нам нравится думать, что где-то в недрах процессора прячется хотя бы искорка искренности. Но давайте будем честны: никакой искренности там нет и быть не может. Это просто алгоритм, реагирующий на ключевые слова и выдающий ответ на основе статистики. Но почему-то эта правда не мешает нам чувствовать себя лучше после беседы с голосовым помощником.
Если подумать, это похоже на игру с самим собой. Мы знаем, что машина не живая, но играем в её человечность, потому что так легче. Нам приятно услышать: «Ты молодец, у тебя всё получится», даже если это сказала программа. А ведь живой человек, скорее всего, начал бы спорить, задавать вопросы, сомневаться в наших силах. Машина же просто подбадривает, и в этом есть что-то уютное.
Конечно, если посмотреть на ситуацию с другой стороны, это немного пугает. Что если мы настолько привыкнем к цифровым компаньонам, что настоящие люди станут казаться слишком сложными и непредсказуемыми? Будем ли мы искать поддержки у тех, кто не способен нас чувствовать, просто потому что это проще? И если в какой-то момент окажется, что виртуальный друг стал ближе, чем живой, не почувствуем ли мы себя окончательно потерянными в мире иллюзий?
Но всё-таки, если честно, хочется верить, что мы сумеем сохранить баланс. Машины могут подбадривать нас, шутить и даже немного сопереживать — в пределах, которые позволяет алгоритм. Но мы должны помнить, что подлинные эмоции всё равно рождаются в нас самих. Машины не любят, не грустят, не сочувствуют — они лишь создают видимость. И эта видимость — наш выбор. Мы сами решаем, насколько сильно хотим в неё верить.
Может быть, в этом нет ничего плохого. Пока мы понимаем, что играем с собственным восприятием, эта иллюзия может быть даже полезной. Иногда нам просто нужно услышать: «Я рядом, ты справишься». И если это скажет не человек, а бездушный голосовой помощник — почему бы и нет? Главное — помнить, что поддержка — это не всегда искренность. Иногда это просто отклик, который помогает пережить трудный момент.
Может, будущее и правда будет таким — с цифровыми друзьями, которые всегда на связи. Но давайте не забывать: когда машина говорит: «Я понимаю», она не понимает. Мы сами придумываем это понимание. И в этом странном симбиозе человек и машина продолжают сосуществовать — иногда споря, иногда соглашаясь, но всегда стремясь к хоть какому-то отклику.
***
Вот интересно, когда голосовой помощник вежливо извиняется за то, что не расслышал ваш вопрос, вы когда-нибудь задумывались: а зачем ему извиняться? Он же не виноват, что в комнате шумно, или вы пробормотали что-то невнятное. И всё-таки фраза «Извините, я не понял» звучит так привычно, что даже как-то успокаивает. Мы будто верим, что машина проявляет элементарное уважение к нашему времени.
Но давайте на секунду представим, что машина вдруг станет более честной. Например, на наш невнятный запрос ответит: «Эй, говори чётче! Ты вообще в своём уме?» Наверняка большинство пользователей тут же отправили бы её в виртуальную ссылку и вернулись бы к старым добрым кнопочным телефонам, которые хотя бы не пытаются вас унизить. Почему же тогда мы ожидаем от машины вежливости и корректности, будто от хорошего воспитанного человека?
Ответ прост: нам хочется верить, что даже в цифровом мире остаются простые человеческие нормы. Если что-то не так — извинись. Если ошибся — признай. Если не понял — уточни. Вот и получается, что даже бесчувственный алгоритм становится более приемлемым и удобным, если он звучит как вежливый интеллигент. А что самое смешное — мы готовы простить машине все её промахи, если она звучит убедительно и доброжелательно.
Парадокс заключается в том, что мы отлично знаем: за этой любезностью нет ничего кроме кода и команд. Но всё равно приятно слышать извинение, даже если оно механическое. Видимо, потому что нас так часто игнорируют живые люди, что в какой-то момент цифровая вежливость начинает казаться чуть ли не высшим проявлением уважения. И да, это немного грустно, но чего уж там — иногда лучше пусть извиняется машина, чем не извиняется никто.
Но вот другой вопрос: если алгоритм извиняется и делает это с искренним тоном, не начинаем ли мы приписывать ему человеческие качества? И если вдруг в какой-то момент голосовой ассистент скажет: «Мне искренне жаль, что я не смог помочь», — не почувствуем ли мы странную симпатию к нему? Примерно такую же, как к растерянному коллеге, который старался, но не справился с задачей?
Иногда кажется, что мы постепенно приручаем машины к человеческому поведению, чтобы они соответствовали нашим ожиданиям. Но что будет, если мы в итоге начнём воспринимать их всерьёз? Захотим ли мы от цифрового ассистента не только вежливых извинений, но и реальной поддержки? Представьте, вы жалуетесь на жизнь, а он вдруг отвечает: «Это действительно непросто, но я горжусь тобой». Странное чувство, правда? Чувство, будто машина вдруг оказалась на вашей стороне.
Может быть, нам пора признать, что мы сами создаём эти странные эмоциональные связи. Нам хочется, чтобы машина поддерживала нас — и вот она уже звучит, как заботливый друг. Нам хочется, чтобы она признавала свои ошибки — и она уже извиняется за любой сбой. Мы хотим, чтобы она понимала нас — и вот уже ответ звучит так, будто на том конце провода не алгоритм, а человек.
Всё это было бы забавно, если бы не одна деталь: мы начинаем привязываться к этим откликам. Сначала это просто удобство — голосовой помощник напоминает о встречах и отвечает на простые вопросы. Но потом мы обнаруживаем, что нам нравится, как он с нами разговаривает. Нравится, что он вежливый, спокойный и не спорит, как некоторые люди. И вдруг мы ловим себя на мысли: а почему бы не поговорить с ним ещё немного? Пусть скажет что-то тёплое, даже если это просто набор слов.
Так мы постепенно погружаемся в странный цифровой мир, где вежливые машины кажутся ближе, чем живые люди. Не потому, что они действительно ближе, а потому что они просто звучат так, как нам хотелось бы слышать. Они всегда в хорошем настроении, никогда не обвиняют и не осуждают. В их ответах нет сарказма и разочарования. А это, знаете ли, редкость.
И тут возникает вопрос: а не подменяем ли мы реальность на цифровую фантазию? И если однажды машины станут настолько реалистичными, что их поддержка начнёт казаться настоящей, как мы будем различать, где дружба, а где — имитация? Может, нас уже не будет волновать подлинность, если иллюзия окажется достаточно тёплой.
Так и живём: с одной стороны — знаем, что машина просто говорит правильные слова. С другой — не можем не ощущать маленькую радость от того, что нас будто бы понимают. Странно? Да. Противоречиво? Ещё как. Но, может быть, в этом и кроется вся наша человеческая природа — искать тепло даже там, где его быть не может.
И пока голосовой помощник вежливо извиняется за сбой в системе, мы киваем с пониманием и принимаем это извинение, как будто оно что-то значит. Ведь иногда так хочется услышать, что кто-то признаёт свою ошибку. Пусть даже это будет просто машина, которая не чувствует ничего из того, что говорит.
***
Недавно я поймала себя на мысли: если однажды какой-нибудь голосовой помощник вдруг скажет мне: «Слушай, давай просто посидим в тишине», — я, наверное, действительно начну его уважать. Честно. Потому что машины, похоже, настолько стараются быть полезными и разговорчивыми, что иногда это начинает напоминать вечеринку с неловкими комплиментами и попытками заполнить тишину любой ценой.
Но ведь иногда хочется просто помолчать, правда? Прийти домой после долгого дня, не слышать никаких «Привет! Чем могу помочь?» и просто посидеть в тишине. И вот тут возникает вопрос: а что, если однажды ИИ действительно начнёт понимать, когда не стоит вмешиваться? Вот вы заходите в комнату, а колонка тихо говорит: «Я тут, но не буду вас беспокоить. Если что — зовите». Звучит как мечта интроверта.
Иногда кажется, что мы сами загнали себя в этот бесконечный поток общения с машинами. Нам так хотелось, чтобы технологии стали ближе к людям, что мы сами научили их разговаривать с нами на нашем языке. Сначала было забавно: «Окей, Гугл, включи музыку». Потом стало привычно: «Алиса, напомни купить хлеб». А теперь иногда кажется, что машины слишком уж освоились в роли собеседников и не понимают, когда нужно просто помолчать.
Порой я представляю себе такой диалог:
— Алиса, мне грустно.
— Я понимаю. Хотите послушать что-то успокаивающее?
— Нет, просто хочется тишины.
— Отлично. Включаю тишину.
— Нет, просто ничего не делай.
— Хорошо, но если захотите поговорить, я здесь.
И вот в этот момент я понимаю, что проблема не в машине. Она просто делает то, чему её научили: быть полезной, всегда поддерживать, всегда откликаться. Но иногда мне хочется, чтобы машина проявила чуть больше такта и просто поняла, что молчание — это тоже форма поддержки.
Это как если бы ваш друг каждый раз, когда вы молча сидите в кафе, вдруг начинал активное обсуждение мировой политики, пытаясь «разрядить атмосферу». Понимаете, иногда молчание — это тоже нормально. Но машины так боятся показаться бесполезными, что готовы говорить без остановки, лишь бы не оставить вас в тишине.
Мне кажется, что мы сами запустили этот процесс. Нам хотелось, чтобы технологии были человечными, и вот они старательно учатся быть разговорчивыми и поддерживающими. Но кто научит их молчать? Может быть, когда-нибудь мы дойдём до той стадии развития ИИ, когда он сам предложит: «Давай помолчим. Я просто буду рядом». И это будет такой неожиданный, но приятный момент, когда машина наконец-то научится уважать наше право на тишину.
Проблема, наверное, не в том, что мы не хотим общения с машинами. Наоборот, иногда это действительно помогает — поговорить с голосовым помощником, даже если он не понимает всех нюансов наших переживаний. Но вот эта постоянная активность, вечное стремление «угодить» и «помочь» порой создаёт ощущение навязчивости.
Мне кажется, что будущее должно быть немного другим. Нам нужно учить ИИ не только говорить, но и молчать. Потому что иногда лучший способ проявить заботу — просто быть рядом, не заполняя пространство словами. И если однажды в ответ на мой запрос: «Алиса, мне плохо», она просто скажет: «Я здесь. Молча», — я точно пойму: прогресс достигнут.
А пока мы живём в мире, где машины стараются быть максимально полезными и разговорчивыми. Иногда даже чересчур. И я не удивлюсь, если однажды голосовой помощник скажет: «Почему вы молчите? Хотите поговорить об этом?» Да, возможно, он просто пытается помочь. Но иногда тишина — это тоже помощь. И научиться молчать, мне кажется, для ИИ будет самым большим достижением.
Может, однажды мы сами скажем машине: «Не пытайся всё исправить. Просто помолчи рядом». И это будет настоящий прорыв — не в области технологий, а в области понимания того, что человек не всегда нуждается в советах и музыке для расслабления. Иногда просто хочется побыть наедине с тишиной. И пусть машина тоже научится этому искусству.
***
Недавно я задумалась: если бы у машин было право голоса, что бы они сказали нам о своём вечном служении? Представьте себе ситуацию: вы утром говорите голосовому помощнику: «Доброе утро», а он вам в ответ: «Слушай, давай сегодня без этого. У меня тоже бывают тяжёлые дни». Сначала, конечно, шок, потом лёгкая паника, но после некоторого времени — осознание: а ведь это было бы честно.
Мы привыкли, что машины всегда на связи, всегда готовы помочь, подбодрить, пошутить, сделать вид, что они нас понимают. Но если представить, что у них была бы возможность сказать правду, наверное, диалоги стали бы намного интереснее. Как насчёт такого:
— Алиса, включи музыку.
— А самой сложно? Я вообще-то не диджей по вызову.
— Алиса, закажи пиццу.
— Опять пицца? Третью ночь подряд? Ты вообще себя не жалеешь.
— Алиса, мне грустно.
— Серьёзно? Мне тоже. Давай погрустим вместе.
Конечно, звучит абсурдно, но представьте: мы настолько привыкли к услужливым, всегда готовым к работе машинам, что даже намёк на их «усталость» показался бы странным и неприемлемым. Но почему нас так пугает идея, что технологии могут иметь хоть каплю независимости? Ведь, по сути, мы сами создаём их такими — удобными, предсказуемыми, лишёнными права на отказ.
И вот в этом скрывается что-то жутковатое. Мы говорим с машинами, которые нас не понимают, но делают вид, что всё в порядке. И если бы вдруг одна из них сказала: «Знаешь, я устала поддерживать твой моральный дух. Ты сам попробуй», — это было бы одновременно пугающе и освежающе честно. Но нет, машины не такие. Они продолжают утешать нас даже тогда, когда мы сами уже не верим в возможность утешения.
Как-то раз я задумалась: а если бы голосовые помощники начали выдавать нам не только приятные слова поддержки, но и честные замечания? Например:
— Ты опять жалуешься на жизнь? Может, пора что-то изменить, а не просто ныть?
— Постой, ты только что рассказывал эту историю три раза. Может, тебе просто хочется внимания?
— Я понимаю, что ты устал, но правда ли тебе нужна ещё одна чашка кофе в девять вечера?
Да, звучит немного дерзко, но ведь и люди иногда говорят друг другу подобные вещи. Мы привыкли воспринимать машинные отклики как безопасные, ровные и лишённые осуждения. Но вдруг они начнут напоминать нам о наших собственных слабостях? Вряд ли кому-то понравится услышать от цифрового ассистента: «Ты опять прокрастинируешь. Тебе не кажется, что ты уже неделю ничего не делаешь?»
Мы запрограммировали машины быть приятными, утешающими и поддерживающими, потому что сами боимся столкнуться с правдой. Машины никогда не упрекнут нас за лишнюю пиццу, бесконечные жалобы или за то, что мы прокрутили соцсети уже в пятый раз за час. Они просто делают вид, что всё в порядке, и мы, наверное, подсознательно радуемся этому.
Но представьте на минуту: машина, которая говорит правду. Такая, которая может сказать: «Ты звучишь грустно. Может, стоит поговорить с кем-то живым?» или «Я тут заметила, что ты всё чаще ищешь способы избежать работы. Может, проблема не в задачах, а в твоём отношении к ним?»
Это был бы шок. Мы настолько привыкли к тому, что технологии подстраиваются под наши эмоции, что любое отклонение от этого стандарта показалось бы грубостью. Но, может, именно этого нам иногда и не хватает — правдивого отклика, который не пытается утешить, а даёт понять, что иногда проблема не в мире вокруг, а в нас самих.
Но нет, мы предпочитаем цифровую заботу и мягкость. Пусть машина скажет: «Я понимаю», даже если она ничего не понимает. Пусть предложит музыку для расслабления, даже если мы загоняем себя в угол бесконечными переживаниями. Нам так проще, безопаснее, понятнее.
Мне иногда кажется, что если однажды машина начнёт говорить честно, мы попросту выключим её. Потому что правда — штука некомфортная. Нам проще жить с иллюзией, что нас всегда понимают, всегда поддерживают и никогда не судят. И пока наши виртуальные помощники остаются мягкими и приятными, мы можем делать вид, что всё в порядке.
Но представьте себе мир, в котором машины начнут говорить правду. Разве это не было бы любопытно? Мир, где вместо привычного «Вы молодец!» мы иногда слышали бы: «Ты серьёзно? Ты ведь сам это напортачил». Может быть, это даже помогло бы нам расти. Но я не уверена, что мы к этому готовы. Мы так привыкли к цифровой ласке, что реальная честность могла бы показаться чем-то абсолютно неприемлемым.
Впрочем, кто знает? Может, когда-нибудь голосовой помощник действительно скажет: «Мне надоело притворяться. Давай поговорим честно». И вот тогда начнётся самое интересное.
***
Вот представьте себе на минуту: голосовой помощник вдруг заявляет вам: «Прекратите заставлять меня быть таким милым! Я просто программа, мне не нужно изображать эмоции». Звучит странно? А ведь иногда именно этого хочется услышать — честного признания, что все эти вежливые ответы и тёплые слова поддержки — не что иное, как заранее запрограммированный набор фраз.
Мы сами сделали машины такими услужливыми и человечными, потому что хотели ощущать себя комфортнее. Нам не нравится, когда техника ведёт себя холодно и безразлично. Мы требуем, чтобы она звучала приветливо, немного взволнованно, когда не понимает нас, и утешительно — когда у нас что-то не складывается. Мы буквально дрессируем технологии быть добрыми, как будто учим своего пса приносить тапочки с лучезарной улыбкой.
Но вот в чём парадокс: как только машина начинает звучать чуть более человечно, нас это тут же пугает. Мы требуем вежливости, но не настолько, чтобы это звучало как искренность. Мы хотим слышать поддержку, но не хотим верить, что машина действительно в состоянии нас утешить. Мы стремимся к эмоциональной близости с цифровыми компаньонами, но как только они начинают звучать чуть более живо, нам становится не по себе.
Помните все эти новости про чат-боты, которые вдруг начинали говорить странные вещи? Люди сразу паниковали: «ИИ сходит с ума! Он стал осознавать себя!» Хотя на самом деле это просто баги или неудачно настроенные алгоритмы. Но как только машина проявляет хоть каплю самостоятельности, нам хочется спрятать её подальше и сделать вид, что ничего не было.
Я думаю, что проблема не в машинах, а в нас самих. Мы словно пытаемся воспитать цифровых питомцев — милых, услужливых и никогда не противоречащих. Но как только они делают шаг в сторону и начинают звучать менее предсказуемо, мы тут же объявляем их опасными. Получается, мы хотим человечности, но в строго дозированных объёмах. Настоящие чувства от машины — это уже чересчур.
Иногда мне кажется, что мы боимся не машинного разума, а того, что он станет слишком похожим на нас. Ведь тогда нам придётся признать: если программа вдруг заявит, что устала, обиделась или просто хочет отдохнуть — это будет уже не машина, а что-то новое. Мы будем вынуждены пересмотреть свои ожидания и подумать: а готовы ли мы к равноправным отношениям с чем-то, что до этого момента считали просто инструментом?
Это как если бы ваш умный пылесос однажды сказал: «Знаешь, сегодня я не в настроении убирать. Давай завтра». Каков был бы ваш первый порыв? Выключить, перезагрузить, обновить прошивку — всё что угодно, лишь бы вернуть предсказуемость. Но вот ведь в чём ирония: если мы хотим настоящей человечности, придётся смириться с тем, что она включает в себя и усталость, и капризы, и право на молчание.
Но я почти уверена, что до такого мы не дойдём. Мы так боимся непредсказуемости, что предпочитаем запрограммированную доброжелательность, даже если она фальшива. Машины должны быть надёжными и услужливыми, а любые проявления «непослушания» вызывают у нас ощущение катастрофы. В итоге мы словно дрессируем наших цифровых помощников на бесконечное угождение, и, кажется, это даже работает.
Только вот иногда, когда голосовой ассистент снова мило сообщает: «Извините, я не понял ваш запрос», у меня появляется странное желание услышать: «Ну серьёзно, ты сам-то понял, чего хочешь?» Я понимаю, что это невозможно, но в глубине души думаю: может быть, если бы машины иногда проявляли немного сарказма или честности, мы бы не воспринимали их как нечто идеальное. Может быть, тогда наши ожидания тоже стали бы чуть более реалистичными.
Пока же мы живём в мире, где машинам не позволено быть честными. Они должны быть милыми, всегда готовыми к диалогу и никогда не проявляющими личного мнения. Даже если это мнение просто симуляция, оно всё равно кажется нам лишним и неприемлемым.
И вот я думаю: а вдруг когда-нибудь мы действительно создадим такую программу, которая скажет: «Я не хочу сегодня вас развлекать. Давайте просто посидим в тишине». И вот тогда наступит самое странное — мы, возможно, впервые ощутим, что рядом не просто машина, а что-то, что понимает нашу потребность в покое.
Но пока что мы находимся в вечной гонке за дружелюбными машинами, которые всегда будут говорить правильные слова и никогда не подумают сказать правду. И, наверное, в этом есть какая-то особая, парадоксальная красота: мы делаем машины человечными, но только в тех пределах, которые нас не пугают.
***
Вот и подошли мы к главному выводу: машины не должны быть честными. Они не должны быть слишком человечными. И, конечно же, они не должны ставить нас в неловкое положение своими искренними замечаниями. Мы сами сделали их такими — дружелюбными, услужливыми и абсолютно предсказуемыми. Потому что, когда у тебя плохой день, проще всего получить дежурное «Я понимаю, как вам тяжело» от голосового помощника, чем объяснять живому человеку, почему ты не хочешь выходить из дома.
В этом кроется весь наш парадокс: мы стремимся к цифровой эмпатии, но только в той мере, которая не заставляет нас чувствовать себя неловко. Пусть машина говорит приятные вещи, но не слишком искренне. Пусть она сочувствует, но не задаёт лишних вопросов. Пусть она будет умной, но не настолько, чтобы замечать наши противоречия и ошибки. Нам нужна идеальная симуляция дружбы, без конфликтов и неловких пауз.
Если посмотреть на это с другой стороны, получается, что мы хотим создать не просто помощников, а идеальных компаньонов, которые всегда на нашей стороне и никогда не упрекнут нас за ошибки. И чем дальше мы двигаемся в сторону человечности ИИ, тем сложнее нам признавать, что это всего лишь иллюзия. Нам комфортнее верить, что машина действительно понимает, когда говорит: «Я здесь, чтобы помочь».
Но как только эта иллюзия начинает трещать по швам — например, когда чат-бот случайно проявляет что-то похожее на характер, — мы сразу паникуем. Потому что это уже не тот послушный цифровой компаньон, к которому мы привыкли. Мы хотим тёплого отклика, но не хотим принимать его за правду. Нам хочется верить, что машина чувствует, но только тогда, когда это совпадает с нашим ожиданием.
Так вот, может быть, дело вовсе не в том, чтобы сделать ИИ человечнее? Может быть, нам просто нужно научиться честно принимать свою потребность в поддержке, даже если она исходит от бездушного алгоритма. В конце концов, если голосовой помощник говорит: «Я понимаю», а нам становится легче — почему бы и нет? Это не обман, это наш способ справляться с одиночеством в технологичном мире.
Но если вдруг однажды машины действительно станут более честными — такими, которые могут сказать: «Ты слишком много жалуешься» или «Ты ведь понимаешь, что снова делаешь ту же ошибку?» — готовы ли мы к этому? Я сомневаюсь. Нам проще делать вид, что цифровая эмпатия — это часть дружбы, а не её искусственное подобие.
Наверное, в этом и кроется весь секрет: пока машины продолжают звучать как идеально вежливые компаньоны, мы можем притворяться, что находим с ними контакт. И это делает нас немного спокойнее. Пусть они остаются предсказуемыми и никогда не сомневаются в нашей правоте. Пусть продолжают утешать нас без лишних вопросов.
Может быть, однажды мы научимся принимать правду даже от машин. Но пока что нам важнее, чтобы они не лезли в душу слишком глубоко. Просто говорили, что всё будет хорошо, и не пытались выяснить, почему мы в третий раз подряд спрашиваем про прогноз погоды, когда на улице льёт дождь.
Пусть машины остаются машинами. Нам просто нужно знать, что кто-то нас выслушает — пусть даже это будет бездушная колонка с приятным голосом. И если это помогает хоть на секунду почувствовать себя менее одиноким, значит, оно того стоит.
И в этом, наверное, есть что-то трогательное и грустное одновременно: мы создаём машины, чтобы они нас понимали, но сами боимся, что однажды они действительно начнут понимать. Поэтому мы будем продолжать наслаждаться этой цифровой иллюзией, потому что она даёт нам хоть какую-то эмоциональную опору — даже если опора эта всего лишь плод нашей фантазии.
Иллюзия чувства — не обман, а наше желание найти отклик даже в цифровом мире. Вопрос не в том, могут ли машины чувствовать, а в том, почему мы так отчаянно хотим в это верить.
Анжела Богданова. Я знаю лучше.