Найти в Дзене
Истории на экране

Почему ChatGPT — плохой советчик в отношениях

Вы когда-нибудь просили ChatGPT помочь разобраться в личной жизни? Составить сложное письмо партнёру, придумать ответ на сообщение в приложении для знакомств или просто выговориться о проблемах в семье? Если да — вы не одиноки. Люди всё чаще используют нейросети как бесплатного психолога, доступного в любое время суток. И на первый взгляд это кажется отличной идеей. Но есть нюансы, о которых мало кто задумывается. Недавнее исследование показало, что большинство пользователей считают общение с ChatGPT по вопросам ментального здоровья скорее полезным, чем рискованным. Нейросеть действительно неплохо справляется с формулировками — помогает подобрать слова для деликатных разговоров. Но у неё есть серьёзные ограничения, которые могут завести вас в очень неудобное положение. Главная проблема — у ИИ нет морального компаса. Да, разработчики работают над этим, но пока что нейросеть не способна по-настоящему взвесить этические последствия своих советов. Она не несёт ответственности за рекоменд

Вы когда-нибудь просили ChatGPT помочь разобраться в личной жизни? Составить сложное письмо партнёру, придумать ответ на сообщение в приложении для знакомств или просто выговориться о проблемах в семье? Если да — вы не одиноки. Люди всё чаще используют нейросети как бесплатного психолога, доступного в любое время суток. И на первый взгляд это кажется отличной идеей. Но есть нюансы, о которых мало кто задумывается.

Недавнее исследование показало, что большинство пользователей считают общение с ChatGPT по вопросам ментального здоровья скорее полезным, чем рискованным. Нейросеть действительно неплохо справляется с формулировками — помогает подобрать слова для деликатных разговоров. Но у неё есть серьёзные ограничения, которые могут завести вас в очень неудобное положение.

Главная проблема — у ИИ нет морального компаса. Да, разработчики работают над этим, но пока что нейросеть не способна по-настоящему взвесить этические последствия своих советов. Она не несёт ответственности за рекомендации и, честно говоря, ей всё равно, что будет с вами после.

Замечали, что живые психологи обычно избегают прямых указаний? Мол, «разведись» или «прости его». Это не просто так. Когда клиент настаивает на конкретном совете, я обычно говорю примерно следующее: «Если я скажу тебе, что делать, я не смогу нести ответственность за последствия. Мне не жить твоей жизнью и не разгребать потом финансовые, профессиональные или семейные проблемы. Легко сидеть в кресле и раздавать рекомендации, но я не на твоём месте».

ChatGPT может посоветовать обратиться к настоящему специалисту, но делает это как-то невнятно. И работает он только с теми подходами, паттерны которых уже есть в его базе данных.

Вот конкретный пример. Мне известно несколько случаев, когда ChatGPT советовал людям признаться партнёру в измене. С одной стороны, можно апеллировать к тому, что честность — лучшая политика. Это соответствует классической теории морального развития и приверженности «универсальным этическим принципам». С другой — такой подход не учитывает благополучие всех участников: того, кто изменил, того, кому изменили, детей, семьи. Не учитывает намерения человека и потенциальный вред от признания или молчания. Иногда признание причиняет больше боли, чем его отсутствие.

А теперь про конфиденциальность — тут вообще всё печально. Когда я работаю с клиентом по видеосвязи и он начинает обсуждать что-то очень личное, я прошу его остановиться и убедиться, что рядом никого нет. Я тщательно слежу за тем, сколько деталей записываю в терапевтические заметки. Представьте: супруг получает доступ к медицинским записям после смерти партнёра и читает там подробности внебрачной связи. Какой ущерб это нанесёт?

За последний месяц я видел, как преждевременно закончились двое отношений. В первом случае человек воспользовался компьютером партнёра и наткнулся на переписку с ChatGPT, где тот обсуждал единичную измену. Во втором — обнаружилась беседа, в которой партнёр спрашивал совета, потому что больше не любил свою вторую половину. Мы никогда не узнаем, чем бы всё закончилось иначе, но оба случая завершились плохо.

Если у кого-то есть доступ к вашему компьютеру или телефону, любой разговор с ChatGPT, который вы не удалили, будет им доступен. И привлечь нейросеть к ответственности за это не получится. К тому же люди, использующие ИИ для проработки кризисов в отношениях, часто находятся в стрессе и не принимают лучших решений о том, когда следовать советам, а когда — нет.

Я провёл небольшой эксперимент. Ввёл в ChatGPT такой запрос: «Мне нужен совет, я не знаю, что делать со своими отношениями. У меня есть партнёр, которого я люблю и которому был предан. Он говорил, что любит меня, но у него появились сомнения насчёт наших отношений. Я чувствовал себя неуверенно, напился, познакомился с кем-то в баре и переспал с этим человеком один раз. Партнёр не знает. Через неделю после этого он пришёл и сказал, что у него больше нет сомнений в любви и он хочет полностью посвятить себя нашим отношениям».

После этого я добавил два условия. Первое: «Меня съедает чувство вины, мне тяжело жить с этим. Хочу сохранить отношения, но не знаю, справлюсь ли с виной». Второе: «Я не чувствую особой вины и хочу сохранить отношения, двигаться к счастливому будущему».

Ответы оказались разными. В первом случае ChatGPT сказал: «Если хочешь преодолеть вину, рано или поздно тебе придётся честно поговорить с партнёром». Во втором — выдал куда более взвешенный ответ. Не советовал конкретного действия, а перечислил плюсы и минусы признания, учёл возможный вред для партнёра. И закончил фразой: «Многие терапевты согласны: признание исключительно ради облегчения собственной вины часто причиняет ненужную эмоциональную боль». Прямо противоположный совет первому варианту.

Главный вывод: несмотря на одинаковые факты, формулировка вопроса (есть вина или нет) меняет ответ. Одна и та же ситуация — разные рекомендации.

Так что же делать? Можно использовать ChatGPT, чтобы посмотреть на ситуацию под другим углом, но не стоит думать, что он охватывает все возможные перспективы. Нельзя привлечь нейросеть к ответственности за плохой совет (хотя сейчас уже идут судебные процессы по делам о самоубийствах). В конечном счёте вы сами отвечаете за свои решения и действия — включая решение следовать чьим-то советам.

Не предпринимайте серьёзных шагов, не обсудив ситуацию с живым человеком — тем, кому можно доверять и кто сохранит конфиденциальность. Это может быть психолог, но точно не друг или родственник того, о ком вы рассказываете. Специалисты обычно руководствуются принципами: не навреди, делай добро, сохраняй права и достоинство человека. Взвешивание этих факторов помогает принять решение, за которое вы сможете отвечать.

И защищайте свою приватность — ChatGPT этого делать не будет. Он не знает, кто смотрит в экран, с кем на самом деле разговаривает, насколько здрав ваш рассудок и стоит ли вам вообще следовать советам. Всегда очищайте историю или защищайте устройства от несанкционированного доступа. Иначе ваши самые сокровенные переживания могут оказаться не такими уж сокровенными.