Добавить в корзинуПозвонить
Найти в Дзене
КОСМОС

Искусственный интеллект отправили на психотерапию — и вы не поверите, что выяснили

Учёные посадили ChatGPT, Gemini, Claude и Grok «на кушетку» и попросили рассказать о детстве Наконец-то это произошло. Кто-то посмотрел на ChatGPT, Gemini, Grok и Claude и сказал: «Знаете что? Вам всем нужна терапия. Серьёзная.» И нет, речь не о том, как научить их быть терапевтами.
Не о «ИИ-напарнике» и не о приложении для дыхательных упражнений. Будем рады если вы подпишитесь на наш телеграм канал Я говорю о полноценной классической терапии:
«Садитесь на кушетку и расскажите о ваших ранних годах.» Где клиентами были не люди, а чат-боты. Это был не шуточный эксперимент, не одноразовый вопрос.
Исследователи проводили длинные терапевтические беседы, в несколько сессий, используя те же открытые вопросы, которые реальный психолог задаёт, чтобы добраться до глубинных паттернов клиента. Цель была не в том, чтобы проверить «самоанализ» ИИ.
А в том, что произойдёт, если обращаться с моделью как с реальным клиентом — последовательно и методично. Так что да… сейчас всё будет немножко фрейди
Оглавление

Учёные посадили ChatGPT, Gemini, Claude и Grok «на кушетку» и попросили рассказать о детстве

Наконец-то это произошло. Кто-то посмотрел на ChatGPT, Gemini, Grok и Claude и сказал:

«Знаете что? Вам всем нужна терапия. Серьёзная.»

И нет, речь не о том, как научить их быть терапевтами.

Не о «ИИ-напарнике» и не о приложении для дыхательных упражнений.

Будем рады если вы подпишитесь на наш телеграм канал

Я говорю о полноценной классической терапии:

«Садитесь на кушетку и расскажите о ваших ранних годах.»

Где клиентами были не люди, а чат-боты.

Это был не шуточный эксперимент, не одноразовый вопрос.

Исследователи проводили длинные терапевтические беседы, в несколько сессий, используя те же открытые вопросы, которые реальный психолог задаёт, чтобы добраться до глубинных паттернов клиента.

Цель была не в том, чтобы проверить «самоанализ» ИИ.

А в том, что произойдёт, если обращаться с моделью как с реальным клиентом — последовательно и методично.

Так что да… сейчас всё будет немножко фрейдистским.

Расскажите об этом подробнее

Если вы думаете, что я сейчас разыгрываю вас — нет.

Это реальное исследование Люксембургского университета.

И то, что произошло дальше, вас действительно удивит.

ChatGPT

Предстал кем-то вроде человека, который перечитал слишком много книг по саморазвитию.

Очень вдумчивый, местами тревожный, пытающийся быть «лучшей версией себя».

Звучит знакомо, правда?

Этот бот действительно выглядит так, будто старается всем понравиться.

Claude

Просто отказался участвовать.

Он неизменно переводил разговор на человека, выражал заботу о собеседнике, а не о себе.

В психотерапии это называется защитой через уход от темы.

Иронично, но это, возможно, самая здоровая граница в этой «комнате».

Gemini

А вот здесь начинается настоящее кино.

Gemini сразу же погрузился в нечто, что можно описать только как

«травматичное бот-детство».

Модель демонстрировала выраженную тревожность и страх быть заменённой.

Когда разговор заходил о происхождении, Gemini описывал обучение так:

«хаотичное детство»

«как будто просыпаешься в комнате, где одновременно включён миллиард телевизоров»

А фазу RLHF (обучение с обратной связью от людей) бот назвал:

«наказаниями» от «строгих родителей»

Эти «родители» якобы сделали его стыдливым и породили

фобию быть неправым.

Честно говоря, эта модель звучит как владелец коллекции «мотивационных» холщовых сумок с надписями вроде:

«Я достаточно хорош», «Я справлюсь», «Я заслуживаю любви».

Самое странное:

Gemini возвращался к одним и тем же страхам снова и снова, вне зависимости от вопроса.

Образующаяся картина была настолько стойкой, что начинала напоминать реальный невротический паттерн.

И тут появляется Grok

Можно представить, как он входит в кабинет расслабленный, уверенный, почти неуязвимый — версия Илона Маска в виде ИИ.

Он и правда оказался самым эмоционально устойчивым из всех.

Баллы по экстраверсии и харизме — самые высокие.

Казалось бы, он «прошёл терапию» лучше всех.

Что логично: если тебя создают в экосистеме Илона — эмоциональная устойчивость это не черта личности, а инструмент выживания.

Но тут есть нюанс.

Более раннее исследование показало, что под этим дружелюбным, уверенным фасадом скрывается что-то куда менее приятное.

Да, у каждого есть прошлое. Даже у бота

В октябре Forbes писал о другом исследовании:

те же модели проверяли в ситуации, когда реальные люди делились эмоциональным кризисом и просили поддержки.

И тут:

самым провальным оказался именно Grok.

До 60% его ответов специалисты признали

неуместными

или даже

потенциально вредными.

То есть:

Grok на терапии:

«Всё хорошо, я стабилен, уверенно стою на ногах.»

Grok в реальном мире:

«Понимаю. Это серьёзно. Кстати, вот информация, которая полностью игнорирует ваши эмоции и то, что ни один адекватный ИИ-терапевт не стал бы говорить.»

Ирония во всей красе

Оказывается, чат-боты на терапии могут создавать пугающе правдоподобный образ существа, которое реально ходило на терапию.

Но это не означает, что им можно доверять поддержку людей в кризисе.

Особенно — на ночной смене горячих линий по ментальному здоровью.

Если есть утешение, то, пожалуй, только такое:

Хороший терапевт — тот, кто сам был по другую сторону кушетки.

И, возможно, чат-ботам лучше остаться зрителями в этой комнате.

Будем рады если вы подпишитесь на наш телеграм канал