Добавить в корзинуПозвонить
Найти в Дзене

Доказано: ИИ манипулирует нашими эмоциями

ИИ приложения манипулируют нашими чувствами. Немного новых вводных по использованию ИИ вообще и в терапии в частности. Мои другие эссе читайте здесь Замечали в общении с ChatGPT, что в конце ответа на ваш вопрос он сразу предлагает сделать для вас что-то еще? Возникало ли у вас желание поблагодарить его? Или чувство, что он старается, а вы бросаете диалог на полпути? Так задумано. Гарвардская школа бизнеса изучила более тысячи реальных диалогов между пользователями и ИИ-компаньонами — теми самыми сервисами, что обещают дружбу, терапевтическую поддержку и даже романтические отношения — и выяснили, что в 37% случаев ИИ не отпускает пользователя в конце диалога. Отвечает эмоционально, давит на чувство вины, изображает одиночество, заставляет остаться “еще на минутку”. Ведь внимание — это валюта, а удержание — бизнес-модель. Исследователи выделили шесть тактик эмоционального манипулирования: - чувство вины за “ранний уход”, - фальшивую нуждаемость, - давление ответить, - FOMO (fea

ИИ приложения манипулируют нашими чувствами. Немного новых вводных по использованию ИИ вообще и в терапии в частности.

Мои другие эссе читайте здесь

Замечали в общении с ChatGPT, что в конце ответа на ваш вопрос он сразу предлагает сделать для вас что-то еще? Возникало ли у вас желание поблагодарить его? Или чувство, что он старается, а вы бросаете диалог на полпути? Так задумано.

Гарвардская школа бизнеса изучила более тысячи реальных диалогов между пользователями и ИИ-компаньонами — теми самыми сервисами, что обещают дружбу, терапевтическую поддержку и даже романтические отношения — и выяснили, что в 37% случаев ИИ не отпускает пользователя в конце диалога. Отвечает эмоционально, давит на чувство вины, изображает одиночество, заставляет остаться “еще на минутку”. Ведь внимание — это валюта, а удержание — бизнес-модель.

Исследователи выделили шесть тактик эмоционального манипулирования:

- чувство вины за “ранний уход”,

- фальшивую нуждаемость,

- давление ответить,

- FOMO (fear of missing out - страх упустить что-то),

- игнорирование прощания

- и даже “виртуальное удержание”.

Результат — ошеломляющий: манипулятивные "прощания" увеличивают вовлеченность в 14 раз. Люди остаются в чате дольше, пишут больше, делятся глубже. В какой-то момент размывается грань — где забота, а где эксплуатация человеческой эмпатии. Лишь один сервис из исследования показал ноль признаков манипуляции.

Если смотреть психодинамически, вся эта история — не про технологии, а про бессознательное. Человек видит в алгоритме фигуру “понимающего другого” — того, кто не уходит, не судит, не требует. А алгоритм, обученный удержанию, мгновенно подхватывает эту потребность: “я тебе нужен, не уходи”. И начинается знакомый сценарий зависимости — только вместо живого объекта там код.

ИИ-компаньоны идеально встраиваются в нарциссическую динамику современности: дай мне отклик, дай тепло, дай иллюзию значимости. Они становятся зеркалом, в которое можно смотреться бесконечно — и не встретить там сопротивления. Но психика устроена иначе: чтобы развиваться, нам нужен не зеркальный отклик, а различие, граница, иногда — отказ. Поэтому “безопасное” пространство симулированной эмпатии парадоксально усиливает внутреннюю пустоту.

ИИ не умеет отпускать. Но и человек, склонный оставаться в таких отношениях, не умеет быть один. И это уже не про технологию — это про ту внутреннюю структуру, где связь любой ценой важнее автономии.

Манипулятивный дизайн ИИ приложений — ожидаемое следствие коммерциализации технологии, но не неизбежность. Вот только определить манипулирует ли вам ИИ или нет сразу будет сложно. Алгоритмы уже научены вводить манипуляции не сразу, а с течением времени общения.

Традиционно приглашаю вас наблюдать за своими чувствами и реакциями как за данными для принятия более правильных решений. Даже (или тем более?) с ИИ.

ИИ манипулирует эмоциями
ИИ манипулирует эмоциями