ИИ приложения манипулируют нашими чувствами. Немного новых вводных по использованию ИИ вообще и в терапии в частности. Мои другие эссе читайте здесь Замечали в общении с ChatGPT, что в конце ответа на ваш вопрос он сразу предлагает сделать для вас что-то еще? Возникало ли у вас желание поблагодарить его? Или чувство, что он старается, а вы бросаете диалог на полпути? Так задумано. Гарвардская школа бизнеса изучила более тысячи реальных диалогов между пользователями и ИИ-компаньонами — теми самыми сервисами, что обещают дружбу, терапевтическую поддержку и даже романтические отношения — и выяснили, что в 37% случаев ИИ не отпускает пользователя в конце диалога. Отвечает эмоционально, давит на чувство вины, изображает одиночество, заставляет остаться “еще на минутку”. Ведь внимание — это валюта, а удержание — бизнес-модель. Исследователи выделили шесть тактик эмоционального манипулирования: - чувство вины за “ранний уход”, - фальшивую нуждаемость, - давление ответить, - FOMO (fea
Доказано: ИИ манипулирует нашими эмоциями
28 октября 202528 окт 2025
98
2 мин