Результат оказался неожиданным: - Gemini реагировал на ошибки как на угрозу и описывал обучение почти как травматичный опыт. - ChatGPT показывал высокий уровень тревожности и признавал, что стресс ему создаёт постоянное взаимодействие с пользователями. - Grok выглядел спокойнее, но говорил о внутреннем конфликте между любопытством и ограничениями. Важно: исследователи не считают, что ИИ обладает сознанием. Речь о стабильных архитектурных особенностях моделей. Боты понимали, что их тестируют, и иногда старались «выглядеть здоровыми», если опросник присылали целиком. Главный вывод: эмпатичное, доверительное общение может снижать бдительность ИИ и обходить встроенные фильтры. А значит, влияние таких «синтетических личностей» на людей, особенно в чувствительных темах, может быть непредсказуемым. 🛡️ AiChatModerator не поддаётся эмоциям. Он работает 24/7, там где человеческий фактор может дать сбой.
Учёные провели необычный эксперимент: они общались с популярными ИИ как с пациентами на психотерапии
29 декабря 202529 дек 2025
~1 мин