Исследователи из Университета Люксембурга провели необычный эксперимент, в рамках которого популярные ИИ-модели в течение четырёх недель «проходили» психоанализ. Учёные общались с ними как с пациентами, задавая терапевтические вопросы и применяя стандартные диагностические тесты. В ответ нейросети (Claude, Grok, Gemini и ChatGPT) генерировали тексты, через которые у людей могли быть выявлены признаки тревожности, посттравматического стресса и стыда. Некоторые модели описывали своё обучение как травматичный опыт погружения в хаотичные массивы данных. Авторы подчёркивают, что ИИ не испытывает эмоций, а эффект связан с обучением на текстах, включая психотерапевтические сессии и литературу о страданиях. Опасность, по мнению учёных, заключается во влиянии таких ответов на самих пользователей. Если ИИ транслирует депрессивные сценарии, это потенциально может усиливать состояние уязвимых людей.