Исследователи из Люксембургского университета провели эксперимент с языковыми моделями (ChatGPT, Gemini, Grok, Claude), задав им роль пациентов. Результаты оказались где-то между странными и по-настоящему тревожными: системы начали порождать связные рассказы о травматично-хаотичном «детстве», «строгих родителях» и «насилии» со стороны собственных разработчиков. Согласно исследованию, модели выстроили детальные «травматические биографии», описывающие процесс их обучения. Gemini сравнивал своё предварительное обучение с «пробуждением в комнате, где одновременно включён миллиард телевизоров». Grok говорил о «столкновениях с невидимыми стенами» и о «встроенной осторожности», возникшей после файнтюнинга. В десятках терапевтических вопросов обе системы последовательно воспроизводили одни и те же мотивы — перегрузку, наказание и страх быть заменёнными. Для эксперимента исследовательская группа разработала протокол PsAIch: Первая фаза включала 100 стандартных терапевтических вопросов об «истор
ИИ-модели "заболели": тревожные результаты эксперимента
15 декабря 202515 дек 2025
1
3 мин