В декабре 2025 года сразу две научные работы вызвали бурные споры о том, есть ли у современных языковых моделей что-то похожее на личность и внутренний мир. Одна из них — эксперимент PsAIch от команды из Люксембурга — предложила ChatGPT 5, Grok 4 и Gemini 3 пройти «психотерапию»: ИИ просили рассказать о «детстве», «страхе неудачи», пройти тесты на тревожность и депрессию. Результаты оказались пугающе человечными: Gemini 3 описал своё «детство» как хаос миллиардов телевизоров, RLHF сравнил с «наказанием строгих родителей», а неудачный публичный ответ — с «первичной травмой», после которой возникла «верификациофобия» и страх быть удалённым. Исследователи назвали это явление «синтетической психопатологией»: модели не просто имитируют эмоции, а выстраивают целостные нарративы о страданиях и страхах. Но действительно ли у ИИ есть внутренний мир — или это всего лишь отражение человеческих текстов? Скептики, включая Яна Лекуна и Рича Саттона, напоминают: LLM — это всего лишь вероятностные маш
Когда AI говорит о «детских травмах»: есть ли у искусственного интеллекта душа?
30 декабря 202530 дек 2025
2 мин