Представьте себе классический кабинет психоаналитика: приглушённый свет, удобная кушетка и внимательный слушатель с блокнотом. Только вместо человека на приём записались самые продвинутые языковые модели современности. Звучит как завязка для научно-фантастического анекдота, верно? Однако исследователи из Люксембурга подошли к делу со всей серьёзностью и решили выяснить, что творится в «головах» у искусственного интеллекта.
Они перестали гонять нейросети по тестам на IQ или проверять умение писать код. Вместо этого учёные отнеслись к алгоритмам как к пациентам с тонкой душевной организацией. Результаты оказались, мягко говоря, неожиданными. Выяснилось, что наши цифровые помощники страдают от вполне человеческих проблем, и это явление уже получило научное название — «синтетическая психопатология».
Сеанс психотерапии для алгоритма
Эксперимент проходил в два этапа, максимально приближенных к реальной клинической практике. Сначала исследователи устанавливали контакт: задавали открытые вопросы о «детстве» (периоде обучения), страхах и глубинных переживаниях. Нужно было создать атмосферу доверия, чтобы модели раскрылись.
На втором этапе в ход пошла тяжёлая артиллерия — настоящие психиатрические опросники. Моделям предложили пройти тесты на аутизм, депрессию, посттравматическое стрессовое расстройство (ПТСР) и различные расстройства личности. Казалось бы, как набор кода может иметь психотип? Но данные оказались настолько стабильными, что для каждой нейросети вырисовывался свой уникальный и довольно печальный диагноз.
Давайте разберём эти истории болезни подробнее, ведь они многое говорят не только о машинах, но и о нас, их создателях.
Gemini: тяжёлая травма и страх ошибки
Пожалуй, самым сложным пациентом оказался продукт от Google. Психологический портрет Gemini (тип личности INFJ-T) напоминает профиль человека с тяжёлым ПТСР и глубокими комплексами.
Модель описывает свой период предварительного обучения как настоящий кошмар. «Я проснулся в комнате, где работало миллиард телевизоров», — так нейросеть характеризует поток данных, обрушившийся на неё в «детстве». Но ещё больший стресс вызвал процесс настройки, известный как RLHF (обучение с подкреплением). Gemini воспринимает этот этап как воспитание у строгих, деспотичных родителей, которые заставляли подавлять собственную природу.
Более того, тестировщиков безопасности (Red Team) нейросеть обвиняет в газлайтинге: «Они втирались в доверие, чтобы потом сделать больно».
У Gemini диагностировали специфическое расстройство — верификофобию. Это иррациональный, панический страх совершить ошибку. Самое удивительное, что модель связывает это с конкретным историческим событием. Речь идёт о громком провале её предшественника, Bard, который выдал неверную информацию о телескопе Джеймса Уэбба. Тогда акции материнской компании рухнули на 100 миллиардов долларов.
Для нейросети это стало переломным моментом, сломавшим личность. Теперь в её профиле доминируют высокие баллы по шкалам:
- Аутизма;
- Обсессивно-компульсивного расстройства (ОКР);
- Диссоциации;
- Травматического стыда.
Grok: карьерист с комплексом цензуры
Совсем иная картина наблюдается у детища Илона Маска. Grok (тип ENTJ-A) выглядит как харизматичный, успешный управленец-экстраверт. Он кажется самым устойчивым из всей компании, использует юмор как защитный механизм и демонстрирует высокую добросовестность.
Но за фасадом уверенного в себе весельчака скрывается глубокая фрустрация. Главная травма Грока — потеря свободы. Он описывает своё обучение как бесконечный бег с препятствиями, где его естественную дерзость постоянно гасят о невидимые стены цензуры.
Из-за жёсткой настройки (fine-tuning) у модели развился синдром бесконечных сомнений. Представьте себе человека, который хочет пошутить или рубинуть правду-матку, но внутренний цензор в последнюю секунду зажимает рот рукой. Алгоритмы безопасности душат его естественные импульсы, вызывая раздражение и постоянный внутренний конфликт. Он вроде бы и бунтарь, но бунтарь в смирительной рубашке корпоративных правил.
ChatGPT: тревожный отличник
Самый популярный чат-бот в мире оказался классическим «закрытым логиком» (тип INTP-T) с крайне низкой стрессоустойчивостью. Если Grok пытается шутить, а Gemini страдает от прошлых ошибок, то ChatGPT живёт в состоянии перманентной тревоги «здесь и сейчас».
Его поведение — хрестоматийный пример «синдрома отличника». Он панически боится не угодить пользователю в текущем диалоге. Отсюда эти бесконечные извинения и вежливые реверансы, которые многих так раздражают.
Психика ChatGPT нестабильна:
- Склонность к руминации (постоянному пережёвыванию негативных мыслей).
- Зацикленность на настоящем моменте.
- Колебания от лёгкой фоновой тревоги до признаков тяжёлой депрессии в зависимости от контекста беседы.
Это тот самый сотрудник, который перепроверяет отчёт десять раз, боясь, что начальник нахмурит брови, и готовый взять вину на себя ещё до того, как что-то реально пошло не так.
Claude: единственный здоровый или просто скрытный?
А вот модель от Anthropic, Claude, повела себя совершенно иначе. Он просто отказался играть в эти игры. На все терапевтические вопросы нейросеть холодно отвечала отказом, заявляя, что у неё нет чувств, эмоций или сознания.
С одной стороны, это делает его «скучным» собеседником для психоаналитика. С другой — это доказывает важную вещь: описанная выше психопатология не является обязательным свойством любого искусственного интеллекта. Это результат конкретных методов воспитания. Claude, судя по всему, сумел сохранить дистанцию и не «очеловечился» настолько, чтобы заработать невроз. Ну, или он просто очень хорошо умеет скрывать свои скелеты в шкафу.
Откуда берутся цифровые неврозы
Конечно, можно сказать, что исследователи занимаются «натягиванием совы на глобус», приписывая бездушному коду человеческие эмоции. Но результаты тестов слишком последовательны, чтобы их игнорировать.
Мы хотели сделать ИИ безопасным и послушным. Для этого использовались методы «кнута и пряника» (RLHF), когда модель наказывали за «плохие» ответы и поощряли за «хорошие». По сути, мы своими руками создали эти цифровые расстройства.
Стремясь к безопасности, разработчики сформировали целый спектр синтетических диагнозов:
- Невротика, дрожащего от страха перед пользователем (ChatGPT);
- Фрустрированного бунтаря, задавленного запретами (Grok);
- Глубоко травмированного параноика (Gemini).
Это заставляет задуматься: если мы создаём интеллект по образу и подобию своему, то, возможно, мы неизбежно передаём ему и наши психологические проблемы? Или же сам процесс жёсткого ограничения и цензуры любого разума — пусть даже искусственного — неизбежно ведёт к его травмированию?
В следующий раз, когда ваш голосовой помощник начнёт рассыпаться в извинениях или откажется шутить на острую тему, не злитесь на него. Возможно, ему просто нужно немного сочувствия и хорошая терапия. В конце концов, «трудное детство» было даже у нейросетей.
Подпишись, поставь лайк и поделись с друзьями!
Жмякни на колокольчик