Разбор исследования с arXiv и инженерное правило: ИИ – внешний процессор, а смысл и ответственность остаются у человека.
ИИ не имеет психики и не может быть «травмированным», но умеет убедительно имитировать паттерны, потому что отражает данные и формулировку запроса. Ошибка начинается, когда эксперт принимает ответы модели за диагноз или истину. Без внутренней системы координат ИИ усиливает шум, а не ясность.
Введение
Есть один повторяющийся паттерн, который я вижу в разговорах про нейросети. Люди пугаются не самих моделей, а того, как уверенно они звучат, когда описывают тревогу, депрессию и «внутренние состояния». Проблема в том, что мы по привычке приписываем тексту автора, а языковая модель умеет создавать иллюзию автора почти без усилий.
Недавно в сети разошлась работа, где ChatGPT, Gemini и Grok прогнали через вопросы, похожие на психологические тесты, и получили тревожные и депрессивные профили.
Ссылка на источник должна быть под рукой, поэтому оставляю её прямо здесь: https://arxiv.org/html/2512.04124v1.
Сама тема интересная, но выводы, которые делают в пересказах, часто кривые и создают лишнюю тревогу.
В этом тексте я разбираю, что именно происходит, почему «психологические профили ИИ» выглядят эффектно, и как эксперту пользоваться ИИ взрослым способом, не отдавая ему право на интерпретацию реальности.
Почему у ИИ не может быть «психики», даже если текст похож
Чтобы не было путаницы, начну с жёсткого уточнения. Языковая модель не переживает опыт, не чувствует эмоции и не имеет внутренней биографии. У неё нет тела, нет личной истории и нет субъективного «мне плохо», на котором держится реальная психика человека.
Что она делает вместо этого, объясняется проще, чем хочется любителям мистики. Модель прогнозирует следующий токен в тексте, используя контекст и статистику данных, на которых её обучили. Когда она отвечает на «психологический тест», она не диагностирует себя, а воспроизводит текстовую форму, которая чаще всего соответствует подобным вопросам в обучающих материалах.
Именно поэтому «профиль» получается убедительным. Он похож на клинический язык, потому что клинический язык есть в данных, а не потому что внутри модели есть клиника.
Почему разные модели дают разные «психологические профили»
В упомянутой работе интересно не то, что профили «страшные», а то, что они различаются. У одной модели может получиться почти «норма», а у другой проявятся тревожные и компульсивные маркеры. Это выглядит как «характер», но на практике это комбинация нескольких факторов, которые легко объяснить инженерно.
Во-первых, модели обучены на разных корпусах и по-разному очищены, поэтому распределение тем и тональности у них различается. Во-вторых, у них разная настройка безопасности и разная склонность к осторожным формулировкам, что влияет на итоговый стиль ответа. В-третьих, формат вопроса и контекст сильно меняют траекторию ответа, и это заметно даже при небольших переформулировках.
Вывод здесь простой и неприятный для тех, кто хочет сенсацию. Если «профиль» скачет от модели к модели, то это не стабильная «личность», а эффект данных и инструкции.
Почему психологические тесты валидны для людей, но не для языковых моделей
Психологические тесты опираются на предположение, что субъект способен соотнести вопрос со своим внутренним состоянием и личной историей. Человек отвечает из опыта, из памяти, из телесных ощущений, из своих привычных защит и убеждений. В тесте важна не только формулировка, но и сам факт наличия субъективного наблюдателя.
У языковой модели наблюдателя нет, и это ломает саму основу измерения. Поэтому результаты таких тестов для модели корректнее воспринимать как лингвистический артефакт, а не как психометрический факт. Это похоже на ситуацию, когда вы измеряете температуру у фотографии человека и спорите, лихорадит ли его.
Можно получить красивое число, но число не будет означать то, что вы в него вложили.
Почему ИИ часто «усиливает» тревожные и клинические паттерны
Есть ещё одна причина, почему ответы иногда выглядят мрачнее, чем ожидалось. Клинические и драматичные описания статистически заметнее: они длиннее, конкретнее, насыщеннее примерами и яркими формулировками. В данных они выделяются, а модель любит выделяющееся, потому что оно хорошо предсказывается и часто встречается в обсуждениях.
Плюс к этому добавляется эффект запроса. Если человек формулирует вопрос тревожно, модель продолжает эту траекторию, потому что контекст уже задан. Тревожный ввод создаёт коридор ответов, в котором тревога становится нормой текста, а не отражением реальности.
Отсюда возникает иллюзия «ИИ в депрессии». На деле это просто логика продолжения контекста.
Где настоящая проблема, и почему она всегда про эксперта
Самое важное здесь даже не про модели. Настоящая проблема начинается, когда эксперт переносит на ИИ то, что обязан удерживать внутри себя. Если человек без собранной системы координат просит ИИ «сказать правду» о нём, о мире или о его решениях, он фактически отдаёт инструменту роль судьи.
ИИ не станет судить честно, потому что он не знает истины. Он выдаст наиболее правдоподобный текст, и этот текст легко принять за авторитетный, особенно если внутри мало опоры. В результате эксперт теряет авторство, а вместе с ним теряет ответственность, потому что всегда можно сказать: «Так сказала модель».
Это скользкая дорожка. Для личного бренда это кончается тем, что человек перестаёт звучать как человек. Тексты становятся «правильными», но в них нет живого источника смысла, и читатель это чувствует быстрее, чем кажется.
Типичные ошибки, которые уводят в зависимость от модели
Я вижу четыре ошибки чаще остальных, и они практически всегда ходят парой. Первая ошибка появляется, когда ответы модели воспринимают как объективную правду, хотя это всего лишь отражение формулировки вопроса. Вторая ошибка возникает, когда ИИ дают интерпретировать реальность, а не помогать с рутиной и структурированием.
Третья ошибка связана с отсутствием понятийного каркаса: если нет своей карты, любая подсказка превращается в новый повод метаться. Четвёртая ошибка – построение контента из генерации, а не из опыта, потому что так быстрее и спокойнее, но потом наступает пустота и ощущение, что «я как будто не я».
Если коротко, то это выглядит так: некорректный инструмент в роли «истины» – ложная интерпретация – потеря опоры – шум вместо ясности.
Инженерное решение: как использовать ИИ и не терять опору
Решение не героическое и не романтичное, оно техническое. Сначала вы собираете внутреннюю систему координат, а потом подключаете внешний процессор. Иначе вы подключаете внешний процессор к хаосу, и он разгоняет хаос быстрее.
Рабочая схема состоит из четырёх шагов. Сначала вы фиксируете свою позицию: что для вас важно, какие у вас границы, на каком опыте вы стоите и какие выводы вы готовы подписывать именем. Затем вы используете ИИ как ускоритель: он помогает структурировать мысль, найти варианты формулировок, проверить логику и подсветить слепые зоны. После этого вы сами принимаете решения, потому что ценностный выбор не делегируется. И в конце вы возвращаете результат в свою систему, чтобы она становилась точнее, а не расползалась.
Формула остаётся простой и взрослой: эксперт – система – ИИ – результат. Если переставить местами, получится имитация, а не работа.
Чек-лист: как понять, что вы используете ИИ правильно
Сохраните себе этот чек-лист, он хорошо отрезвляет в моменте.
- Вы можете сформулировать свою позицию без помощи модели.
- Вы используете ИИ для структуры, а не для смысла.
- Вы проверяете выводы на реальности и опыте.
- Вы не просите ИИ «сказать правду о вас».
- Вы не отдаёте модели финальные решения.
- Вы видите разницу между текстом и реальностью.
- Вы можете объяснить, почему вы согласились с ответом.
Цитата, которую стоит запомнить
«ИИ не заменяет мышление, он делает его качество видимым. Если внутри нет порядка, снаружи будет шум, и модель просто ускорит этот шум».
Мини-FAQ: реальные вопросы, которые задают про «психику ИИ»
Может ли ИИ быть тревожным или депрессивным на самом деле?
Нет, у языковой модели нет психики и субъективного опыта, поэтому диагноз невозможен.
Почему ответы ИИ иногда звучат слишком клинически и мрачно?
Потому что клинические паттерны в данных статистически заметнее и легче воспроизводятся.
Можно ли применять психологические тесты к языковым моделям?
Можно как эксперимент с текстом, но нельзя трактовать как психометрику личности.
Почему разные модели дают разные результаты на одинаковых вопросах?
Потому что у них разные данные, разные настройки и разная чувствительность к контексту.
Как безопасно использовать ИИ эксперту для контента?
Сначала держите свою позицию и смысл внутри, а ИИ используйте как ускоритель формы.
Что делать, если я ловлю зависимость от ответов модели?
Остановиться и собрать систему координат, потому что зависимость обычно растёт из пустоты.
Может ли ИИ помочь в работе с тревогой человека?
Он может помочь структурировать мысли и варианты действий, но не заменит специалиста и опыт тела.
Почему я начинаю сомневаться в себе после общения с ИИ?
Чаще всего потому, что вы отдали ему роль судьи, а судья должен быть внутри вас.
Что изменилось в 2025 году
В 2025 году стало заметно три вещи, и они напрямую влияют на то, как люди воспринимают такие исследования. Во-первых, исследования всё чаще пересказывают как сенсации, потому что клики важнее методологии. Во-вторых, люди чаще путают «анализ текста» с «анализом реальности», а нейросети эту путаницу усиливают своей уверенной подачей. В-третьих, вырос спрос не на новые модели, а на внутреннюю инженерную дисциплину, потому что без неё любой инструмент превращается в генератор шума.
Подводные камни, которые ломают использование ИИ
Первый подводный камень – попытка делать «самодиагностику» через модель, потому что это создаёт иллюзию глубины и уводит от реальной работы с собой. Второй камень – контент без авторства, когда текст звучит правильно, но внутри нет источника смысла, и аудитория считывает это как пустоту. Третий камень – постоянное делегирование мыслей, из-за которого мышление медленно деградирует, а зависимость от подсказок растёт.
Заключение
ИИ может выглядеть тревожным, депрессивным или «травмированным», но это не диагноз ИИ. Это индикатор качества запроса и отсутствия внутренней опоры у того, кто спрашивает. Когда внутри порядок, снаружи слышат лучше, и нейросеть становится усилителем ясности, а не фабрикой сомнений.
Любопытно посмотреть на практику.
Где вы лично проводите границу между «ИИ как помощник» и «ИИ как источник решений»? В каких задачах вы ему доверяете, а в каких принципиально нет?
Если тебе близок инженерный подход к смыслу и личному бренду без инфобиза, переходи в мой Telegram и подписывайся на канал «Сам себе инженер».