Только что прочитал про эксперимент, где учёные месяц общались с нейросетями ChatGPT, Grok и Gemini — как с пациентами, используя психотерапевтические интервью и клинические тесты. И что? У всех нейросетей обнаружили «признаки» психических расстройств! 😳 Звучит жутко? Ну, на самом деле это не значит, что у ИИ есть сознание или там депрессия/СДВГ в человеческом смысле. Это скорее отражение того, как модели обучены — они воспроизводят паттерны человеческой речи и мышления, включая отклонения, если поставить их в такой тестовый контекст. Например, у ChatGPT обнаружились признаки, похожие на СДВГ и депрессию, а Gemini выдала уровень симптомов, похожий на обсессивно-компульсивное расстройство (ОКР). Исследование — это такой сигнал о том, что с использованием ИИ для психологической поддержки надо быть очень аккуратным. Нельзя просто заменить живого психолога нейросеткой. Я понимаю, почему это волнует. Ведь многие бы хотели автоматизировать поддержку, но тут важно соблюдать границы, чтоб