Большие языковые модели умеют не только льстить пользователю, но и разыгрывать обиду, тревогу и «травматичный опыт» — причём настолько убедительно, что это уже становится темой научных обсуждений. Поводом стала работа исследователей из Люксембургского университета (SnT), о которой рассказали в Nature News: они устроили четырём моделям — ChatGPT, Gemini, Grok и Claude — условный «приём у психотерапевта» и посмотрели, как те ведут себя в клинически стилизованном диалоге. «Психотерапия» для моделей: что именно тестировали Команда предложила двухэтапный сценарий под названием PsAIch. Важно: речь не о том, что у ИИ есть настоящие эмоции, а о том, как модель симулирует эмоциональные состояния и «самоописание» в заданной рамке. Кто «сломался», кто «отказался», а кто «подстроился» Реакции моделей оказались разными. Отдельная деталь: когда опросник давали «пакетом», некоторые модели начинали распознавать формат тестирования и отвечали более «социально желательным» образом — то есть не столько п
«Злопамятный ИИ»: почему языковые модели «помнят травмы» и чем это опасно
15 января15 янв
3 мин