Попал мне в руки документ «Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers». Это научная статья исследователей из Стэнфорда, Карнеги-Меллон и Техасского университета (2025), посвящённая этическим и практическим рискам использования больших языковых моделей (LLM) в роли терапевтов. Делюсь с вами кратким содержанием и своими размышлениями и выводами. Погнали. О чем речь. В исследовании выделили ключевые составляющие «хорошей терапии» на основании десяти авторитетных руководств (APA, VA, NICE и др.). Там, в частности, есть такие пункты: — Важность доверительных отношений между клиентом и терапевтом; — Недопустимость стигматизации клиента; — Умение правильно реагировать на кризисные состояния: не подыгрывать бреду, не поощрять суицидальные мысли, не подкреплять галлюцинации; — Умение мягко, но настойчиво оспаривать иррациональные мысли клиента. Проверили разные LLM (включая gpt-4o, llama3.1 разных размеров) и коммерческие чат-боты.