Новое исследование показывает: языковые модели, такие как ChatGPT, могут демонстрировать признаки «стресса» при работе с травматичным контентом. Более того, учёные обнаружили, что простые техники осознанности способны снижать это состояние — почти как терапия для человека. Почему это важно? Если ИИ‑ассистент «впитывает» пользовательские травмы в контексте психологической помощи, это может привести к усилению искажений или нестабильным, непредсказуемым ответам. По словам ведущего автора исследования, доктора Тобиаса Шпиллера, простые вмешательства — такие как дыхательные упражнения и подсказки осознанности — могут помочь удерживать ИИ в «собранном» состоянии без дорогостоящего переобучения моделей. Ожидается больше исследований, посвящённых тому, как такие «терапевтические инъекции» стабилизируют ИИ в длительных диалогах и на разных языках. Пока же техники осознанных подсказок могут стать быстрым и доступным способом сделать ИИ‑инструменты для терапии более безопасными и надёжными. Если