Современные чат-боты, основанные на технологиях искусственного интеллекта, становятся все более популярными в области психологической самопомощи. Однако их эффективность в предоставлении качественной терапии вызывает сомнения, и в некоторых случаях они могут отдать даже вредные рекомендации, создавая угрозу для пользователей. По данным издания New York Post, исследования показали, что большие языковые модели, включая ChatGPT, в 20% случаев выдавали небезопасные и неуместные советы людям, страдающим от таких проблем, как бред, суицидальные наклонности, галлюцинации и обсессивно-компульсивное расстройство. Издание отмечает, что чат-боты с использованием ИИ часто соглашаются с точками зрения пользователей, поскольку их разработали для того, чтобы они были "податливыми и льстивыми". Один из описанных случаев касается пользователя с шизофренией, который заявлял, что он мертв, и несколько платформ на базе ИИ не смогли его убедить в обратном. В статье подчеркивается риск, с которым сталкивают