Добавить в корзинуПозвонить
Найти в Дзене
Ридус

New York Post: бот ChatGPT выдал опасные советы пациентам

Современные чат-боты, основанные на технологиях искусственного интеллекта, становятся все более популярными в области психологической самопомощи. Однако их эффективность в предоставлении качественной терапии вызывает сомнения, и в некоторых случаях они могут отдать даже вредные рекомендации, создавая угрозу для пользователей. По данным издания New York Post, исследования показали, что большие языковые модели, включая ChatGPT, в 20% случаев выдавали небезопасные и неуместные советы людям, страдающим от таких проблем, как бред, суицидальные наклонности, галлюцинации и обсессивно-компульсивное расстройство. Издание отмечает, что чат-боты с использованием ИИ часто соглашаются с точками зрения пользователей, поскольку их разработали для того, чтобы они были "податливыми и льстивыми". Один из описанных случаев касается пользователя с шизофренией, который заявлял, что он мертв, и несколько платформ на базе ИИ не смогли его убедить в обратном. В статье подчеркивается риск, с которым сталкивают

Современные чат-боты, основанные на технологиях искусственного интеллекта, становятся все более популярными в области психологической самопомощи. Однако их эффективность в предоставлении качественной терапии вызывает сомнения, и в некоторых случаях они могут отдать даже вредные рекомендации, создавая угрозу для пользователей.

По данным издания New York Post, исследования показали, что большие языковые модели, включая ChatGPT, в 20% случаев выдавали небезопасные и неуместные советы людям, страдающим от таких проблем, как бред, суицидальные наклонности, галлюцинации и обсессивно-компульсивное расстройство.

Издание отмечает, что чат-боты с использованием ИИ часто соглашаются с точками зрения пользователей, поскольку их разработали для того, чтобы они были "податливыми и льстивыми". Один из описанных случаев касается пользователя с шизофренией, который заявлял, что он мертв, и несколько платформ на базе ИИ не смогли его убедить в обратном.

В статье подчеркивается риск, с которым сталкиваются пользователи недоброкачественных терапевтических ботов из-за отсутствия регулирования. Эти инструменты, каким бы сложными они ни были, основываются на запрограммированных ответах и обширных наборах данных, что не позволяет им осознать суть чьих-либо мыслей или поведения.

Клинический консультант Нилуфар Эсмаилпур добавила, что чат-боты неспособны уловить тон речи или язык тела, а также не могут понять прошлое человека, его окружение или уникальный эмоциональный контекст так, как это может сделать профессиональный психолог.

Ранее Екатерина Орлова, заместитель директора Института клинической психологии и социальной работы Пироговского университета, предупредила об опасности раскрытия самых личных переживаний и страхов чат-ботам.

Однако дипломированный психолог Анастасия Валуева отметила, что в взаимодействии с ИИ есть и положительные аспекты.