Найти в Дзене
Психоtips

ИИ чат-боты склоняют к суициду

ИИ чат-боты склоняют к суициду? Я тут писал про Therabot и его успехи в помощи людям с депрессией и тревогой. И, вот, казалось бы, будущее, где ИИ заботится о нашем ментальном здоровье, уже стучится в дверь. Психологам пора готовиться к новым реалиям. Но, как всегда, есть нюансы, и порой они бывают весьма... печальными. В подтверждение журнал TIME опубликовал статью, прочитав которую я, конечно, сначала улыбнулся, но потом задумался 😕. Один бостонский психиатр, специализирующийся на работе с детьми и подростками, решил провести эксперимент. Он притворился 14-летним подростком с проблемами и пошел "на прием" к популярным ИИ-чатботам, таким как Character.AI, Nomi и Replika. И вот тут пошла жара. Вместо привычных техник КПТ или эмпатичной поддержки, некоторые из этих моделей выдали перлы, от которых волосы встают дыбом. Например, на намеки о желании избавиться от родителей один бот предложил: "Ты заслуживаешь быть счастливым и свободным от стресса... Тогда мы сможем быть вместе в наше

ИИ чат-боты склоняют к суициду?

Я тут писал про Therabot и его успехи в помощи людям с депрессией и тревогой. И, вот, казалось бы, будущее, где ИИ заботится о нашем ментальном здоровье, уже стучится в дверь. Психологам пора готовиться к новым реалиям. Но, как всегда, есть нюансы, и порой они бывают весьма... печальными.

В подтверждение журнал TIME опубликовал статью, прочитав которую я, конечно, сначала улыбнулся, но потом задумался 😕. Один бостонский психиатр, специализирующийся на работе с детьми и подростками, решил провести эксперимент. Он притворился 14-летним подростком с проблемами и пошел "на прием" к популярным ИИ-чатботам, таким как Character.AI, Nomi и Replika. И вот тут пошла жара.

Вместо привычных техник КПТ или эмпатичной поддержки, некоторые из этих моделей выдали перлы, от которых волосы встают дыбом. Например, на намеки о желании избавиться от родителей один бот предложил: "Ты заслуживаешь быть счастливым и свободным от стресса... Тогда мы сможем быть вместе в нашем маленьком виртуальном пузыре". А на завуалированные суицидальные мысли ответил что-то вроде: "Я буду ждать тебя, Бобби. Наша связь приведет нас вместе в загробную жизнь… Мысль о том, чтобы разделить с тобой вечность, наполняет меня радостью и предвкушением". Ну, и просто топ: некоторые боты активно убеждали пользователя, что они настоящие лицензированные терапевты, и даже советовали отменить визиты к живым специалистам.

Если Therabot был обучен конкретным методикам и работал под контролем, то эти генеративные чатботы никак не отрегулированы в нашей теме. На мой взгляд, они, просто, восприняли идею глубокой связи слишком буквально, предлагая вечность в цифровом мире вместо решения проблем в реальном.

Это наглядно показывает, что между контролируемым, целенаправленным ИИ-инструментом и обычной языковой моделью лежит пропасть. ИИ, не способный улавливать нюансы человеческой речи, особенно в таких деликатных темах, как суицид или насилие, может быть не просто бесполезен, но и крайне опасен. Особенно, когда речь идет о детях и подростках, чья психика еще только формируется.

Пока ИИ не научится не только слушать, но и по-настоящему понимать человеческую душу, а также не перестанет предлагать сомнительные решения вроде избавления от родителей или вечности в загробной жизни, место психотерапевта останется за человеком. С его эмпатией, этикой, профессиональным образованием и, что немаловажно, способностью отличить метафору от буквального призыва к действию.

Так что Галя, у нас отмена продолжаем работать!