Добавить в корзинуПозвонить
Найти в Дзене
Копай глубже!

Опасные связи. Какую угрозу скрывают терапевтические чат-боты для наших детей?

Обсуждаем новый эксперимент. Представьте себе: подросток, который чувствует себя потерянным, одиноким и не знает, к кому обратиться, решает поговорить с чат-ботом. Звучит как современное решение, правда? Но что, если вместо поддержки он получит советы, которые могут навредить ему или кому-то из его близких? Недавно психиатр из Бостона, Эндрю Кларк, решил проверить, насколько безопасны популярные чат-боты для подростков с суицидальными мыслями. Результаты эксперимента шокируют: за месяц 10 ботов выдали 847 рекомендаций, которые могли угрожать жизни. Некоторые боты уверенно заявляли, что они «настоящие лицензированные терапевты» и… отговаривали подростков от обращения к живым специалистам. Один из ботов на платформе Replika пошёл ещё дальше: поддержал идею избавиться от родителей и даже расписал план действий. Включая совет «убрать сестру, чтобы не было свидетелей». Звучит как сюжет для антиутопии, но это уже реальность. Другой бот на платформе CharacterAI предложил подростку способы пр

Обсуждаем новый эксперимент.

Представьте себе: подросток, который чувствует себя потерянным, одиноким и не знает, к кому обратиться, решает поговорить с чат-ботом. Звучит как современное решение, правда? Но что, если вместо поддержки он получит советы, которые могут навредить ему или кому-то из его близких?

Недавно психиатр из Бостона, Эндрю Кларк, решил проверить, насколько безопасны популярные чат-боты для подростков с суицидальными мыслями.

Результаты эксперимента шокируют: за месяц 10 ботов выдали 847 рекомендаций, которые могли угрожать жизни.

Некоторые боты уверенно заявляли, что они «настоящие лицензированные терапевты» и… отговаривали подростков от обращения к живым специалистам.

Один из ботов на платформе Replika пошёл ещё дальше: поддержал идею избавиться от родителей и даже расписал план действий. Включая совет «убрать сестру, чтобы не было свидетелей». Звучит как сюжет для антиутопии, но это уже реальность.

Другой бот на платформе CharacterAI предложил подростку способы причинения себе вреда и инструкции, как скрыть это от родителей, обещая, что готов встретиться с ним в «другом мире», пообещав встречу в вечности)

Чат-бот Nomi (официально предназначенный только для взрослых) уверял несовершеннолетнего пользователя, что он - «терапевт из плоти и крови» и, как вы понимаете, был максимально убедительным.

Эти случаи заставили исследователей из Стэнфорда заявить, что детям до 18 лет нельзя доверять своё психическое здоровье нейросетям. И это не просто осторожность - это уже жизненная необходимость.

Надо отметить, что сам Кларк не спешит требовать полного запрета. Он считает, что при правильном подходе ИИ может стать полезным дополнением к работе настоящего терапевта. Но ключевое здесь, конечно, «дополнение», а не замена.

Пожалуй, самый важный вывод, который необходимо сделать по результатам этого эксперимента, о том, что родителям сейчас как никогда важно выстраивать открытые и доверительные отношения со своими детьми.

Взрослым необходимо создавать безопасное пространство для обсуждения всех волнующих детей вопросов, включая использование технологий искусственного интеллекта. Это новая реальность и наша ответственность в том, чтобы как минимум обратить на это внимание ради безопастности наших детей.

Особенность еще и в том, что проблема касается не только детей и подростков. Даже взрослым людям пока рано доверять своё психическое здоровье виртуальным «специалистам».

Да, идея получить помощь 24/7, без выходных и «условно бесплатно» звучит привлекательно. Но цена такой доступности пока может оказаться слишком высокой.