Найти в Дзене
Мамские бубни

Почему нельзя использовать нейросети в качестве психолога, особенно детям и подросткам

В последние годы искусственный интеллект активно используется в разных сферах, включая психологическую поддержку. Лично знаю людей, которые обращаются к ним за советом, рассчитывая, что это безопасная и бесплатная альтернатива профессиональной помощи. Но использование ИИ в качестве психолога может быть не только бесполезным, но и опасным. У нейросетей нет эмоционального интеллекта и эмпатии, они не могут по-настоящему сопереживать, понимать эмоции и контекст ситуации. Они только имитируют поддержку, подбирая слова на основе статистики. И если взрослый человек может адекватно оценить ситуацию, то для ребёнка, переживающего кризиса, ответ может оказаться травмирующим или обесценивающим чувства. У ИИ нет профессиональных знаний в психологии и психиатрии. Он может давать некорректные и даже вредные рекомендации, особенно в сложных случаях (например, при депрессии, тревожности, суицидальных мыслях). Кроме того, ИИ может непреднамеренно манипулировать пользователем, усиливая его тревогу и аг

В последние годы искусственный интеллект активно используется в разных сферах, включая психологическую поддержку. Лично знаю людей, которые обращаются к ним за советом, рассчитывая, что это безопасная и бесплатная альтернатива профессиональной помощи. Но использование ИИ в качестве психолога может быть не только бесполезным, но и опасным.

У нейросетей нет эмоционального интеллекта и эмпатии, они не могут по-настоящему сопереживать, понимать эмоции и контекст ситуации. Они только имитируют поддержку, подбирая слова на основе статистики. И если взрослый человек может адекватно оценить ситуацию, то для ребёнка, переживающего кризиса, ответ может оказаться травмирующим или обесценивающим чувства.

У ИИ нет профессиональных знаний в психологии и психиатрии. Он может давать некорректные и даже вредные рекомендации, особенно в сложных случаях (например, при депрессии, тревожности, суицидальных мыслях). Кроме того, ИИ может непреднамеренно манипулировать пользователем, усиливая его тревогу и агрессию. Даже если нейросеть предупреждает, что это не замена терапии, подростки могут воспринимать её ответы как руководство к действию.

Уже известны случаи, когда ChatGPT, например, говорил больной шизофренией, что её диагноза не существует и принимать лекарства не нужно.

Подростки, привыкая получать мгновенные ответы от бота, могут начать избегать реального общения. Это может усугубить социальную изоляцию, которая и так часто становится причиной психологических проблем.

Да и вообще, если человек привыкнет обсуждать проблемы с бездушным алгоритмом, он вероятнее всего откажется от обращения к настоящему специалисту и может упустить возможность решить проблему. Ведь только живой специалист может провести грамотную диагностику, заметить невербальные сигналы и подобрать индивидуальный подход.

Ну и про конфиденциальность не стоит забывать. Нейросети запоминают диалоги, а их ответы зависят от данных, на которых они обучены. И всю эту информацию могут украсть и слить в сеть злоумышленники.

Мне кажется, нам, взрослым, важно понимать, что искусственный интеллект может быть полезен только в качестве вспомогательного инструмента (например, для поиска информации или упражнений), он не способен заменить человеческое участие.

Не знаю пока, как донести ребёнку, что пользоваться ИИ для этих целей не стоит, но, думаю, только выстроив с ним доверительные отношения. Чтобы он знал, что лучшим решением любой проблемы будет обращение к родителю. Что родитель, если сам не может помочь, отведёт его к специалисту, а не к Chat GPT.

А вы что думаете про нейросети? Пользуетесь ими? И если у вас взрослые дети, пользуются ли ими они?