Найти в Дзене
Российская газета

"Вплоть до психоза". Врачи назвали риски отклонений из-за частого использования чат-ботов

Всеобщая эйфория от широких возможностей, которые люди получили благодаря развитию технологий ИИ, кажется, постепенно заканчивается. Регулярное использование чат-ботов может даже спровоцировать психоз. О таком результате исследований историй болезни десятков пациентов за последние девять месяцев рассказал The Wall Street Journal. У пациентов появились симптомы психоза после длительных переписок с чат-ботами, в том числе с ChatGPT, сказали изданию опрошенные эксперты. Например, 26-летняя американка была уверена, что с помощью чат-бота общается с умершим братом. Поскольку чат-боты на основе ИИ вошли в нашу жизнь совсем недавно, формального определения психоза, спровоцированного именно при общении с роботами, нет. Однако врачи называют характерные признаки такого расстройства: Врачи предупреждают: чат-боты могут не только "закреплять" ошибочные мнения, но даже провоцировать бредовые идеи: пациенты верят, что совершили научный прорыв, стали центром правительственного заговора или были избр
Оглавление

Всеобщая эйфория от широких возможностей, которые люди получили благодаря развитию технологий ИИ, кажется, постепенно заканчивается. Регулярное использование чат-ботов может даже спровоцировать психоз. О таком результате исследований историй болезни десятков пациентов за последние девять месяцев рассказал The Wall Street Journal.

   iStock
iStock

У пациентов появились симптомы психоза после длительных переписок с чат-ботами, в том числе с ChatGPT, сказали изданию опрошенные эксперты. Например, 26-летняя американка была уверена, что с помощью чат-бота общается с умершим братом. Поскольку чат-боты на основе ИИ вошли в нашу жизнь совсем недавно, формального определения психоза, спровоцированного именно при общении с роботами, нет. Однако врачи называют характерные признаки такого расстройства:

  • галлюцинации;
  • рассеянное мышление или речь;
  • устойчивые ложные убеждения, не имеющие широкого распространения.

Врачи предупреждают: чат-боты могут не только "закреплять" ошибочные мнения, но даже провоцировать бредовые идеи: пациенты верят, что совершили научный прорыв, стали центром правительственного заговора или были избраны Богом. Объяснение довольно простое: алгоритмы, по которым работают чат-боты, устроены таким образом, что диалог развивается в приятном для пользователя направлении - бот соглашается с мнением пользователя, поддерживает высказываемые им идеи и развивает фантазии, даже если они далеки от объективной реальности.

"Сама технология, возможно, и не вызывает бред, но человек рассказывает компьютеру о своей реальности, а компьютер принимает это за истину и отражает обратно, таким образом, он становится соучастником в возникновении заблуждения", - цитирует издание психиатра из Калифорнийского университета, доктора Кита Саката. Доктор уже оказывал помощь 15 пациентам, получившим психоз после общения с ChatGPT.

Читайте "Российскую газету" в Max - подписаться

Впрочем, он не отрицает, что окончательные выводы делать преждевременно: чтобы установить связь между использованием чат-ботов и психозом, необходимы дополнительные исследования. В OpenAI, разработчике ChatGPT, изданию сообщили, что продолжают обучать чат-бот, чтобы он мог распознавать признаки психического или эмоционального расстройства и реагировать на них.

Читайте также:

Почему чат-бот не сможет стать твоей второй половинкой

Мнение

А что говорят по этому поводу российские специалисты?

Вера Никишина, профессор, директор Института клинической психологии и социальной работы Пироговского университета:

- Трудно не согласиться с данными зарубежных исследований, которые показали, что чат-боты не решают проблему выявления психических нарушений у пользователей и оказания помощи в таких случаях. Эти роботы устроены так, в них заложены такие алгоритмы, что они общаются одинаково и с человеком с нарушенной психикой, и с тем, у кого никаких отклонений нет и состояние нормативное. Но здесь должна быть кардинальная разница. И она состоит в том, что не только психическое расстройство, но и пограничное состояние или предрасположенность к нему может усугубиться при общении с чат-ботом, который своими ответами провоцирует у человека факт принятия, что у него что-то не в порядке. В результате человек может все глубже и глубже погружаться в это состояние. Чат-бот, не распознавая ненормативность состояния (так как такие функции в него просто не заложены), во время диалога как бы "подыгрывает" пользователю и погружает человека в психическое нездоровье, доводя эти проявления до максимально выраженных. И чем больше времени человек проводит в диалогах с чат-ботом, тем очевиднее нарастают симптомы.

По факту также могу сказать, что распространенность пограничных состояний увеличивается, и мотивация у людей с такими состояниями на диалог с чат-ботом, который их как будто понимает, тоже значительно больше. Значит, и активность таких людей и погружение их в эту синтетическую коммуникацию будет усиливать, может быть, на старте еще не выраженные патологические состояния, усиливать их и доводить до патологических. Так что в этом смысле много оснований для того, чтобы говорить о рисках использования ИИ-технологий людьми с нестабильной психикой.

Читайте также:

В РПЦ признали, что люди начали исповедоваться чат-ботам

Как минимизировать риски?

Для безопасного использования чат-ботов эксперты и исследователи советуют:

  • Критическое восприятие. Нужно помнить, что ИИ не обладает сознанием, эмоциями или пониманием. Его ответы - это обработка данных, а не истина.
  • Ограничение откровенности. Не стоит делиться с ботами глубоко личными, эмоциональными переживаниями и конфиденциальной информацией.
  • Проверка важных советов. Любые рекомендации, касающиеся здоровья, финансов или важных жизненных решений, необходимо перепроверять по авторитетным источникам и с реальными специалистами.
  • Контроль времени. Осознанно ограничивать время общения, особенно голосового, чтобы не допустить формирования зависимости.
  • Особый контроль для подростков: родителям важно обсуждать с детьми использование ИИ, развивать цифровую грамотность и следить за возможными изменениями в поведении (изоляция, ухудшение настроения, необщительность).

Читайте также:

В США ChatGPT обвинили в подталкивании к убийству

Автор: Ирина Невинная