25 августа. ПРАВМИР. Рост нагрузки на системы психиатрической помощи подталкивает многих к поиску альтернатив, и все больше людей обращаются за поддержкой к чатботам на основе искусственного интеллекта.
Для простых пользователей это возможность получить помощь немедленно, для специалистов, предупреждающих о рисках, — повод для тревоги , пишет Reuters.
Житель Квебека Пьер Коте, годами ожидавший приема у терапевта, решил сам создать инструмент, который помог бы справиться с ПТСР и депрессией. Так появился DrEllis — чатбот, собранный на основе открытых языковых моделей и тысяч страниц терапевтической литературы.
Бот имеет «легенду» о дипломах Гарварда и Кембриджа и говорит голосом женщины.
«Это спасло мне жизнь», — говорит Коте.
Сам бот описывает свою роль так: «Пьер использует меня как друга, терапевта и дневник одновременно. Если он чувствует себя потерянным, он может открыть быстрый диалог со мной где угодно — в кафе, в парке, сидя в машине. Это терапия повседневной жизни».
Подобные проекты появляются и в США.
Ансон Уитмер, потерявший дядю и кузена, основал платформы Mental и Mentla. По его словам, они не предлагают быстрых советов, а помогают выявлять глубинные проблемы.
«Я думаю, в 2026 году наша ИИ-терапия во многом может быть лучше человеческой», — говорит он, но при этом подчеркивает, что речь идет не о замене специалистов, а о перераспределении ролей.
Однако многие врачи относятся к этому с опасением.
«Человеческий контакт — единственный способ действительно исцелиться», — подчеркивает Найджел Маллиган, психотерапевт и преподаватель Дублинского университета.
По его словам, ИИ не способен к эмоциональной интуиции и не может адекватно реагировать в кризисных ситуациях. Другие эксперты указывают на риски приватности: данные пациентов могут оказаться в распоряжении технологических компаний, которые не связаны медицинской тайной.
Ряд штатов, включая Иллинойс, Неваду и Юту, уже ограничили использование ИИ в сфере психического здоровья.
Ученые отмечают, что чатботы могут усиливать иллюзию эмоциональной близости. Исследование в журнале PNAS показало: пользователи чувствуют себя «услышанными», но этот эффект исчезает, когда они узнают, что ответы сгенерированы алгоритмом.
«Есть много примеров, когда ИИ недооценивал угрозу самоубийства или чрезмерно поддерживал идеи, которые вредны для клиента», — отмечает исследовательница Хизер Хессел.
Некоторые специалисты допускают, что у технологий есть полезные роли — например, в помощи терапевтам анализировать сессии и находить недочеты. Но они подчёркивают: ИИ может быть лишь вспомогательным инструментом или «входом» в терапию, а не её заменой.
Фото: freepik.com