Найти в Дзене

Запрет на терапию ИИ: новая граница в борьбе за психическое здоровье

В эпоху, когда искусственный интеллект проникает во все сферы нашей жизни, от написания текстов до диагностики болезней, одна из самых чувствительных областей — психологическая помощь — сталкивается с серьезным нормативным сопротивлением. В то время как спрос на терапию растет, стоимость услуг психотерапевтов бывает достаточно высока, люди стали обращаться к услугам искусственного интеллекта. Несколько штатов США решили, что такой процесс очень рискован и в целях минимизации негативных последствий вели прямые запреты. Наиболее яркий пример — Небраска. В 2023 году законодатели этого штата приняли декрет, который прямо запрещает предоставлять лицензии на оказание психиатрической помощи любым лицам, не являющимся людьми. Закон был целенаправленно разработан, чтобы исключить возможность использования ИИ в качестве самостоятельного терапевта. Вслед за Небраской аналогичные инициативы, пусть и не всегда в форме прямого запрета, обсуждаются в других штатах, включая Массачусетс и Пенсильванию.
Оглавление
Изображение сгенерировано ИИ
Изображение сгенерировано ИИ

В эпоху, когда искусственный интеллект проникает во все сферы нашей жизни, от написания текстов до диагностики болезней, одна из самых чувствительных областей — психологическая помощь — сталкивается с серьезным нормативным сопротивлением. В то время как спрос на терапию растет, стоимость услуг психотерапевтов бывает достаточно высока, люди стали обращаться к услугам искусственного интеллекта. Несколько штатов США решили, что такой процесс очень рискован и в целях минимизации негативных последствий вели прямые запреты.

Где это произошло?

Наиболее яркий пример — Небраска. В 2023 году законодатели этого штата приняли декрет, который прямо запрещает предоставлять лицензии на оказание психиатрической помощи любым лицам, не являющимся людьми. Закон был целенаправленно разработан, чтобы исключить возможность использования ИИ в качестве самостоятельного терапевта.

Вслед за Небраской аналогичные инициативы, пусть и не всегда в форме прямого запрета, обсуждаются в других штатах, включая Массачусетс и Пенсильванию. Регуляторы на местах начинают внимательно изучать сервисы, предлагающие «терапию ИИ», на предмет соответствия существующим законам о медицинской практике, которые просто не предусматривают такого «специалиста».

Почему запрещают? Аргументы противников

За этими запретами стоят серьезные опасения, которые выходят за рамки простого techno-скептицизма.

  • Отсутствие эмпатии и человеческого контакта. Основа любой успешной терапии — терапевтические отношения доверия и взаимопонимания между клиентом и психологом. Можно ли построить такие отношения с алгоритмом, который, по сути, статистически предсказывает следующую реплику? Скептики утверждают, что нет. ИИ может симулировать сопереживание, но не чувствовать его.
  • Юридическая и этическая ответственность. Кто будет нести ответственность, если ИИ даст опасный совет человеку в состоянии глубокого кризиса? Например, если виртуальный ассистент не распознает суицидальные намерения или, напротив, усугубит их? Тем более, что такие случаи, к сожалению, уже имели место быть. Для живого терапевта есть лицензия, этический кодекс и суд. Для алгоритма ответственность размыта между разработчиком, платформой и пользователем, который принял «совет» машины.
  • Конфиденциальность данных. Разговоры с терапевтом — это самая интимная информация. Передавая ее ИИ, мы по умолчанию доверяем ее компании-разработчику, чьи политики конфиденциальности могут меняться, а сервера — становиться мишенью для хакеров.
  • Непредсказуемость и «галлюцинации». Известная проблема больших языковых моделей — склонность к «галлюцинациям», то есть генерации убедительной, но абсолютно ложной информации. В отдельных моментах такая ошибка может быть смешной, но в терапевтической сессии — катастрофической.

А есть ли другая сторона?

Сторонники использования ИИ в ментальном здоровье не спорят с рисками, но предлагают не запрещать, а регулировать. Они видят в технологиях не замену человеку, а инструмент для расширения доступа. ИИ может:

  • Обеспечить поддержку «первой помощи» в ночное время или в моменты, когда человек стесняется обратиться к живому врачу.
  • Помочь терапевту вести заметки, отслеживать динамику настроения пациента и выделять тревожные маркеры.
  • Сделать базовую когнитивно-поведенческую терапию доступной для тех, кто не может позволить себе традиционные сеансы.

Что дальше?

Запреты в Небраске и других штатах — это не конец истории, а лишь ее начало. Это сигнал рынку и разработчикам: прежде чем выпускать ИИ-терапевтов в мир, нужно решить фундаментальные вопросы безопасности, этики и ответственности. Идеальный сценарий будущего — не война человека и машины, а их сотрудничество, где ИИ берет на себя рутину и первичную поддержку, освобождая живых специалистов для самой сложной и глубокой работы. Но путь к этому будущему лежит через строгие правила и доказательства того, что технологии действительно могут приносить добро, а не вред, в особенности в такой хрупкой сфере, как человеческая психика.

#ИИвПсихологии #ПсихическоеЗдоровьеиТехнологии #ЭтикаИИ #РегулированиеИИ #ЦифроваяТерапия #Психология

А что вы думаете по поводу использования ИИ в психотерапии? Какие риски видите в этом? Нужен ли полный запрет? Заменит ли в дальнейшем ИИ работу терапевтов?