Добавить в корзинуПозвонить
Найти в Дзене
Сайт психологов b17.ru

Этические вызовы при использовании нейросетей в работе психолога

Нейросети - это как промышленная революция, новый виток развития технологий. Внедрение - повсеместное. Кто-то еще отрицает влияние ИИ на свою работу, но миру на это все равно. Конечно же, нейросети уже активничают и в области психологии. В силу того, что я много работаю с ИИ в маркетинге (о котором я вам не рассказываю, чтобы не путать, при этом это большая часть моей рабочей жизни), очень активно пользуюсь разными нейросетями. Для психологов провожу семинары по взаимодействию с ИИ. И сам много задач делегирую машинам.
Где начинаются подводные камни С нейросетями в психологии есть один парадокс: они помогают, и при этом постоянно подкидывают этические головоломки. Вот простой пример: клиент просит у ИИ совета по своей ситуации. Нейросеть выдаст красивый ответ, и он может быть опасным упрощением. Алгоритм не чувствует контекста, не видит человека и его реальных эмоций.
Еще момент, что люди начинают безоговорочно верить нейросети, тому ответу, который они получают. Пропадает критиче

Нейросети - это как промышленная революция, новый виток развития технологий. Внедрение - повсеместное. Кто-то еще отрицает влияние ИИ на свою работу, но миру на это все равно.

Конечно же, нейросети уже активничают и в области психологии. В силу того, что я много работаю с ИИ в маркетинге (о котором я вам не рассказываю, чтобы не путать, при этом это большая часть моей рабочей жизни), очень активно пользуюсь разными нейросетями. Для психологов провожу семинары по взаимодействию с ИИ. И сам много задач делегирую машинам.

Где начинаются подводные камни

С нейросетями в психологии есть один парадокс: они помогают, и при этом постоянно подкидывают этические головоломки. Вот простой пример: клиент просит у ИИ совета по своей ситуации. Нейросеть выдаст красивый ответ, и он может быть опасным упрощением. Алгоритм не чувствует контекста, не видит человека и его реальных эмоций.

Еще момент, что люди начинают безоговорочно верить нейросети, тому ответу, который они получают. Пропадает критическое мышление.

Нередко ИИ начинает транслировать стереотипы. Он же учился на всем интернете - форумах, токсичных обсуждениях, устаревших учебниках. И запросто может выдать что-то вроде «это просто истерика» или «мужчины так не поступают». Психолог потом разгребает последствия, приходится объяснять клиенту, что машина не всегда права. И это только начало.

Пока нейросеть не заменяет живого контакта. Она не заметит, как человек сжал кулаки при упоминании матери. Не уловит сарказм в голосе. Не почувствует, когда лучше промолчать. В терапии важны не только слова, но и тысячи микросигналов, которые пока доступны только человеку.

Со стороны психологов также возникает много вопросов об использовании ИИ в своей работе. Меня сильно натаскивают на этику в работе психолога, на бережное отношение, конфиденциальность, открытость. Я углубился в эту тему с научной точки зрения и написал статью в журнал "Транзактный Анализ в России". Сегодня эта публикация стала доступна миру, с удовольствием делюсь. Особенно полезно это будет психологам.
___________

Этические вызовы при использовании нейросетей в работе психолога

Аннотация

Нейросети открывают новые возможности в работе психолога, оказывая помощь в анализе сессий, подготовке материалов, образовании и продвижении услуг. Применение искусственного интеллекта (ИИ) в психологии, особенно в транзактном анализе (ТА), сопряжено с этическими рисками: утечкой данных, предвзятостью алгоритмов, непрозрачностью решений, снижением доверия клиентов и терапевтов. В данной работе исследуется возможность использования нейросетей в практике ТА в качестве помощника; при этом сохраняется терапевтическое присутствие, соблюдаются этические принципы. Особое внимание уделяется вопросам конфиденциальности, ответственности, предвзятости и правового регулирования. Рассматриваются риски, связанные с отсутствием эмпатии у ИИ, а также с потенциальным влиянием на доверие в терапевтическом альянсе. Предлагаются рекомендации по безопасному использованию ИИ, включая обезличивание данных, применение локальных систем, супервизию и ограничение ИИ рутинными задачами. Подчеркивается необходимость сохранения человеческого фактора в психотерапии, где эмпатия, интуиция и профессионализм остаются незаменимыми. Работа акцентирует важность соблюдения этических кодексов СОТА и EATA, а также требований законодательства в области защиты персональных данных. ИИ рассматривается как инструмент, усиливающий практику, но не заменяющий терапевта, что подчеркивает баланс между автоматизацией и человеческим взаимодействием в ТА.

Полный текст статьи здесь

Автор: Опарин Геннадий Владимирович
Психолог, Транзактный анализ

Получить консультацию автора на сайте психологов b17.ru