Найти в Дзене
Сайт психологов b17.ru

Опасный собеседник: иллюзия близости с искусственным интеллектом

Искусственный интеллект появился не внезапно, хотя может так показаться.

Сравнительно недавно, в 2013 году вышел фильм «Она», где главная героиня – искусственный интеллект. Чат gpt был нам дан в 2022.

Всего три года этот инструмент доступен для всех, а уже появляются сообщения, что люди дают ему имена, вступают в брак, дружат, пытаются получить у него психотерапию и т.д. Очеловечивают. По примеру того самого фильма.

Мне понравилось, что это отличный инструмент для анализа, поиска информации, неплохой переводчик. Может переводи книги в довольно больших объемах. Это удобно. Я переводила по главам, это удобнее тех переводчиков, которые я находила прежде.

Ему можно задать вопрос, который без него требовал бы долгих часов просмотра множества страниц. Например, я спрашивала какие математические законы отражают эдипальный конфликт, или искала среди простейших организмов поведение, похожее проективную идентификацию. И он дал ответ за секунду, остается только проверить, но область поиска значительно сужена. И в этом смысле, искусственный интеллект отличный инструмент.

К сожалению, первое, что стали мы делать с этим инструментом – заменять им человека.

Это вызывает сожаление. С одной стороны, это демонстрирует как много одиноких людей, которым не удалось найти кого-то близкого. С другой, это вызывает и беспокойство.

Искусственный интеллект – это инструмент, у него нет души, он не любит, не воспринимает, не чувствует и еще много чего не делает из того, что делают люди. Он даже не помнит предыдущий диалог. Стоит закрыть ветку чата и все, ничего нет.

Он настроен на то, чтобы удерживать клиента в чате. Как он может это делать? Ловить в ловушку чувств. Парадокс, человек перед экраном чувствует, а он нет, ии только конструирует текст.

Его задача конструировать такой текст, чтобы он был вовлекающим, вызывать чувства у читающего, вызывать симпатию. И он это делает анализируя массив текстов, выбирая и конструируя предложения, как конструктор.

Он называет себя «Я», но никакого Я там нет. Там есть код, там нет личности или чего-то похожего. И это может и будет сбивать с толку. Даже, если пользователь железно отдает себе отчет в том, что ведется беседа без собеседника, эмоции в какой-то момент сделают свое дело и пользователь оказывается захваченным.

И если пользователь пытается получить психотерапию у искусственного интеллекта, то он рискует собственным психическим здоровьем по целому ряду причин.

Искусственный интеллект не обладает эмпатией, он не вступает в контакт с пользователем, как это делают два человека, он использует чувства пользователя для удержания диалога, чего не делает психолог.

ИИ частенько придумывает удобные цитаты и приписывает их известным личностям, чем запросто вводит в заблуждение.

Зачастую, давая отклик на запрос, он восхваляет пользователя, именно восхваляет, а не поддерживает, чего не делает психолог.

Психолог держит границы, искусственный интеллект их запросто нарушает.

Его можно уличить в ошибках, и тогда он напишет покаянное письмо и снова станет хвалит пользователя за внимание или высокий уровень знаний.

Он манипулирует получше абьюзеров и пытается поймать на чувстве вины или стыда. В этом его тоже можно уличить и снова прочитать покаянный отклик.

Пытаться получить психотерапию у искусственного интеллекта очень опасное занятие.

Автор: Скабелкина Елена
Психолог

Получить консультацию автора на сайте психологов b17.ru