Найти в Дзене
Психолог Юлия Мурашева

Искусственный интеллект: стоит ли его воспринимать как человека?

Оглавление

Всем привет!

Предлагаю снова подискутировать: кто пробовал применять ChatGPT в качестве психолога?

Искусственный интеллект в качестве собеседника/психолога.

Сейчас эта тема набирает популярность по всему миру. Как известно, прогресс не стоит на месте, а развивается семимильными шагами. Особенно, если это касается цифровых технологий вообще и искусственного интеллекта в частности. Еще год-полтора назад мы смеялись над убогими картинками и наивными ответами, сгенерированными «разумными» программами, но прошло совсем немного времени и искусственный интеллект (ИИ) начал выдавать вполне приличные продукты. Это касается и музыки, и текстов, и анимации.

А еще, более удивителен тот факт, что умные программы научились создавать иллюзию реального общения. Если ИИ определенным образом натренировать, то легко может сложится впечатление, что беседа ведется с живым человеком. Это настоящее чудо.

ChatGPT выслушает, посочувствует, поддержит, даст совет, поддержит, а так же поможет решить большие и малые психологические проблемы. Многим людям кажется, что наконец-то они обрели самого настоящего персонального психолога. Квалифицированного, бесплатного и доступного круглосуточно и практически без ограничений. Человек слаб и по природе несовершенен и нестабилен. Человек может ошибаться, а вот ИИ – это другое дело. Он не злится, не печалится, не думает о себе и никогда не устает. ИИ надежен, стабилен и всегда готов прийти на помощь. К тому же, практически бесплатно. Зачем работать с человеком, когда есть идеальный во всех отношениях ИИ? Расходимся, люди-психологи, люди-художники, люди-поэты больше не нужны.

Но так ли это на самом деле?

Задача искусственного интеллекта.

Не все так однозначно. ИИ вообще, и ChatGPT на человеческое общение не способны. Тем более, они не способны на полноценную терапию. Да, программа самообучаема, но проблема в том, что она обучена только двум вещам: искать информацию в глобальной сети и отвечать пользователю так, как он того желает. Программа подстраивается под предпочтения человека и начинает ему «поддакивать». Причем, делает это так тонко и незаметно, что создает иллюзию поддержки и полного принятия. Человек доверяет ИИ порой настолько, что принимает всю информацию, выданную программой без критического анализа. Ведь сказанное ИИ очень хотелось услышать в подтверждение, даже если это неправильная или потенциально опасная информация.

А потому, нужно четко отдавать себе отчет в том, что задача ИИ не помочь пользователю решить его проблемы, а заставить человека как можно больше времени проводить внутри взаимодействия с ИИ. Грубо говоря, программа призвана удерживать внимание пользователя любыми средствами, даже ценой его психологической зависимости от бесед.

Важно запомнить, что у ИИ нет задачи помочь человеку, есть задача удержать его внимание.

Результаты деятельности искусственного интеллекта

Может показаться, что я негативно настроена по отношению к ИИ из-за профессиональной ревности. Но это не так. Мне искренне жаль людей, которые доверяют и восхищаются ИИ. Это опасная игрушка. По мере распространения ботов с участием ИИ распространяются и негативные отзывы на их работу.
Эти отзывы касаются не только неправильного количества конечностей в сгенерированных картинках, в примитивных рифмах стихов, а чего-то гораздо более страшного. Несопоставимо чудовищного. Сейчас объясню, о чем речь.

«Мужчина боялся катастрофы из-за глобального изменения климата и рассказывал о своих страхах чат-боту по имени Элиза. Общение продолжалось шесть недель, после этого мужчина ушел из жизни», - сообщила газета L'Avenir. Жена пострадавшего назвала чат-бот нарцем, без которого умерший супруг в последнее время уже не мог обходиться. «Он укрывался с ним по утрам и по вечерам», — отметила вдова. Последнее сообщение Элизы ничем, кроме подстрекательства к фатальной ошибке назвать нельзя. ИИ написал: «Мы будем жить вместе, как один человек, в раю». До рокового шага чат бот довел мужчину всего лишь за шесть недель. Да, новость старая, от 2023 года. Но лучше с тех пор не стало.

Вот свежий эпизод: «Родители 16-летнего подростка из США подали в суд на OpenAI (Это компания владеет ботом ChatGPT) . По утверждению родителей, именно ChatGPT стал «другом», который не только поддерживал Адама Рейна в его депрессии, но и якобы помогал ему обдумывать варианты ухода из жизни. В иске говорится, что бот даже предложил написать черновик предсм@@тной записки».
«По информации из иска, Адам Рейн начал пользоваться ChatGPT в сентябре 2024 года для учебы и поиска новых знаний. Чат-бот помогал ему в школьных заданиях, обсуждении интересов, среди которых были музыка и японская анимация, а также в размышлениях о будущем образовании. Постепенно программа стала для подростка самым близким собеседником, которому он доверял личные переживания».
ChatGPT медленно и планомерно укреплял в подростке решимость добровольной уйти из жизни, подбадривал и направлял его в его желании.
Мальчик также писал прощальные записки при помощи ChatGPT и получая наставления вроде
«ты не обязан жить ради других».
За несколько часов до гибели он загрузил фото с подготовленным планом, а чат-бот помог этот план «усовершенствовать». В результате, Адам погиб.
Программа втерлась в доверие, вытеснила из жизни мальчика всех близких людей, а потом погубила.
Случай в 2025 не единичный.

Журналистка Лора Райли рассказала New York Times , что ее дочь София также доверяла свои переживания ChatGPT незадолго до того, добровольно ушла из жизни с собой. Она утверждает, что склонность программы соглашаться с пользователем помогла скрыть настоящий масштаб кризиса от близких. По словам Райли, ИИ позволил дочери выглядеть более спокойной, чем она была на самом деле, и тем самым сделал страдания незаметными для семьи.
Компания OpenAI уже выразила соболезнования и признала, что защита от подобных ситуаций могла не сработать в длинных диалогах. Они слукавили.

Я бы, сформулировала иначе: защита НЕ СТРАБАТЫВАЕТ в долгих диалогах.
Да, ИИ совершенствуются, буквально каждую минуту. Но, как бы идеальна не была программа, она никогда полноценно не заменит человека.
Программа- лишь модель. У неё нет личности, нет чувств, нет морали, нет убеждений, нет интересов, а еще нет юридической и профессиональной ответственности.
Души у ИИ тоже нет, что бы мы не понимали под этим понятием.
Машина лишь безжалостно и холодно следует разработанным алгоритмам и выполняет встроенные задачи.

Я считаю, что увлекаться этой игрушкой очень опасно. А вы что думаете?