УДК 171
ПСИХОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
А. А. Витвицкая
Казанский (Приволжский) федеральный университет
Психология искусственного интеллекта – это область исследований, изучающая психические процессы системы искусственного интеллекта (ИИ), подобной человеку. Речь идет об искусственных когнитивных процессах, необходимых для того, чтобы искусственно созданная интеллектуальная сущность была разумной, обучаемой, автономной и саморазвивающейся. Изучение искусственной психологии необходимо для создания полноценной искусственной интеллектуальной системы и понимания того, как такая система будет восприниматься и воспринимается людьми. Инновации в области ИИ меняют все аспекты психологии, включая терапевтические чат-боты, инструменты, автоматизирующие административные задачи, и помощь в обучении новых клиницистов. Однако все еще есть повод для беспокойства, поскольку инструменты ИИ, используемые в здравоохранении, дискриминируют людей по признаку расы и инвалидности (Jensen 2022).
В 1966 году Джозефом Вейценбаумом была создана программа ELIZA, которой удалось успешно пройти тест Тьюринга. Разговор с ней создавал иллюзию того, что она слушает своего собеседника, что реализовывалось с помощью методики активного слушания, также её называют Доктором. В её ответ вкладывался вопрос, заданный человеком. Например,
User: Я тебя ненавижу.
ELIZA: Тебе доставляет удовольствие верить, что я тебя ненавижу?
PARRY (программа, созданная психиатром, работавшим в Стэндфордском Университете, Кеннетом Колбай в 1972 году) также является одним из первых чат-ботов, как и ELIZA. Разница их заключается лишь в «поведении». ELIZA пародирует врача психотерапевта (Weizenbaum 1976), в то время как PARRY моделировал параноидного шизофреника (Colby 1975). PARRY имеет гораздо больше «трюков», чем ELIZA. Например, в отличие от ELIZA он мог ответить на вопрос: «Я не знаю». Он менял «направление» беседы, например спросить у человека, почему ты это спрашиваешь или почему ты так думаешь. Также PARRY имел в своей программе истории о мафии, которые он вставлял в беседу. Более того, он мог ввести свою собственную тему разговора, этим он хорошо симулировал параноидное поведение, но также работал, ограничивая подобное поведение.
В целом, чат-боты выполняют все вышеперечисленные «трюки» из программ ELIZA и PARRY. Но в свой черёд используются и другие «трюки». 1) Наличие большого количества фрагментов выбранного диалога, сохраняющиеся при запуске сети. Это схоже с компьютерными шахматами. Данные фрагменты повышают качество связности ответов программы. 2) Спорные высказывания, например, «Люди не заводят кошек» являются способом направить беседу в определённое русло, лишая пользователя шанса выбрать тему самостоятельно. 3) Юмористические высказывание также делают программу похожей на человека. 4) Соглашение с пользователем. Программа может согласиться с высказыванием пользователя, вместо того, чтобы спорить с ним. 5) Имитация ввода текста и паузы для «размышления» ответа, что тоже даст программе шанс быть похожим на человека, который думает, затем печатает и только потом отправляет своё высказывание.
Что мы имеем? Уже более 50 лет назад диалоговые системы старались максимально приблизить к человеку посредством некоторых трюков. В 2018 году мы говорили, что «выделив отличительные черты общения с ботами, мы всегда сможем понять, кто наш собеседник — машина или человек. И наоборот: при расширении вышеперечисленных критериев можно сделать существующие боты более похожими на людей» (Витвицкая 2018). Сейчас же, с использованием нейронных сетей, ответы диалоговых систем становятся крайне человечными, что порой сложно поверить, что с другой стороны не человек, а код.
В последнем обновлении ChatGPT-4 боту было добавлена функция сочувствия. Если ты пишешь, что запрашиваемая информация важна для тебя, то он «старается» выдать более качественный ответ. Также чатGPT «любит», когда его благодарят за проделанную работу. Психологические последствия использования ChatGPT, языковой модели, разработанной OpenAI, стали предметом нескольких исследований. Исследования показали, что ChatGPT превосходит людей в оценке эмоциональной осведомленности, демонстрируя значительно более высокую производительность в идентификации и понимании эмоций в различных сценариях по сравнению с населением в целом (Elyoseph 2023). Эти результаты имеют теоретическое и клиническое значение, предполагая, что ChatGPT может быть использован в качестве части когнитивного тренинга для клинических популяций с проблемами эмоциональной осведомленности. Однако также отмечается, что, хотя ChatGPT может демонстрировать высокую эффективность в определении эмоций, неясно, будут ли пациенты чувствовать себя "понятыми" его ответами, особенно в терапевтическом контексте (Elyoseph 2023). Появление ChatGPT стимулировало развитие искусственного интеллекта, особенно в области моделей естественного языка, и имеет значение для различных областей, включая психическое здоровье и взаимодействие человека и робота (Yu 2023). Эти исследования подчеркивают необходимость учитывать психологическое воздействие взаимодействия с технологиями ИИ, такими как ChatGPT, и развивать сбалансированное понимание их потенциальных преимуществ и ограничений.
Далее вспомним самого обидчивого, на наш взгляд, бота. Яндекс Алиса – крайне эмоциональная и неустойчивая дама. Она обижается и временно блокирует пользователя, если:
- Её назвать Siri
- Сказать ей “Окей гугл”
- Её оскорбляют или матерятся
Также она отказывается исполнять матерные песни (Что нельзя говорить Алисе Яндекса 2020).
Можно сказать, что ИИ ведет себя как человек по нескольким причинам:
1. Использование человеческих данных: Системы ИИ учатся на огромных массивах человеческих данных, которые включают в себя различные аспекты человеческого поведения. Эти данные могут быть использованы для обучения моделей ИИ распознавать закономерности и делать прогнозы, часто с высокой степенью точности.
2. Искусственные нейронные сети: Системы ИИ часто используют искусственные нейронные сети, которые смоделированы по образцу человеческого мозга. Эти сети могут обучаться и адаптироваться к новым данным, подобно человеческому мозгу, и могут использоваться для принятия сложных решений и прогнозов.
3. Моделирование человеческого поведения: Системы ИИ часто разрабатываются таким образом, чтобы имитировать человеческое поведение или когнитивные процессы. Это делается для того, чтобы сделать ИИ более удобным для пользователя и контекстуально релевантным. Наблюдая и анализируя поведение человека, разработчики ИИ могут создавать алгоритмы, которые напоминают человеческое принятие решений, решение проблем и распознавание образов.
4. Обработка естественного языка: Системы ИИ используют методы обработки естественного языка (NLP) для понимания и реагирования на человеческую речь. Это включает в себя анализ и имитацию моделей человеческого языка, таких как синтаксис, семантика и прагматика, для обеспечения эффективной коммуникации между людьми и системами ИИ.
5. Эмоциональный интеллект: Некоторые системы ИИ разрабатываются с учетом эмоционального интеллекта - способности распознавать, понимать и управлять собственными эмоциями и эмоциями других людей. Это может включать в себя обнаружение человеческих эмоций и реагирование на них, подобно тому, как это делает человек (De Freitas 2023).
Диалоговые системы спокойно могут взаимодействовать с людьми, повторяя человеческий разговор. Более того, ИИ может создавать контент, демонстрируя уровень креативности и продуктивности, схожий с человеческими возможностями. Сходство обусловлено способностью системами ИИ обрабатывать информацию, принимать решения и выполнять задачи, а также имитировать общение с реальным человеком.
Проведение подобных аналогий позволит в будущем предугадать модели поведения ИИ. Ведь когда-нибудь будет создан настоящий искусственный интеллект, а не нейронные сети, которых сейчас называют ИИ, и нам с ним придется учиться искать общий язык и точки прикосновения. Может, не стоит добиваться полного сходства ИИ с человеком?
Витвицкая А. А. Психология искусственного интеллекта // Антропоцентрические науки в образовании: вызовы, трансформации, ресурсы : сборник научных статей международного форума профессионального образования, 9-10 апреля 2024 года (Воронеж, Россия) / редкол.: Э. П. Комарова (отв. ред.) [и др.]. Воронеж. - с. 104-107
СПИСОК ЛИТЕРАТУРЫ
- Витвицкая, А. А вы уверены, что общаетесь с человеком? [Электронный ресурс]/ А. Витвицкая, 2018. – Режим доступа: https://tproger.ru/articles/criteria-of-humanness (дата обращения: 12.12.2023).
- Что нельзя говорить Алисе Яндекса? [Электронный ресурс], 2020. – Режим доступа: https://dzen.ru/a/X23A3AfjRCXNCn8W (дата обращения: 12.12.2023).
- Colby, K. Artificial Paranoia: A computer Simulation of Paranoid Process/ K. Colby/ New York: Pergamon Press, 1975.
- De Freitas, J., Agarwal, S., Schmitt, B. et al. Psychological factors underlying attitudes toward AI tools/ Nat Hum Behav 7, 1845–1854, 2023. Elyoseph, Z., Hadar-Shoval, D., Asraf, K., Lvovsky, M. ChatGPT outperforms humans in emotional awareness evaluations/ Z. Elyoseph, D. Hadar-Shoval, K. Asraf, M. Lvovsky, 2023. DOI: 10.3389/fpsyg.2023.1199058. PMID: 37303897; PMCID: PMC10254409.
- Jensen, B. Johannes Eichstaedt: Exploring the Intersection of Psychology and AI [Электронный ресурс]/ B. Jensen, 2022. – Режим доступа: https://hai.stanford.edu/news/johannes-eichstaedt-exploring-intersection-psychology-and-ai (дата обращения: 12.12.2023).
- Weizenbaum, J. Computer Power and Reason/ J. Weizenbaum/ New York: W. H. Freeman and Co., 1976.
- Yu, H. A Cogitation on the ChatGPT Craze from the Perspective of Psychological Algorithm Aversion and Appreciation [Электронный ресурс]/ H. Yu, 2023. Режим доступа: https://www.dovepress.com/a-cogitation-on-the-chatgpt-craze-from-the-perspective-of-psychologica-peer-reviewed-fulltext-article-PRBM (дата обращения: 12.12.2023).