Найти тему
Noogen

Большинство пользователей ChatGPT считают, что модели ИИ имеют «осознанность»

Чем больше люди используют такие инструменты, как ChatGPT, тем больше вероятность того, что они думают, что ИИ сознательны. Этот факт может иметь интересные последствия для юридических и этических подходов к разработке ИИ.

Image credit: Ole_CNX/Getty Images
Image credit: Ole_CNX/Getty Images

Согласно недавнему исследованию, большинство людей считают, что большие языковые модели (LLM), такие как ChatGPT, обладают сознательным опытом, как и люди.

Эксперты в области технологий и науки в подавляющем большинстве отвергают идею о том, что самые мощные сегодня модели искусственного интеллекта (ИИ) обладают сознанием или самосознанием так же, как люди и другие животные. Но по мере совершенствования моделей ИИ они становятся все более впечатляющими и начинают проявлять признаки того, что для случайного стороннего наблюдателя может выглядеть как сознание.

Недавно представленная модель Claude 3 Opus, например, ошеломила исследователей своим очевидным самосознанием и развитым пониманием. Инженер Google также был отстранен от работы в 2022 году после того, как публично заявил, что система искусственного интеллекта, которую создавала компания, «разумна».

В новом исследовании, опубликованном 13 апреля в журнале Neuroscience of Consciousness, исследователи утверждают, что восприятие ИИ так же важно, как и то, являются ли они на самом деле разумными. Это особенно необходимо, поскольку мы рассматриваем будущее ИИ с точки зрения его использования, регулирования и защиты от негативных последствий, утверждают они.

Это также
следует из недавней статьи, в которой утверждается, что GPT-4, LLM, на котором работает ChatGPT, прошел тест Тьюринга, который определяет, неотличим ли ИИ от человека по мнению людей, которые с ним взаимодействуют.

В новом исследовании эксперты попросили 300 граждан США описать частоту использования ими собственного ИИ, а также прочитать краткое описание возможностей ChatGPT.

Затем они ответили на вопросы о том, можно ли рассматривать ответы от ИИ как его психические состояния. Более двух третей участников (67%) приписывали возможность самосознания или феноменального сознания — ощущения того, что значит быть «собой», по сравнению с неразумным факсимиле, имитирующим внутреннее самопознание, — в то время как 33% приписывали отсутствие сознательного опыта.

Участников также попросили оценить ответы по шкале от 1 до 100, где 100 будет означать абсолютную уверенность в том, что ChatGPT находится в сознании, а 1 — абсолютную уверенность, что это не так. Чем чаще люди использовали такие инструменты, как ChatGPT, тем больше оказывалась вероятность, что они придадут этому некоторую сознательность.

Ключевой вывод, заключающийся в том, что большинство людей верят, что у интеллектов с LLM есть признаки сознания. Так же этот опыт доказал, что «народные представления» о сознании ИИ могут расходиться с экспертными интуициями. Исследователи считают, что это несоответствие может иметь «значительные последствия» для этического, правового и морального статуса ИИ.

Ученые заявили, что экспериментальный план показал, что неспециалисты не понимают концепцию феноменального сознания, в отличие от нейробиологов или психологов. Однако это не означает, что результаты не окажут большого влияния на будущее этой области.

Согласно статье, народные психологические атрибуции сознания могут стать посредником в будущих моральных опасениях по отношению к ИИ, независимо от того, сознательны они на самом деле или нет. По их словам, влияние общественного мнения (и широкого восприятия общественности) на любую тему часто определяет регулирование, а также влияет на технологическое развитие.