Чем больше люди используют такие инструменты, как ChatGPT, тем больше вероятность того, что они думают, что ИИ сознательны. Этот факт может иметь интересные последствия для юридических и этических подходов к разработке ИИ.
Согласно недавнему исследованию, большинство людей считают, что большие языковые модели (LLM), такие как ChatGPT, обладают сознательным опытом, как и люди.
Эксперты в области технологий и науки в подавляющем большинстве отвергают идею о том, что самые мощные сегодня модели искусственного интеллекта (ИИ) обладают сознанием или самосознанием так же, как люди и другие животные. Но по мере совершенствования моделей ИИ они становятся все более впечатляющими и начинают проявлять признаки того, что для случайного стороннего наблюдателя может выглядеть как сознание.
Недавно представленная модель Claude 3 Opus, например, ошеломила исследователей своим очевидным самосознанием и развитым пониманием. Инженер Google также был отстранен от работы в 2022 году после того, как публично заявил, что система искусственного интеллекта, которую создавала компания, «разумна».
В новом исследовании, опубликованном 13 апреля в журнале Neuroscience of Consciousness, исследователи утверждают, что восприятие ИИ так же важно, как и то, являются ли они на самом деле разумными. Это особенно необходимо, поскольку мы рассматриваем будущее ИИ с точки зрения его использования, регулирования и защиты от негативных последствий, утверждают они.
Это также следует из недавней статьи, в которой утверждается, что GPT-4, LLM, на котором работает ChatGPT, прошел тест Тьюринга, который определяет, неотличим ли ИИ от человека по мнению людей, которые с ним взаимодействуют.
В новом исследовании эксперты попросили 300 граждан США описать частоту использования ими собственного ИИ, а также прочитать краткое описание возможностей ChatGPT.
Затем они ответили на вопросы о том, можно ли рассматривать ответы от ИИ как его психические состояния. Более двух третей участников (67%) приписывали возможность самосознания или феноменального сознания — ощущения того, что значит быть «собой», по сравнению с неразумным факсимиле, имитирующим внутреннее самопознание, — в то время как 33% приписывали отсутствие сознательного опыта.
Участников также попросили оценить ответы по шкале от 1 до 100, где 100 будет означать абсолютную уверенность в том, что ChatGPT находится в сознании, а 1 — абсолютную уверенность, что это не так. Чем чаще люди использовали такие инструменты, как ChatGPT, тем больше оказывалась вероятность, что они придадут этому некоторую сознательность.
Ключевой вывод, заключающийся в том, что большинство людей верят, что у интеллектов с LLM есть признаки сознания. Так же этот опыт доказал, что «народные представления» о сознании ИИ могут расходиться с экспертными интуициями. Исследователи считают, что это несоответствие может иметь «значительные последствия» для этического, правового и морального статуса ИИ.
Ученые заявили, что экспериментальный план показал, что неспециалисты не понимают концепцию феноменального сознания, в отличие от нейробиологов или психологов. Однако это не означает, что результаты не окажут большого влияния на будущее этой области.
Согласно статье, народные психологические атрибуции сознания могут стать посредником в будущих моральных опасениях по отношению к ИИ, независимо от того, сознательны они на самом деле или нет. По их словам, влияние общественного мнения (и широкого восприятия общественности) на любую тему часто определяет регулирование, а также влияет на технологическое развитие.