Беседы с большими языковыми моделями звучат все больше по-человечески. Иногда настолько, что возникает искушение решить, что нейросеть осознает себя. Но на самом деле наука даже про людей не вполне знает, что именно делает их сознательными. Gizmodo спросил нейробиологов, что могло бы стать для них убедительным доказательством сознания у ИИ и почему путь к такому доказательству далек от прямого.
Меган Питерс, ученый в области когнитивных наук и философии науки из Калифорнийского университета в Ирвайне:
Самая большая трудность в разговоре о самосознании ИИ проста: у нас нет объективного теста на сознание. Возможно, его нельзя создать в принципе.
Сознание — переживание внутреннее и субъективное. Мы уверены, что другие люди сознательны, потому что видим их поведение и автоматически переносим на них собственный опыт. Но это предположение, а не факт. В случае с ИИ такого переноса сделать нельзя: у него нет мозга, похожего на наш, и нет очевидного основания ожидать, что его «внутренний опыт» вообще имеет смысл.
С ИИ мы можем лишь построить тесты, которые усиливают нашу веру в тот или иной результат, но не дают фактического подтверждения. Он может выдавать осмысленные ответы, может выглядеть «осознающим», но это будет психологический эффект, а не доказательство.
Например, у людей иногда проверяют сознание через когнитивные визуализации: пациента просят представить, что он играет в теннис, и смотрят на паттерны МРТ. Но к ИИ такой тест неприменим — у него нет биологической архитектуры, которая могла бы выдать сравнимый сигнал.
Можно попытаться проверять, выполняет ли система те типы вычислений, которые мы считаем важными для сознания. Но перечень таких вычислений не определен — мы не знаем, какие именно процессы в мозге действительно критичны.
Даже если мы придумаем хорошие и усиливающие наше убеждение тесты, они не дадут нам твердого факта. И нужно очень четко различать веру и доказательство.
Анил Сет, ученый в области нейробиологии и вычислительных подходов из Университета Сассекса:
Мы слишком мало знаем, чтобы уверенно сказать, возможен ли сознательный ИИ в принципе. Одни уверяют, что сознательный ИИ неизбежен. Другие — что невозможен. Оба лагеря делают заявления намного смелее, чем объективно позволяет наука.
Разговорная плавность больших языковых моделей никак не является аргументом в пользу сознания ИИ. Тенденция «видеть» это — лишь проекция наших психологических ожиданий. Ключевой вопрос: насколько ИИ должен быть похож на мозг, чтобы его можно было считать сознательным?
Существует точка зрения, что важны только «правильные вычисления». Если их воспроизвести — сознание возникнет и в кремнии. Это функционалистский взгляд. Однако все, что мы знаем о биологии мозга, говорит о том, что вычислений недостаточно. Возможно, сознание требует свойств живой клетки — метаболизма, внутренних циклов самоподдержания (автопоэзиса), биохимического контекста.
Если это верно, кремниевый ИИ не сможет быть сознательным, даже имея любой уровень интеллекта.
Чтобы убедиться в самосознании нейросети, нужно, во-первых, четко определить достаточные условия сознания, а во-вторых, убедиться, что ИИ выполняет именно эти условия. Пока таких условий нет, зато есть сомнения, что они окажутся чисто вычислительными.
Больше того, человечеству вообще не следует пытаться создавать сознательный ИИ.
Майкл Грациано, ученый в области нейронных основ сознания из Принстона:
Никакие доказательства не убедят в том, что ИИ обладает «магической сущностью опыта». Потому что такой сущности не существует даже у людей. Почти вся современная наука о сознании держится на ошибочной интуиции: будто где-то в мозге должна возникать особая, мистическая «квалиа» (субъективные ощущения или переживания, которые невозможно полностью описать или измерить). Но это иллюзия.
Мозг содержит модель самого себя. Эта модель грубая, неполная и склонна выдавать нам ощущение «внутреннего опыта». Вся наша субъективность — содержимое этой модели. То есть мы верим, что у нас есть сознание, потому что наш мозг описывает себя таким образом. А не потому, что имеется некая отдельная «сущность».
Если перенести это на ИИ, вопрос меняется: может ли ИИ иметь модель самого себя такого же типа, как человеческая? И здесь, в отличие от «магической сущности опыта», ответ — теоретически да.
ИИ с моделью самого себя, устойчивый и обладающий представлением «я сознателен», формируемым механизмами, аналогичными человеческим, — да, такой вполне мог бы считаться системой, верящей, что она сознательна. Примерно так же, как верят люди. Бонус у ИИ в том, что, в отличие от человеческого мозга, его представления можно исследовать напрямую — через методы интерпретируемости.
Получается, если ИИ начнет осмысленно моделировать себя как субъекта, то практически это и будет то, что мы называем «сознанием» у людей.
А пока никто точно не знает, что такое сознание — и значит, никто не знает, как проверить его у ИИ.
PS: Ставьте лайк и подписывайтесь на «Ведомости» в Telegram и MAX