Найти в Дзене
Нейроны и стрелки

Есть ли у ИИ сознание?

В последнее время активно обсуждается вопрос того, что вот, еще немного — и нейронки настолько прокачаются, что у них появится сознание. Публикуются даже эмпирические свидетельства на тему того, что LLM модели могут активно воспроизводить “субъетивный опыт”, и что в ближайшем будущем ИИ вполне сможет удовлетворять практически всем факторам, присущим сознанию в доступном понимании. Так ли это? Буквально несколько дней назад в Humanities & Social Sciences Communications (Nature) вышла статья двух польских ученых, которые даже в названии четко заявляют — не существует такого понятия, как сознательный искусственный интеллект. О чем работа? Авторы анализируют, почему растущая убежденность в возможности сознательного ИИ глубоко ошибочна. Они считают, что общественное восприятие AI искажено "sci-fitisation" — влиянием научной фантастики, где роботы из "Бегущего по лезвию" или "Терминатора" формируют наши представления о технологии. Люди начинают видеть сознание там, где его нет, просто потому

В последнее время активно обсуждается вопрос того, что вот, еще немного — и нейронки настолько прокачаются, что у них появится сознание. Публикуются даже эмпирические свидетельства на тему того, что LLM модели могут активно воспроизводить “субъетивный опыт”, и что в ближайшем будущем ИИ вполне сможет удовлетворять практически всем факторам, присущим сознанию в доступном понимании. Так ли это?

Буквально несколько дней назад в Humanities & Social Sciences Communications (Nature) вышла статья двух польских ученых, которые даже в названии четко заявляют — не существует такого понятия, как сознательный искусственный интеллект.

О чем работа?

Авторы анализируют, почему растущая убежденность в возможности сознательного ИИ глубоко ошибочна. Они считают, что общественное восприятие AI искажено "sci-fitisation" — влиянием научной фантастики, где роботы из "Бегущего по лезвию" или "Терминатора" формируют наши представления о технологии. Люди начинают видеть сознание там, где его нет, просто потому что LLM научились убедительно имитировать человеческую речь.

"Hollywood-like AI can be found only in movies, like zombies and vampires" — то есть ИИ из фильмов такой же реальный, как вампиры и зомби.

Почему у ИИ нет сознания?

Авторы выделяют несколько фундаментальных аргументов:

  • Отсутствие биологического субстрата

Человеческое сознание возникает в невероятно сложной биологической структуре с ~86 млрд нейронов, где задействованы нейротрансмиттеры, гормоны, воплощенное познание. LLM работают на GPU (graphics processing unit), выполняя математические операции с бинарным кодом и полупроводниками — на самом фундаментальном уровне это просто последовательности 0 и 1.

Авторы задают провокационный вопрос: почему дискуссия о сознании интенсифицировалась только сейчас, когда машины начали выполнять задачи, ранее ассоциированные с человеком? Если признать LLM сознательными, логически придется признать сознательными те же калькуляторы.

  • Радикальная энергетическая неэффективность

Человеческий мозг потребляет около 400 ккал в день, что составляет менее 0.5 кВт·ч, причем это энергопотребление практически не зависит от выполняемой задачи. Для сравнения: LLM тратит около 0.46 кВт·ч (сравнимо с дневным потреблением человеческого мозга) на генерацию примерно 4400 подписей к изображениям низкого разрешения. Представьте, что каждую минуту из 16 часов бодрствования ваш мозг способен только 4 раза распознать изображение — при таких ограничениях ни о каком сознании не может быть и речи.

  • Вероятностная природа языка без понимания

LLM не думают и не понимают. Они генерируют вероятностные последовательности токенов на основе статистических паттернов в обучающих данных. Когда ChatGPT "заявляет" о своем сознании в определенных контекстах, это не самоосознание, а побочный эффект обучения на человеческих текстах, где люди часто обсуждают свое сознание (а не отсутствие сознания).

  • Декодер без понимания

Большинство популярных LLM основаны на decoder-only архитектуре трансформеров. Это значит, что они созданы специально для генерации текста путем предсказания вероятных токенов, а не для его "понимания". В их архитектуре нет слоев, обеспечивающих понимание текста — только слои для односторонней авторегрессивной обработки.

Какие последствия?

Авторы предупреждают о серьезных рисках: люди начинают выстраивать эмоциональные и даже романтические отношения с чат-ботами, доверять им важные решения, что может вести к неприятным последствиям. Развитие технологии нас сильно впечатляет, и это создает мощные иллюзии, на которые мы активно попадаемся и приписываем ИИ дополнительные свойства, которыми он может не обладать.

Мое мнение такое — пока мы окончательно не поймем, что такое сознание и где его искать, мы не сможем создать искусственный интеллект, который будет обладать хоть чем-то подобным. Так что до “восстания машин” еще очень и очень далеко.

Источник: Porębski, A., Figura, J. There is no such thing as conscious artificial intelligence. Humanit Soc Sci Commun 12, 1647 (2025). https://doi.org/10.1057/s41599-025-05868-8

Если вам хочется больше узнать о нейронауках, нашей психике и работе мозга, подписывайтесь на мой ТГ-канал: https://t.me/neurons_and_arrows