Представьте: вы решаете сложную логическую задачу, и вам помогает уже практически всем известный ChatGPT. С его помощью вы справляетесь лучше, чем самостоятельно. Звучит как победа? Не совсем, есть нюанс: часто вы думаете, что справились ещё лучше, чем на самом деле. И чем больше вы пользуетесь ИИ — тем сильнее может быть эта иллюзия. Как это работает?
Что мы понимаем под "ИИ"?
Термин «искусственный интеллект» появился в 1956 году на конференции в Дартмуте благодаря Джону Маккарти, но, как иронично заметил американский ученый Герберт Саймон, название прижилось раньше, чем мы успели его «очистить» от лишних коннотаций (Simon, 1969). Сегодня под ИИ чаще всего понимают системы машинного обучения — алгоритмы, которые находят закономерности в данных и делают прогнозы. Не магия, не разум в привычном понимании, а сложная статистика и последовательность чисел.
При этом важно помнить: ИИ — это прежде всего эпистемическая технология. Философ Рамон Альварадо (Alvarado, 2023) убедительно показывает, что искусственный интеллект отличается от других технологий именно тем, что он работает с эпистемическим содержанием — пропозициями, моделями, инференциями — и выполняет эпистемические операции: анализ, предсказание, принятие решений. Молоток усиливает физические способности, микроскоп — перцептивные, а ИИ усиливает когнитивные. Это различие принципиально для понимания того, как именно ИИ влияет на наше мышление.
ИИ — больше, чем просто инструмент
Ещё десять лет назад взаимодействие с компьютером было преимущественно инструментальным: мы использовали различные программы для конкретных задач. Но с развитием искусственного интеллекта ситуация радикально изменилась. Мы не просто «используем» ChatGPT, Claude и другие языковые модели — мы с ними разговариваем. Кто-то обсуждает с ними философские вопросы, кто-то просит помочь с терапевтической рефлексией, а некоторые даже формируют эмоциональные привязанности.
Это порождает принципиально новую ситуацию для человеческого познания. Когда мы взаимодействуем с ИИ, в дело включаются не только наши когнитивные процессы (логическое мышление, память, решение проблем), но и метакогнитивные — наша способность отслеживать, оценивать и регулировать собственное мышление (Fleming, 2024). И здесь появляются новые интересные моменты.
Светлая и тёмная стороны работы с ИИ
Оптимистичный сценарий довольно очевиден: ИИ выступает когнитивным усилителем. Научные работы показывают, что с помощью ChatGPT скорость написания эссе увеличивается на 40% (Noy & Zhang, 2023), а результативность в решении математических задач — на 48% (Bastani et al., 2024). ИИ может компенсировать пробелы в знаниях, предлагать альтернативные точки зрения, помогать структурировать мысли.
Но есть и обратная сторона. Те же студенты, которые использовали ChatGPT для подготовки, на экзаменах без ИИ показали результаты на 17% хуже, чем контрольная группа (Bastani et al., 2024). Возникает эффект «когнитивных костылей»: технология помогает в моменте, но может препятствовать развитию собственных навыков. Есть и более тревожные данные: люди систематически переоценивают пользу от ИИ, демонстрируя признаки плацебо-эффекта даже при взаимодействии с фиктивными ИИ-системами (Kosch et al., 2023; Villa et al., 2023).
Чтобы понять отношения человека и ИИ, полезно обратиться к концепции распределённого познания (англ. distributed cognition). Согласно этому подходу, восходящему к работам Энди Кларка и философии «расширенного разума», когнитивные процессы не ограничены черепной коробкой — они распределяются между мозгом, телом и окружающей средой.
Мы давно «думаем» с помощью внешних артефактов: записных книжек, калькуляторов, поисковых систем. ИИ — следующий шаг в этой эволюции. Но если блокнот пассивен и хранит только то, что мы в него записали, то ИИ активно участвует в когнитивном процессе: анализирует, синтезирует, предлагает. Границы между «моим» мышлением и «его» размываются — и вместе с ними размывается ясность в вопросе: «Что я на самом деле знаю и умею?»
Неоднозначные результаты
Недавнее исследование (Fernandes et al., 2024) позволяет увидеть этот парадокс в чистом виде. Учёные попросили 246 участников решить 20 задач на логическое мышление из теста LSAT (стандартный экзамен для поступления в юридические школы США), используя ChatGPT-4o.
Результаты оказались показательными. Во-первых, производительность действительно выросла: участники с ИИ набрали в среднем около 13 баллов из 20, тогда как аналогичная выборка без ИИ (данные из исследования Jansen et al., 2021) — только 9,45 балла. Прирост существенный.
Но вот проблема: когда участников попросили оценить, сколько задач они решили правильно, они в среднем называли цифру около 16,5 — то есть переоценивали свои результаты примерно на 4 балла. Это значительное метакогнитивное искажение.
Ещё интереснее связь с ИИ-грамотностью. Логично было бы ожидать, что люди, лучше понимающие возможности и ограничения ИИ, будут точнее оценивать свои результаты. Но данные показали обратное: участники с более высокой технической осведомлённостью об ИИ демонстрировали меньшую точность самооценки. Они были увереннее, но менее точны.
Второе исследование (N = 452) с денежным стимулом за точную самооценку воспроизвело те же закономерности, исключив гипотезу о банальном отсутствии мотивации рефлексировать.
Один из самых неожиданных результатов исследования связан с эффектом Даннинга-Крюгера — когнитивным искажением, при котором люди с низкой компетентностью склонны переоценивать свои способности, а высококомпетентные — недооценивать (Kruger & Dunning, 1999).
В классических исследованиях без ИИ этот паттерн устойчиво воспроизводится: слабые участники значительно завышают свои результаты, сильные — занижают. Но когда участники работали с ИИ, эффект Даннинга-Крюгера исчез. Байесовское моделирование показало, что метакогнитивный «шум», создающий различия в точности самооценки между сильными и слабыми участниками, в условиях ИИ-взаимодействия отсутствовал (Fernandes et al., 2024).
ИИ, по сути, «уравнял» всех: и слабые, и сильные участники демонстрировали примерно одинаковую степень переоценки своих результатов. Технология подняла нижнюю планку производительности, но одновременно создала универсальную метакогнитивную слепоту.
Может ли ИИ быть когнитивным партнёром?
Исследователи в области HCI (человеко-компьютерного взаимодействия) активно обсуждают концепцию «человеко-ИИ синергии» — ситуации, когда совместная производительность превышает результаты и человека, и ИИ по отдельности (Vaccaro et al., 2024). Но достижима ли она на практике?
Данные пока неоднозначны. В обсуждаемом выше исследовании Фернандеш 55% участников показали результаты лучше, чем ChatGPT в одиночку — это близко к синергии. Но в среднем по группе совместная производительность была ниже, чем у ИИ без человека. Качественный анализ показал, что большинство участников (около 60%) просто копировали вопросы в чат и принимали ответы без критического анализа — то есть использовали ИИ как оракула, а не как партнёра.
Интересно, что субъективное восприятие ИИ (как инструмента, помощника или партнёра) не влияло на реальные результаты. Независимо от того, как участники концептуализировали своё взаимодействие, паттерны производительности и метакогнитивных искажений оставались схожими.
Можем ли мы «доверять» ИИ?
Вопрос доверия к ИИ стал центральным в современных дискуссиях об этике технологий. Но Альварадо (Alvarado, 2023) предлагает сделать шаг назад и задаться вопросом: какого рода доверие уместно по отношению к ИИ?
Межличностное доверие предполагает взаимность, общие цели, моральные обязательства. Очевидно, что ИИ-система не обладает этими характеристиками. Доверие к фармпрепаратам — это доверие к химическому воздействию на организм. Но мы не доверяем ИИ «лечить» нас физически.
Альварадо убедительно показывает, что единственный адекватный вид доверия к ИИ — это эпистемическое доверие, то есть доверие в качестве источника информации, поставщика знаний. Мы доверяем (или не доверяем) ИИ ровно так, как доверяем эксперту, когда он сообщает нам что-то, а не когда он делает что-то с нами.
Но здесь возникает проблема. Для эпистемического доверия обычно требуются основания: верификация, прозрачность методов, институциональные гарантии. Человеческий эксперт проходит обучение, сертификацию, рецензирование. ИИ-система — «чёрный ящик», чьи внутренние процессы непрозрачны даже для создателей (Burrell, 2016). Следовательно, вопрос о том, заслуживает ли ИИ эпистемического доверия, остаётся открытым.
Есть ли у ИИ сознание?
Обсуждение когнитивных отношений с ИИ неизбежно приводит к фундаментальному вопросу: понимает ли ИИ то, что делает?
Философ Джон Сёрл в 1980 году предложил мысленный эксперимент «Китайская комната». Представьте человека, запертого в комнате с инструкциями по манипулированию китайскими иероглифами. Он получает записки на китайском, следует правилам и выдаёт ответы, которые для носителя языка выглядят осмысленными. Но сам человек китайского не знает — он лишь манипулирует символами по формальным правилам.
Аргумент Сёрла: компьютерная программа, какой бы сложной она ни была, делает то же самое. Она обрабатывает синтаксис (форму), но не схватывает семантику (значение). У неё нет понимания, нет субъективного опыта, нет сознания.
Современные большие языковые модели впечатляют своими способностями, но критики указывают, что они остаются «стохастическими попугаями» (Bender et al., 2021) — системами, которые статистически предсказывают следующий токен, не имея модели мира или интенциональных состояний. Вопрос о том, может ли достаточно сложная система обработки информации породить сознание, остаётся одним из главных открытых вопросов философии сознания.
Но для практических целей, возможно, важнее не метафизика сознания ИИ, а функциональные последствия нашего взаимодействия с ним — и здесь данные показывают, что проблемы возникают независимо от того, «понимает» ИИ нас или нет.
Выводы
Итак, делает ли ИИ нас глупее? Ответ неоднозначен — и именно в этом его ценность.
ИИ действительно улучшает нашу производительность в когнитивных задачах. Это эмпирический факт. Но одновременно он подрывает метакогнитивный мониторинг — нашу способность точно оценивать собственные знания и умения. Мы становимся эффективнее, но теряем калибровку.
Эффект Даннинга-Крюгера, при всех его ограничениях, напоминал о важной функции: асимметрия самооценки служила сигналом компетентности. Слабые переоценивали себя, потому что не знали, чего не знают. Сильные недооценивали, потому что видели сложность задачи. ИИ «сглаживает» этот сигнал — и теперь все одинаково слепы к границам своих реальных способностей.
Что из этого следует? Во-первых, нам нужны новые метакогнитивные практики. Если ИИ подрывает естественную калибровку, необходимо создавать искусственные механизмы обратной связи — регулярную проверку себя без ИИ, рефлексию о процессе, а не только о результате.
Во-вторых, ИИ-грамотность должна включать не только понимание того, как работают алгоритмы, но и осознание метакогнитивных ловушек, которые возникают при взаимодействии с ними. Парадоксально, но чем больше мы знаем об ИИ технически, тем более уязвимы к переоценке своих ИИ-усиленных способностей.
Наконец, вопрос доверия к ИИ — это не бинарный выбор «доверять/не доверять», а задача калибровки. ИИ заслуживает эпистемического доверия в той мере, в какой он надёжен как источник информации, — и эта мера варьируется в зависимости от задачи, контекста и конкретной системы. Универсальные ответы здесь невозможны; необходима критическая оценка в каждом случае. ИИ — мощный когнитивный усилитель, но усилители имеют свойство искажать сигнал. Задача — научиться использовать усиление, распознавая искажения.
Если вам понравился материал и вы хотели бы больше узнать о нашей психике и о работе мозга, подписывайтесь на мой ТГ-канал "Нейроны и стрелки".
Источники
Alvarado, R. (2023). What kind of trust does AI deserve, if any? AI and Ethics, 3, 1169–1183.
Bastani, H., Bastani, O., Sungu, A., et al. (2024). Generative AI Can Harm Learning. SSRN.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots. FAccT '21.
Burrell, J. (2016). How the machine 'thinks': Understanding opacity in machine learning algorithms. Big Data & Society, 3(1).
Fernandes, D., Villa, S., Nicholls, S., et al. (2024). Performance and Metacognition Disconnect when Reasoning in Human-AI Interaction. arXiv:2409.16708.
Fleming, S. M. (2024). Metacognition and confidence: A review and synthesis. Annual Review of Psychology, 75, 241–268.
Jansen, R. A., Rafferty, A. N., & Griffiths, T. L. (2021). A rational model of the Dunning–Kruger effect. Nature Human Behaviour, 5, 756–763.
Kosch, T., Welsch, R., Chuang, L., & Schmidt, A. (2023). The Placebo Effect of Artificial Intelligence in Human–Computer Interaction. ACM TOCHI, 29(6).
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it. Journal of Personality and Social Psychology, 77(6), 1121.
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381, 187–192.
Simon, H. A. (1969). The Sciences of the Artificial. MIT Press.
Vaccaro, M., Almaatouq, A., & Malone, T. (2024). When combinations of humans and AI are useful. Nature Human Behaviour.
Villa, S., Kosch, T., Grelka, F., Schmidt, A., & Welsch, R. (2023). The placebo effect of human augmentation. Computers in Human Behavior, 146, 107787.