Как генеративный ИИ влияет на критическое мышление: новые исследования и важные выводы
Переведено, но не озвучено командой LearnMore.tech с сайта https://www.fastcompany.com/
Новое научное исследование предупреждает: неправильное использование ИИ может подорвать наши навыки критического мышления. Исследователи из Microsoft и Университета Карнеги-Меллона выяснили, что чем больше люди полагаются на ИИ без проверки его решений, тем меньше когнитивных усилий они прикладывают к работе. Проще говоря: если мы слепо доверяем ИИ, он может сделать нас глупее.
ИИ может развивать мышление — если использовать его правильно
По словам Льва Танкелевича, старшего исследователя Microsoft и соавтора исследования, ИИ способен анализировать данные, усиливать логику и помогать видеть нестандартные решения. Однако, чтобы получить эти преимущества, нужно относиться к ИИ как к партнёру в размышлениях, а не просто как к удобному инструменту.
Многое зависит от интерфейсов ИИ-систем: если они поощряют пользователя к проверке информации и самостоятельному анализу, ИИ может стать помощником в развитии критического мышления. Если же они делают процесс слишком лёгким и «бесшовным», есть риск, что люди начнут воспринимать результаты работы ИИ как истину в последней инстанции.
От «исполнителя задач» к «управляющему процессами»
Исследование, в котором приняли участие 319 специалистов, показало любопытный парадокс:
Чем выше доверие к ИИ, тем меньше критического мышления при проверке его ответов.
Но чем увереннее человек в своих собственных знаниях, тем более критично он оценивает работу ИИ.
Многие пользователи считают, что если задача простая, то ИИ справится сам. Один из участников эксперимента признался: «Это несложная задача, и я знал, что ChatGPT справится без проблем, поэтому даже не задумывался».
Это меняет саму природу работы. Теперь люди не просто выполняют задачи, а становятся управляющими процессами, контролируя, корректируя и принимая решения на основе ИИ-генерации. По мнению Танкелевича, специалистам нужно активно проверять, направлять и корректировать работу ИИ, а не просто принимать первый полученный результат.
Основная проблема: недостаток знаний для проверки ИИ
Исследование также выявило, что многие специалисты не могут критически оценивать ИИ-ответы, потому что у них недостаточно знаний в данной области. Даже если они подозревают, что результат может быть ошибочным, они не всегда понимают, как его исправить.
Это особенно актуально в технических сферах — например, в программировании, анализе данных или финансах. Если ИИ генерирует код или финансовый отчёт, но делает это с ошибками, человек без глубокой экспертизы может просто не заметить проблему.
Когнитивная лень и парадокс «разгрузки мозга»
Чрезмерное доверие ИИ приводит к эффекту, который называют когнитивным разгружением. Это явление не новое: люди давно передают часть умственных задач технологиям — калькуляторам, GPS, автоисправлению в текстах. В целом это помогает освободить мозг для более сложных задач.
Но с генеративным ИИ есть нюанс:
Он создаёт сложные тексты, код и аналитику, поэтому люди могут слепо доверять результатам.
Если задача кажется несущественной, проверять её критически просто не хочется.
Танкелевич отмечает: когда люди считают, что задание «не важное», они намного реже перепроверяют результат. Это может привести к тому, что ошибки ИИ будут накапливаться и внедряться в рабочие процессы без осмысления.
Роль интерфейсов: как UX может повлиять на критическое мышление
Исследование подчёркивает, что разработчики ИИ должны создавать интерфейсы, которые стимулируют пользователей к проверке информации. Например:
Показывать обоснование выводов ИИ (почему именно этот ответ).
Добавлять оценку достоверности и альтернативные версии решений.
Включать механизмы, которые побуждают пользователя задуматься, а не просто принять ответ.
Такие подходы уже тестируются. Например, в Perplexity AI используются визуальные подсказки, показывающие логику рассуждений ИИ. Если пользователи видят, какие шаги привели к конкретному ответу, они чаще включают критическое мышление.
Идеальный ИИ-интерфейс должен работать как команда из двух людей, где одна сторона предлагает варианты, а вторая — оценивает, критикует и уточняет.
Часть людей действительно станет глупее
Исследование поднимает важный вопрос о будущем человеческого интеллекта. Если люди станут пассивными потребителями контента, сгенерированного ИИ, их критическое мышление будет ослабевать.
Но если использовать ИИ как инструмент для размышлений, он может улучшить процессы обучения и принятия решений.
Танкелевич приводит реальные примеры:
В Нигерии школьники, обучавшиеся с помощью ИИ-тренеров, за шесть недель показали прогресс в два года.
Исследования показывают, что студенты, использующие ИИ под руководством преподавателей, лучше осваивают материал.
В науке ИИ уже активно помогает исследователям выдвигать гипотезы и находить закономерности, но итоговая проверка всегда остаётся за человеком. Лучшие результаты получаются там, где человеческий контроль остаётся центральным.
Главное: не технологии определят наше будущее, а то, как мы их используем
Сегодня влияние генеративного ИИ на интеллект зависит не столько от самих технологий, сколько от того, как люди с ними работают.
UX-дизайнеры могут создавать механизмы, поощряющие критическое мышление, но в конечном итоге ответственность лежит на нас.
ИИ может как усилить интеллект, так и разрушить его, если люди будут слепо следовать его выводам. История технологического прогресса показывает, что одни люди станут намного умнее, а другие — наоборот, потеряют способность думать самостоятельно.
Какую сторону выберешь ты?
От редакции LearnMore:
Мы предлагаем выбрать сторону роста и пройти наш короткий курс "ИИ для работы: как решать задачи быстрее и эффективнее". С этим набором инструментов ты сможешь делегировать ИИ рутинные задачи и освоодить время для реально важных дел!