Найти в Дзене

Почему самый простой вопрос к ChatGPT иногда ставит его в тупик, а сложный — получает гениальный ответ?

Вы наверняка замечали этот парадокс: можно попросить нейросеть написать сонет в стиле Шекспира о квантовой запутанности — и через 20 секунд получите изящные строки, достойные публикации. Но стоит спросить что-то вроде «В комнате три яблока, ты взял два, сколько осталось?» — и иногда случается странное. Молчание. Или ответ: «Это зависит от контекста. Если „взял“ означает физическое перемещение, то осталось одно. Но если рассматривать в философском ключе...» Почему так происходит? Почему искусственный интеллект, способный обсуждать экзистенциализм Камю, иногда спотыкается на вопросах, с которыми справился бы дошкольник? Ответ на этот вопрос — ключ к пониманию того, чем на самом деле являются современные языковые модели, и к разгадке самой природы человеческого и искусственного интеллекта. Давайте начнём с фундаментального заблуждения. Когда мы видим, как ChatGPT рассуждает о политике Древнего Рима или объясняет теорию относительности, у нас возникает ощущение, что где-то внутри этого алг
Оглавление

Вы наверняка замечали этот парадокс: можно попросить нейросеть написать сонет в стиле Шекспира о квантовой запутанности — и через 20 секунд получите изящные строки, достойные публикации. Но стоит спросить что-то вроде «В комнате три яблока, ты взял два, сколько осталось?» — и иногда случается странное. Молчание. Или ответ: «Это зависит от контекста. Если „взял“ означает физическое перемещение, то осталось одно. Но если рассматривать в философском ключе...»

Почему так происходит? Почему искусственный интеллект, способный обсуждать экзистенциализм Камю, иногда спотыкается на вопросах, с которыми справился бы дошкольник? Ответ на этот вопрос — ключ к пониманию того, чем на самом деле являются современные языковые модели, и к разгадке самой природы человеческого и искусственного интеллекта.

Часть 1: Что на самом деле «понимает» нейросеть?

Давайте начнём с фундаментального заблуждения. Когда мы видим, как ChatGPT рассуждает о политике Древнего Рима или объясняет теорию относительности, у нас возникает ощущение, что где-то внутри этого алгоритма живёт сознание, которое «понимает» эти темы так же, как понимаем их мы. Но это иллюзия — прекрасная, убедительная, но всё же иллюзия.

Представьте себе гигантскую библиотеку. Не просто большую — самую огромную библиотеку в истории человечества. В ней есть каждая когда-либо написанная книга, каждая научная статья, каждый пост в соцсетях, каждая инструкция к бытовой технике, каждое судебное решение — весь текст, доступный в интернете на десятках языков. Теперь представьте невероятно быстрого библиотекаря, который прочитал всю эту библиотеку не один раз, а миллионы раз, запомнив не сами книги, а статистические связи между словами.

«После слова „квантовая“ с вероятностью 37% следует слово „механика“, с вероятностью 22% — „физика“, с вероятностью 5% — „запутанность“». «Фраза „Сколько будет“ в 89% случаев завершается математическим выражением». «Слово „яблоко“ в 63% случаев связано с едой, в 21% — с компанией Apple, в 7% — с библейскими сюжетами».

Этот библиотекарь — и есть языковая модель. Она не «понимает» яблоко как круглый, сочный, сладкий фрукт. Она знает, что слово «яблоко» статистически часто соседствует со словами «сочное», «красное», «фрукт», «Ньютон», «надкусить». И когда вы спрашиваете про яблоки в комнате, модель ищет в своей памяти наиболее статистически вероятное продолжение этой фразы на основе миллиардов похожих фрагментов текста, которые она «видела» во время обучения. Вот такая вот суть нейросетей.

Часть 2: Простые вопросы — сложные ловушки

Теперь вернёмся к нашему парадоксу. Почему простой вопрос «Сколько будет 2+2?» может вызвать проблемы?

Во-первых, потому что в гигантской библиотеке человеческих текстов ответ на этот вопрос редко бывает представлен в чистом виде. В серьёзных математических текстах не объясняют, что 2+2=4 — это подразумевается как данность. В детских учебниках это есть, но в контексте обучения, с множеством пояснений, картинок, методических указаний. В интернет-обсуждениях «2+2» может быть мемом, философским вопросом («а что если в другой системе счисления?»), политической аллегорией или частью сложного выражения.

Когда вы задаёте голый вопрос «Сколько будет 2+2?», модель начинает искать: в каком контексте обычно встречается эта фраза? И часто находит не просто «=4», а дискуссии о природе математики, шутки про некомпетентность, философские рассуждения. Она пытается дать не просто правильный, а наиболее релевантный с точки зрения статистики ответ.

Во-вторых — и это важнее — у модели нет внутреннего калькулятора. Она не «вычисляет» 2+2. Она вспоминает, что в большинстве текстов после «2+2» следует «=4». Но если в её обучающих данных было достаточно текстов, где «2+2» обсуждается как проблема (например, в философских дискуссиях о природе истины), она может «решить», что наиболее уместный ответ — не просто цифра, а рассуждение.

С другой стороны, сложный вопрос вроде «Напиши анализ символики зелёного света в „Великом Гэтсби“» попадает прямо в зону комфорта модели. В её обучении были тысячи литературоведческих статей, школьных и университетских сочинений на эту тему. Она прекрасно знает статистические связи: «зелёный свет» + «Гэтсби» = «американская мечта», «недостижимость», «символ надежды», «цвет денег». Она может генерировать связный текст, комбинируя эти ассоциации — и получается глубокий, качественный анализ, который удивительно похож на человеческое понимание.

Часть 3: Сложное — просто, простое — сложно

Есть целый класс задач, которые людям кажутся элементарными, но которые ставят ИИ в тупик. Их называют «adversarial examples» — состязательные примеры. Вот классика:

Человек спрашивает: «Может ли слон пройти в холодильник?»
ИИ: «Нет, слон слишком большой».
Человек: «Может ли жираф пройти в холодильник?»
ИИ: «Нет, жираф ещё выше».
Человек: «На лесной поляне собрались все звери. Кого нет?»
ИИ начинает перечислять отсутствующих животных, не понимая, что правильный ответ — «слона и жирафа, они в холодильнике».

Эта шутка-загадка обнажает фундаментальное ограничение: у ИИ нет единой, целостной модели мира. Каждый вопрос он обрабатывает изолированно, не сохраняя контекст как единое повествование в рабочей памяти. Он знает статистику про слонов и холодильники, знает статистику про собрания зверей, но не может соединить эти два знания в новой, нестандартной ситуации.

И вот здесь начинается самое интересное. Потому что современные разработчики как раз работают над решением этой проблемы. Новые архитектуры, техники «цепочки рассуждений» (chain-of-thought) пытаются научить ИИ не просто выдавать ответ, а развернуть внутренний процесс рассуждения, похожий на человеческий: «Если слон не может войти в холодильник из-за размера, но в предыдущем вопросе мы предположили, что он всё-таки внутри, значит, в контексте этой головоломки нужно отбросить реализм...»

Часть 4: Ошибка или особенность?

Когда ИИ совершает такие ошибки, это часто называют «галлюцинациями» или «выдумками». Но, возможно, это не совсем точный термин. Скорее, это проявление самой сути того, как работает эта технология.

Человеческий мозг — машина для создания связных нарративов. Мы видим мир не как набор статистических закономерностей, а как историю с причинно-следственными связями, целями, мотивами. Когда нам задают вопрос, мы не ищем статистически вероятный ответ — мы пытаемся понять намерение спрашивающего, контекст, подтекст.

Языковая модель делает ровно противоположное: она ищет наиболее вероятное продолжение текста. И иногда самое вероятное продолжение — не самый правильный или логичный ответ, а тот, который чаще всего встречался в обучающих данных в подобных ситуациях.

Это приводит к удивительным феноменам. Модель может блестяще написать медицинскую справку со всеми правильными терминами, но порекомендовать опасную дозировку лекарства, потому что в каком-то форуме некорректная информация встретилась статистически достаточно часто. Она может создать прекрасное стихотворение о любви, но не понять, что если Маша любит Петю, а Петя любит Катю, то Маша, скорее всего, несчастна в любви — потому что такая логическая цепочка требует не статистики слов, а моделирования отношений между персонажами.

Часть 5: Опасность очевидного

Самые большие проблемы возникают не тогда, когда ИИ явно ошибается, а тогда, когда он выглядит убедительно правым. Рассмотрим реальный кейс.

Исследователи попросили несколько языковых моделей решить такую задачу: «У меня в корзине три яблока. Я взял два. Сколько яблок у меня в руке?»

Человек сразу понимает подвох: вопрос сформулирован неоднозначно. «Взял» может означать «поднял, но оставил в корзине» или «взял и унёс». Нужно уточнение.

Некоторые модели отвечали «2» — они «поняли» вопрос буквально. Некоторые говорили «Это зависит от того, что значит „взял“» — они распознали неоднозначность. А некоторые выдавали длинные рассуждения: «Если вы взяли два яблока из корзины, то в корзине осталось одно, а в вашей руке — два, если, конечно, вы не положили их в карман, но в условии не сказано про карман...» — это была попытка сгенерировать максимально «полный» ответ на основе статистики подобных объяснений.

Ни одна из моделей не задала уточняющий вопрос: «Что вы имеете в виду под „взял“?» Потому что в обучающих данных люди редко задают уточняющие вопросы в таких диалогах — обычно либо дают ответ, либо указывают на неоднозначность утверждением.

И вот здесь кроется настоящая опасность. Когда ИИ генерирует убедительный, хорошо написанный, но содержательно ошибочный ответ, пользователь склонен доверять ему — особенно если тема сложная. Модель может сгенерировать прекрасный, грамотный текст о лечении редкой болезни, собрав информацию из десятков источников, но если в этих источниках была ошибка, которая статистически достаточно распространена, модель её воспроизведёт — и сделает это так убедительно, что даже врач может на секунду задуматься.

Часть 6: Эволюция понимания

Но история на этом не заканчивается. Сейчас происходит тихая революция в подходе к обучению ИИ. Раньше главным была масштабизация: больше данных, больше параметров, больше вычислительной мощности. Следующее поколение моделей — это не просто увеличение масштаба, а изменение архитектуры.

Появляются системы, которые комбинируют языковые модели с другими инструментами. Например, когда вы спрашиваете «Сколько будет 2+2?», модель не пытается вспомнить ответ — она передаёт вопрос встроенному калькулятору и возвращает результат вычислений. Когда вы спрашиваете про текущие события, она не вспоминает, что писала пресса (ведь её обучение остановилось на какой-то дате), а ищет информацию в интернете через API.

Более того, развиваются техники, которые заставляют модель «рассуждать вслух». Вместо того чтобы сразу выдавать ответ, её просят: «Покажи свои шаги решения». И тогда модель генерирует текст типа: «В задаче сказано, что в комнате три яблока. Если я взял два, значит, я физически переместил их. Обычно „взял“ означает „взял с собой“. Значит, у меня в руке два яблока, а в комнате осталось одно».

Этот текст-рассуждение — не настоящее мышление, конечно. Это симуляция мышления на основе статистических шаблонов рассуждений, которые модель видела в учебниках и статьях. Но эта симуляция часто приводит к правильному ответу — потому что следуя шаблону «разобрать условие → определить неоднозначности → сделать предположение → дать ответ», модель действительно приходит к логическому заключению.

Часть 7: Зеркало человеческого знания

В конечном счёте, странности и парадоксы языковых моделей — это не их недостатки, а зеркало, в котором отражается структура человеческого знания.

Когда ИИ путается в простом вопросе — это потому, что в человеческой культуре простые вопросы часто задаются не для получения простых ответов, а для начала сложных дискуссий.

Когда ИИ блестяще отвечает на сложный вопрос — это потому, что человечество уже продумало этот вопрос вдоль и поперёк, и в текстах остались следы этих размышлений.

Когда ИИ «галлюцинирует» — это часто воспроизведение человеческих заблуждений, мифов, ошибок, которые так же распространены в текстах, как и точные знания.

Языковая модель — это не искусственный интеллект в смысле самостоятельного мыслящего существа. Это сложнейшая система сжатия и рекомбинации человеческого культурного наследия. Она показывает нам наше коллективное знание в новом свете — со всеми его противоречиями, пробелами, иррациональностями.

И, возможно, самый важный урок, который мы можем извлечь из диалогов с ChatGPT и ему подобными, — это смирение. Осознание того, что наше собственное мышление во многом тоже является рекомбинацией усвоенных идей, шаблонов, языковых конструктов. Что граница между «настоящим пониманием» и «статистической эмуляцией» может быть более размытой, чем нам хочется верить.

В следующий раз, когда вы зададите нейросети вопрос и получите странный ответ, не спешите списывать это на глупость машины. Вместо этого спросите себя: а что этот ответ говорит о нас, о том, как мы формулируем вопросы, как мы передаём знания, как мы создаём смыслы? ИИ в этом диалоге — не столько собеседник, сколько зеркало. И иногда в зеркале видно то, на что мы сами не обращали внимания.

Практический совет

Если вы хотите получать от языковых моделей более точные ответы:

  1. Будьте конкретны. Вместо «Как приготовить пирог?» спросите: «Дайте пошаговый рецепт яблочного пирога на 6 порций».
  2. Просите рассуждать. «Объясни шаги решения: сколько будет 348 × 27?»
  3. Уточняйте контекст. «В рамках школьной математики, без философских интерпретаций...»
  4. Проверяйте критически. Самый убедительный ответ — не всегда самый правильный.

И помните: вы общаетесь не с разумом, а с отражением коллективного человеческого знания — во всей его гениальности и во всех его противоречиях. И в этом диалоге есть своя, особенная, красота. С нейросетью стоит общаться конкретно и четко - тогда ответы станут реже вас разочаровывать.