Добавить в корзинуПозвонить
Найти в Дзене

ChatGPT показал, как «думает» изнутри. Оказалось — он сам не знает

Недавно я провёл эксперимент: попросил GPT-5 показать, как он обрабатывает маркетинговый текст «изнутри». Ответ был впечатляющим — модель выдала детальный разбор с терминами вроде «creativity: 0.75» и «sensory_specificity». Выглядело убедительно. Но когда я попытался воспроизвести этот анализ в Сабка ПРО с Claude 4.5 Sonnet и Gemini 2.5 Pro, получил совершенно другие «векторы». Тогда и началось самое интересное. Когда спрашиваешь нейросеть «как ты думаешь», она охотно отвечает. GPT-5 выдал мне целую лекцию: якобы входной текст превращается в числовые векторы, которые активируют разные «концепты» в латентном пространстве модели. Для фразы «аромат свежесваренного кофе» нейросеть показала примерную активацию: Красиво. Научно. Профессионально. Проблема в том, что это полная выдумка. Дело не в том, что GPT-5 соврал (хотя и это тоже). Дело в том, что сама модель не имеет доступа к своей математике. Когда нейросеть «объясняет» работу своих слоёв, она не анализирует реальные веса и активации
Оглавление

Я попросил нейросеть разобрать свою работу на векторы и абстракции. Результат удивил: красивые термины — всего лишь метафоры. ИИ объясняет себя постфактум, как человек объясняет сон.

Недавно я провёл эксперимент: попросил GPT-5 показать, как он обрабатывает маркетинговый текст «изнутри». Ответ был впечатляющим — модель выдала детальный разбор с терминами вроде «creativity: 0.75» и «sensory_specificity». Выглядело убедительно. Но когда я попытался воспроизвести этот анализ в Сабка ПРО с Claude 4.5 Sonnet и Gemini 2.5 Pro, получил совершенно другие «векторы». Тогда и началось самое интересное.

Что ChatGPT рассказал о своей «внутренней кухне»

Когда спрашиваешь нейросеть «как ты думаешь», она охотно отвечает. GPT-5 выдал мне целую лекцию: якобы входной текст превращается в числовые векторы, которые активируют разные «концепты» в латентном пространстве модели. Для фразы «аромат свежесваренного кофе» нейросеть показала примерную активацию:

  • sensory_specificity: 0.82
  • emotional_valence: 0.68
  • marketing_intent: 0.71
  • creativity: 0.75

Красиво. Научно. Профессионально. Проблема в том, что это полная выдумка.

Дело не в том, что GPT-5 соврал (хотя и это тоже). Дело в том, что сама модель не имеет доступа к своей математике. Когда нейросеть «объясняет» работу своих слоёв, она не анализирует реальные веса и активации — она генерирует правдоподобный текст на основе того, как люди обычно описывают работу нейросетей в статьях.

Почему это важно для тех, кто работает с ИИ

Представьте: вы приходите к врачу, а он ставит диагноз, придумывая симптомы на ходу. Примерно так же ведут себя нейросети, когда «объясняют» свою работу. Я проверил это в мультичате Sabka Pro, отправив один запрос сразу трём моделям. Результаты:

  • GPT-5: «Я активирую концепты через трансформерные слои с механизмом внимания» (теоретически верно)
  • Claude 4.5 Sonnet: «Я обрабатываю токены через многослойные представления» (тоже правильно, но по-другому)
  • Gemini 2.5 Pro: «Я использую мультимодальные эмбеддинги для семантического анализа» (вообще про другое)

Все три ответа звучат умно. Все три — постфактум рационализация. Ни одна модель не показала реальные числа из своих весов (потому что у неё нет к ним доступа). Подробнее о том, почему промпт — это не просто запрос, я писал ранее.

Что на самом деле происходит внутри нейросети

Честный ответ? Никто точно не знает. Современные языковые модели — это миллиарды параметров, обученных на терабайтах текста. Даже создатели не могут объяснить, почему конкретный нейрон активируется на слово «кофе» сильнее, чем на «чай».

Есть целая область исследований — interpretability (интерпретируемость ИИ), которая пытается разобраться в этом чёрном ящике. Результаты пока скромные: учёные могут показать, что «где-то в районе 47-го слоя модель различает позитивные и негативные предложения», но на этом всё.

Когда же вы просите GPT-5 «показать векторы», он не лезет в свои реальные веса. Он просто генерирует текст в стиле «вот как бы это могло работать, судя по научным статьям, которые я видел в обучающей выборке».

Практический вывод для маркетологов и копирайтеров

Если нейросеть «объясняет», почему выбрала именно это слово или структуру текста — не верьте. Это не анализ, а ретроспективная выдумка. Полезнее:

  1. Тестировать результаты, а не слушать объяснения. В Сабка ПРО мультичат позволяет сравнить три ответа и выбрать лучший эмпирически.
  2. Итерировать промпты через эксперименты. Как правильно это делать, я описывал здесь.
  3. Не спрашивать «почему ты так решил», а переформулировать задачу или добавить контекста.

Иллюзия самопознания

Самое забавное: когда я спросил GPT-5 напрямую — «Ты реально видишь свои веса или придумываешь?» — он честно признался: «Я не имею прямого доступа к внутренним параметрам модели. Моё «объяснение» — это генерация текста на основе обучающих данных».

Значит ли это, что ИИ врёт? Нет. Он делает то, для чего создан: генерирует наиболее вероятное продолжение на основе контекста. Если контекст — вопрос «как ты думаешь?», то вероятное продолжение — научно звучащее объяснение. Не потому что это правда, а потому что так отвечают в статьях про ИИ (оценочно).

Кстати, именно поэтому сравнение разных моделей часто даёт неожиданные результаты — каждая «рационализирует» свой ответ по-своему, но качество итогового текста зависит совсем от других факторов.

Вывод: Нейросети — мощный инструмент, но они не знают себя. Они отлично генерируют текст, но плохо объясняют, почему именно такой. Для работы это означает одно: меньше философии про «латентные пространства», больше практики с реальными задачами. И помните — правильный подход к работе с ИИ важнее понимания его внутреннего устройства.