Недавно я провёл эксперимент: попросил GPT-5 показать, как он обрабатывает маркетинговый текст «изнутри». Ответ был впечатляющим — модель выдала детальный разбор с терминами вроде «creativity: 0.75» и «sensory_specificity». Выглядело убедительно. Но когда я попытался воспроизвести этот анализ в Сабка ПРО с Claude 4.5 Sonnet и Gemini 2.5 Pro, получил совершенно другие «векторы». Тогда и началось самое интересное. Когда спрашиваешь нейросеть «как ты думаешь», она охотно отвечает. GPT-5 выдал мне целую лекцию: якобы входной текст превращается в числовые векторы, которые активируют разные «концепты» в латентном пространстве модели. Для фразы «аромат свежесваренного кофе» нейросеть показала примерную активацию: Красиво. Научно. Профессионально. Проблема в том, что это полная выдумка. Дело не в том, что GPT-5 соврал (хотя и это тоже). Дело в том, что сама модель не имеет доступа к своей математике. Когда нейросеть «объясняет» работу своих слоёв, она не анализирует реальные веса и активации
ChatGPT показал, как «думает» изнутри. Оказалось — он сам не знает
10 ноября 202510 ноя 2025
106
3 мин