Есть наблюдение, которое меняет взгляд на то, как думают LLM. Когда модель уверена - она “думает широко”. Активно много нейронов, сигнал распределён, знания подтягиваются из разных мест. Это похоже на опытного инженера, который держит в голове несколько решений одновременно. Но стоит задать что-то нестандартное - сложную математику, противоречивые факты или просто out-of-distribution вопрос - происходит неожиданное. Модель резко “сжимается”. Вместо широкой активации остаётся узкий, почти точечный сигнал в последнем слое. Как будто система перестаёт опираться на накопленный опыт и пытается выжать ответ из минимального набора признаков. Фактически - она теряет распределённую память и уходит в узкую специализацию на лету. И вот здесь самое интересное. Мы обычно не понимаем, что модель “поплыла”, пока не получаем неправильный ответ. Но оказывается - она сама сигналит об этом внутри. Этот “коллапс активации” можно измерить как конкретное число. Не эвристика, не guesswork - прямой си