В машинном обучении мы давно привыкли к хаосу: случайная инициализация, разнообразные датасеты, шум в градиентах, разные архитектуры и режимы обучения. Логично ожидать, что модели, обученные в таких условиях, окажутся настолько разными, что объединить их можно будет разве что на уровне API — но не на уровне весов. Однако новое исследование от Johns Hopkins University демонстрирует противоположное: сотни нейросетей независимо приходят к одним и тем же “направлениям смысла” в пространстве параметров. И это не метафора — это строгая спектральная картина, подтверждённая анализом более 1100 моделей: GPT-2, LLaMA-8B, Mistral-7B LoRA, Vision Transformers и даже классических CNN вроде ResNet-50. Идея звучит почти философски:
нейросети, несмотря на все различия, живут в одном и том же низкоразмерном мире. 🌀 Как это работает: техническое погружение Обычно веса нейросети — это огромные матрицы, и мы думаем о них как о миллионах независимых параметров. Но если разложить их с помощью SVD или HOSV