Новая работа из MIT ставит под сомнение привычное представление о том, что «экспертные» модели нужно долго и аккуратно дообучать. Авторы показывают, что достаточно одного шага — добавить гауссов шум в веса предобученной модели, повторить это много раз и скомбинировать ответы — чтобы получить эффективность, сопоставимую с профессиональными методами тонкой настройки вроде GRPO/PPO. Главная идея — «Neural Thickets» (нейронные заросли) Авторы вводят интуитивно контр-интуитивную картину: вокруг веса предобученной модели в пространстве параметров «растут» сотни и тысячи локальных «специалистов» — моделей, каждая из которых сильна в каком-то конкретном подзадаче. Это явление они называют «Neural Thickets» — нейронные заросли. Ключевые наблюдения: Чтобы понять источник эффекта, авторы рассмотрели простую 1D саморегрессионную модель (простейшая архитектура и задача). Они сравнили три сценария: Вывод: «нейронные заросли» рождаются благодаря масштабному мультизадачному предобучению — большое коли
Простая шумовая правка весов большой модели может заменить сложный fine-tuning
2 дня назад2 дня назад
4 мин