Эволюционные стратегии на масштабе Недавно уже был один подход к снаряду https://t.me/gonzo_ML/4092, в новом добавили низкоранговую факторизацию Evolution Strategies at the Hyperscale https://arxiv.org/abs/2511.16652 https://eshyperscale.github.io/ https://arxiviq.substack.com/p/evolution-strategies-at-the-hyperscale Представили EGGROLL (Evolution Guided General Optimization via Low-rank Learning) — метод масштабирования эволюционных стратегий (ES) на нейросети с миллиардами параметров Заменив полноранговые матрицы гауссова шума на их низкоранговые факторизации, авторы сократили потребление памяти с O(mn) до O(r(m+n)) и добились почти линейного масштабирования на кластерах Это позволило обучать недифференцируемые системы, например, полностью целочисленные (integer-only) языковые модели Стандартный backpropagation «пожирает» память и требует дифференцируемой архитектуры Эволюционные стратегии исторически предлагали альтернативу для специфичного железа или задач с разреженной награ