) PyTorch выпустили версию 2.10 - релиз с упором на ускорение компиляции/инференса и отладку численных расхождений, что особенно полезно в больших distributed-тренировках. Главное по фичам: • torch.compile + Python 3.14 Добавили поддержку Python 3.14, включая экспериментальный freethreaded build (3.14t). • Меньше overhead на GPU (horizontal fusion) TorchInductor теперь лучше объединяет независимые операции в один GPU kernel, уменьшая kernel launch overhead и ускоряя пайплайны. • varlen_attn() - attention для variable-length входов Появилась новая опа в torch.nn.attention для ragged/packed последовательностей: - работает и на forward, и на backward - хорошо дружит с torch.compile - сейчас через FlashAttention2, дальше планируют поддержку через cuDNN/FA4 - CUDA (A100+), dtype BF16/FP16 • Быстрее eigendecomposition на GPU В torch.linalg ускорили eigen decomposition на NVIDIA за счёт cuSOLVER DnXgeev. Отладка / детерминизм: • torch.compile теперь уважает deterministic mode Если вкл