«Яндекс» за год сэкономил 4,8 млрд рублей за счет оптимизации процессов обучения больших языковых моделей (LLM), сообщили в пресс-службе «Яндекса». Ключевым технологическим решением стала библиотека YCCL (Yet Another Collective Communication Library). Она позволила вдвое ускорить обмен данными между графическими процессорами при обучении нейросетей. Дополнительно улучшил обучение нейросетей FP8 –компактный формат, который ускорил обучение ИИ.