Microsoft (MSFT) начнёт оценивать модели искусственного интеллекта по показателям безопасности, добавив соответствующую метрику в свою недавно запущенную «таблицу лидеров моделей» на платформе Azure Foundry, сообщает SCMP. Новая метрика станет дополнением к уже существующим критериям оценки — качеству, стоимости и пропускной способности — и будет использоваться для ранжирования моделей, представленных на платформе от таких поставщиков, как OpenAI, xAI Илона Маска, а также международных разработчиков, включая китайскую DeepSeek и французскую Mistral. Ожидается, что десятки тысяч клиентов Microsoft, использующих Azure Foundry, будут опираться на эти рейтинги при выборе ИИ-моделей и приложений для своих продуктов и сервисов. Безопасностный рейтинг основан на двух ключевых бенчмарках: ToxiGen — инструменте Microsoft, определяющем токсичную лексику и язык вражды, а также эталоне от Центра безопасности ИИ, оценивающем потенциальные риски создания оружия массового уничтожения и других вредоно
Microsoft представила метрику рейтинга «безопасности» моделей ИИ
9 июня 20259 июн 2025
2
1 мин