Источник изображения: Forschungszentrum Jülich GmbH Китайская компания DeepSeek, специализирующаяся на искусственном интеллекте, объявила о значительном технологическом достижении. Как сообщает Tom's Hardware, им удалось разработать модель искусственного интеллекта, сопоставимую по возможностям с ведущими аналогами от таких гигантов, как OpenAI, Meta и Anthropic, используя при этом в 11 раз меньше вычислительных ресурсов. Несмотря на санкции США, ограничивающие доступ Китая к передовым ИИ чипам, местные учёные находят способы максимизировать производительность имеющегося оборудования. DeepSeek обучила свою языковую модель DeepSeek-V3, содержащую 671 миллиард параметров, на кластере, состоящем из 2,048 GPU Nvidia H800, всего за два месяца, что составило 2.8 миллиона GPU часов. Для сравнения, Meta потребовалось в 11 раз больше вычислительной мощности, чтобы обучить свою модель Llama 3. Такие результаты определённо говорят о том, что усилия по оптимизации реально могут компенсировать дефи
Китайский стартап создал мощную языковую модель, сократив вычислительные затраты на 90%
28 декабря 202428 дек 2024
7
1 мин