Найти в Дзене
РР-Новости

Китайская компания 01.ai представила ИИ-модель Yi-Lightning с рекордно низкими затратами на обучение

Китайская компания 01.ai разработала высокопроизводительную ИИ-модель Yi-Lightning, обученную с использованием всего 2000 графических процессоров (GPU) и затратами всего $3 миллиона. Это достигнуто на фоне серьезных ограничений, вызванных американскими санкциями, которые существенно снизили доступ местных компаний к современному оборудованию от таких производителей, как Nvidia. Основатель стартапа 01.ai Кай-Фу Ли подчеркнул, что эта экономия сопоставима с затратами на обучение моделей GPT от OpenAI, где стоимость варьировалась от $80 до $100 миллионов для GPT-4, а обучение GPT-5, по информации, обошлось в $1 миллиард. По независимой оценке Калифорнийского университета в Беркли, Yi-Lightning занимает шестое место по производительности среди существующих языковых моделей. Ли также отметил, что оптимизация процесса обработки данных, создание многоуровневой системы кэширования и специализированного механизма вывода позволили значительно снизить стоимость обработки одного миллиона токенов д

Китайская компания 01.ai разработала высокопроизводительную ИИ-модель Yi-Lightning, обученную с использованием всего 2000 графических процессоров (GPU) и затратами всего $3 миллиона. Это достигнуто на фоне серьезных ограничений, вызванных американскими санкциями, которые существенно снизили доступ местных компаний к современному оборудованию от таких производителей, как Nvidia.

Основатель стартапа 01.ai Кай-Фу Ли подчеркнул, что эта экономия сопоставима с затратами на обучение моделей GPT от OpenAI, где стоимость варьировалась от $80 до $100 миллионов для GPT-4, а обучение GPT-5, по информации, обошлось в $1 миллиард. По независимой оценке Калифорнийского университета в Беркли, Yi-Lightning занимает шестое место по производительности среди существующих языковых моделей.

Ли также отметил, что оптимизация процесса обработки данных, создание многоуровневой системы кэширования и специализированного механизма вывода позволили значительно снизить стоимость обработки одного миллиона токенов до 10 центов. Это составляет примерно в 30 раз меньше среднерыночной цены на аналогичные услуги. Инженеры компании акцентировали внимание на том, что вместо наращивания вычислительных мощностей, как делают конкуренты, они сосредоточились на оптимизации алгоритмов.

Однако, несмотря на успехи, остаются вопросы относительно точности заявленных затрат на обучение и типов используемых GPU. Ли утверждает, что его команда обладает достаточными ресурсами для работы в течение 1,5 лет. Тем не менее, приведенный расчет показывает, что 2000 современных GPU Nvidia H100 по текущей цене в $30,000 каждый обошлись бы в $6 миллионов, что вызывает сомнения и потребует дополнительных разъяснений от компании.

Достижение 01.ai стало знаковым на фоне существующих ограничений на доступ к передовым технологиям и иллюстрирует, что инновации в сфере искусственного интеллекта могут развиваться даже в условиях ограниченных ресурсов.

]]>