Команда DeepSeek, стоящая за одними из самых мощных в мире ИИ-моделей с «открытым весом» (open-weight), опубликовала новую научную работу, которая может изменить представление о том, как искусственный интеллект использует память. Исследование, инициированное лично основателем компании Лян Вэньфэном, предлагает способ запускать мощные модели, расходуя значительно меньше ценной видеопамяти. Ключевая идея — технология под названием «условная память» (conditional memory). Подобно предыдущим разработкам DeepSeek в области Mixture-of-Experts (MoE), она ориентирована прежде всего на эффективность. Метод разделяет «логику» и «знания» модели, позволяя хранить основной массив данных на более дешевом и доступном оборудовании. Более того, технология обеспечивает практически мгновенный поиск по базе знаний. В то время как популярный сегодня подход retrieval-augmented generation (RAG) нередко выглядит громоздким и медленным, решение DeepSeek работает почти моментально. Это похоже на библиотеку, где
DeepSeek представила новую технологию, позволяющую запускать крупные ИИ-модели на более дешевом оборудовании
14 января14 янв
1494
1 мин