13 февраля DeepSeek начал тестирование новой модели с 1 млн токенов, подогревая слухи о крупном релизе к Китайскому Новому году, который может повторить прошлогодний успех. — pandaily.com 13 февраля DeepSeek начал тестирование новой модели с длинным контекстом, поддерживающей 1 миллион токенов, в своих веб- и мобильных версиях, в то время как его API-сервис остается на уровне V3.2 со 128 тыс. контекста. Отраслевые наблюдатели предполагают, что DeepSeek может представить крупный новый релиз во время предстоящего Китайского Нового года, потенциально повторив прорывной импульс, достигнутый в прошлом году. 12 января DeepSeek опубликовал новую исследовательскую работу под названием «Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models». Среди авторов указан Лян Вэньфэн. В работе представлен «условный интеллект», отделяющий хранение статических паттернов от динамических вычислений с помощью модуля Engram. При идентичном количестве параметров и ограничениях
DeepSeek тестирует модель с контекстным окном 1M: индустрия ждет релиз к Китайскому Новому году
14 февраля14 фев
3
1 мин