Вышла новая модель, которая запускается по частям при генерации. На каждом этапе ей нужно всего 1.4В, поэтому она работает на железе, которого хватило бы для небольшой LLM. Контекст – 32 000 токенов. Это позволяет обрабатывать книги, большие кодовые базы и другие объёмные данные. Тестируем новинку – тут. Technogram Inside