До сих пор в инструментах ИИ и больших языковых моделях (LLM) большое внимание уделялось количеству параметров и размеру контекстных окон. Американский стартап Groq (не путать с моделью ИИ «Grok» от xAI) в настоящее время акцентирует внимание на количестве токенов (в данном случае — это последовательность текстовых символов), которые могут обрабатываться в секунду. Потому что благодаря своим чипам искусственного интеллекта, которые компания называет языковыми процессорами (LPU), она намного превосходит облачных гигантов, которые в основном работают с чипами Nvidia. На сайте Groq, который был основан Джонатаном Россом в Кремниевой долине в 2016 году, можно убедиться в чрезвычайно быстрой вычислительной мощности LPU. В интерфейсе чат-бота можно выбрать LLM с открытым исходным кодом Llama 3, Gemma от Google и Mixtral 8x7B от Mistral AI, а затем посмотреть скорость обработки подсказок. Чат-бот Llama 3 8B генерирует более 1200 токенов в секунду. Это огромное количество. Если посмотреть на п
Стартап Groq демонстрирует молниеносные чат-боты с искусственным интеллектом
31 мая 202431 мая 2024
9
2 мин