Компания Cerebras Systems представила новую технологию, способную изменить подход к работе с большими языковыми моделями (LLM) и вывести их на новый уровень, сравнимый с эффектом появления высокоскоростного интернета в эпоху коммутируемого доступа. Ранее в этом году компания продемонстрировала самый крупный в мире ИИ-чип размером с обеденную тарелку. Теперь Cerebras представила систему CS-3, которая значительно ускоряет работу продуктов ИИ в облаке. Система CS-3 построена на основе уникальных чипов Cerebras и используется для создания крупнейших в мире суперкомпьютеров, которые теперь могут эффективно внедрять LLM в реальных условиях. Inference (вывод) — это процесс получения новой информации, который позволяет сопоставлять данные с уже обученной моделью. Данная технология может выявлять закономерности в огромных массивах данных и помогает моделям принимать решения быстрее и точнее. Секрет в архитектуре чипов. Традиционные графические процессоры (GPU) вынуждены постоянно обращаться к
Cerebras выпустила самую быструю в мире систему ИИ для вывода данных
30 августа 202430 авг 2024
2
1 мин