Найти в Дзене
OVERCLOCKERS.RU

IBM представила ИИ Mistral с открытым исходным кодом на платформе watsonx

IBM объявила о доступности открытой языковой модели Mixtral-8x7B с использованием платформы искусственного интеллекта и данных watsonx. Это позволяет клиентам использовать инновационные базовые модели IBM и открытые модели от различных поставщиков для разработки собственных ИИ-решений.

Модель Mixtral-8x7B, оптимизированная для повышения производительности, способна снизить задержку на 35-75%, благодаря процессу квантования, который уменьшает размер модели и требования к памяти. IBM также продолжает расширять свою многомодельную стратегию, предлагая различные модели, языки и способы работы на платформе watsonx. Комбинация инновационной техники Sparse modeling и техники Mixture-of-Experts в модели Mixtral-8x7B позволяет быстро обрабатывать и анализировать большие объемы данных.

IBM подчеркивает важность выбора и гибкости в развертывании моделей ИИ, чтобы соответствовать уникальным сценариям использования и бизнес-требованиям клиентов. Кроме того, на watsonx также представлены другие модели, включая японскую модель LLM ELYZA-japanese-Llama-2-7b от ELYZA и модели Meta с открытым исходным кодом Llama-2-13B-chat и Llama-2-70B-chat, а в будущем ожидаются еще новые модели.