1266 подписчиков
Наши ребята, для запуска собственной ИИ, ушли на этот сервис. Пробовали запускать ИИ (llama3.1 и т.п.) с помощью ollama, но в итоге решили остановиться от vllm. Почему? Были проблемы с параллельными потоками, которые замедляли массовую генерацию текста. По ссылке почитайте детали, думаю разберетесь...
Сейчас ИИ работает моментально.... вопрос - сразу ответ. Задержек нет и большие массивы текста нормально обрабатывает (до 50 страниц А4). В общем рекомендую... Хотя понимаю, что требуются компетенции для запуска.
Около минуты
26 августа 2024