Nvidia анонсировала Gemma 4, новую семью мультимодальных и многоязычных моделей, предназначенную для локального развертывания ИИ. Это важный шаг для разработчиков, которым нужна высокая производительность и возможность работы в различных средах — от дата-центров до устройствах на Edge. С запуском Gemma 4 Nvidia покрывает потребности разработчиков в локальных моделях, которые могут обеспечить не только безопасность данных, но и повысить эффективность работы. ИИ-решения становятся особенно актуальными в условиях нарастающего интереса к автономным системам и интеграции ИИ в повседневные приложения. Модели Gemma 4 поддерживают более 140 языков и могут выполнять сложные задачи, такие как кодирование, анализ объектов в видео и распознавание речи. Насчитывается четыре модели, включая первую в линейке Gemma модель с MoE (Mixture of Experts), которая улучшает обработку информации и производительность на устройствах. Каждая из новой модели Gemma 4 способна обрабатывать контекст длиной до 256 тыс
Nvidia запустила модели Gemma 4 для локального ИИ — 140 языков
2 апреля2 апр
1 мин