планировать действия, как человек. Это первый в мире крупномасштабный open-source VLA-модель (Vision-Language-Action), объединяющая: • восприятие окружающего мира (камера, сенсоры) • понимание сцены и причинно-следственное рассуждение • генерацию пути и управление автомобилем Такая структура позволяет автомобилю не только реагировать на препятствия, но оценивать ситуацию, выбирать безопасную траекторию и «объяснять» свои решения, чего не было в традиционных моделях без явного рассуждения. 👉 Модель открыта для исследователей и разработчиков на GitHub и Hugging Face, что позволит ускорить исследования автономного вождения и повысить безопасность. https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/
NVIDIA представила Alpamayo-R1 - новый открытый AI для автономных автомобилей, способную не просто «видеть», но и думать, рассуждать и
6 января6 янв
7
~1 мин