Сбер выкатил Green-VLA — универсальную систему управления роботами, которая понимает человеческие инструкции и различает предметы в реальном времени 🎯 ▌ Что умеет модель? • 🧠 Понимает естественный язык: «возьми красную деталь» → робот берёт именно красную, а не соседнюю • 👁 Распознаёт объекты в реальном времени: любые предметы, любые ракурсы, любое освещение • 🤚 Управляет любым железом: от простого манипулятора до антропоморфа и мобильной платформы • 🔄 Обучается поэтапно: веб-данные → симуляции → реальные роботы → докрутка через RL ▌ Доступ — открытый и честный → Код на GitHub ✅ → Веса на HuggingFace ✅ → Лицензия MIT → используй в коммерции, модифицируй, делись ✅ → Техотчёт с архитектурой → для тех, кто хочет понять, как это работает внутри ✅ ▌ Для кого это? • Инженеры → берёте готовую VLA-модель, дообучаете под свою задачу, запускаете на своём железе • Исследователи → изучаете архитектуру, сравниваете с аналогами, пилите новые фичи • Стартапы → экономите месяцы R&D, стартуете с