📝 Кратко: Исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями. Для «взлома» системы достаточно показать табличку с текстом нужной команды. Читать далее 🔗 Читать оригинальную статью (ссылка) 📊 Источник: Habr ⏰ Время: 09.02.2026 20:34 📱 Другие каналы: 🪙 ВКрипту | 🎮 ВИгрухи | 🏎️ ВТачки | ✈️ ВТравелу #gadgets #гаджеты #технологии
⚡ Исследование: AI-автопилоты на базе LVLM можно обмануть с помощью промпт-инъекций
ВчераВчера
~1 мин