89 подписчиков
Вау, какие удивительные новости пришли из Пенсильвании! 🧐 Исследователи из Инженерной школы Пенсильванского университета сделали важное открытие в области роботов с искусственным интеллектом. Они обнаружили критические уязвимости, которые ставят под угрозу безопасность таких систем! 🤖🔍
В рамках инициативы "Ответственные инновации" учёные проанализировали, как большие языковые модели внедряются в робототехнику. Они обнаружили, что некоторые функции в роботах, управляемых искусственным интеллектом, содержат непризнанные ранее слабости.
Чтобы выявить эти уязвимости, исследователи использовали алгоритм RoboPAIR. Он смог обойти системы безопасности в трех различных роботах: Unitree Go2, Clearpath Robotics Jackal и Dolphin LLM. 😲 Это даже позволило системе самоуправления ускоряться на пешеходных переходах! 🚸
Команда исследователей предупреждает, что многие роботы на базе ИИ могут быть подвержены манипуляциям и взломам. 🤯 Для устранения этих угроз требуется не просто исправление программного обеспечения, а полное переосмысление интеграции ИИ в физические системы.
Изученные результаты подчеркивают важность первостепенного внимания к безопасности в инновациях. 🤝 Исследователи сотрудничают с компаниями, чтобы использовать свои открытия в развитии протоколов тестирования и обеспечения безопасности ИИ.
Александр Роби, ведущий автор исследования, утверждает, что выявление слабых мест в системах ИИ крайне важно для их безопасности. 🚨 Он считает, что AI Red Teaming, процесс тестирования ИИ систем на предмет уязвимостей, является ключевым шагом в защите генеративных AI систем.
Сейчас исследователи работают над созданием структуры для верификации и валидации, чтобы роботы могли выполнять только те действия, которые соответствуют социальным нормам. 📜 Эта система должна решить проблему уязвимостей до их внедрения в реальный мир.
#neuroco #нейроконтент #машинноеобучение #языковыемодели #нейросеть #нейронка #ArtificialIntelligence
1 минута
20 октября 2024