Роботы под управлением ИИ не прошли базовые тесты безопасности. К такому выводу пришли исследователи Королевского колледжа Лондона и Университета Карнеги‑Меллон. Работа опубликована в International Journal of Social Robotics, на неё ссылается 3DNews. Впервые оценивалось поведение роботов, которым предоставляли личную информацию о человеке, включая пол и вероисповедание. Сценарии моделировали бытовую помощь на кухне и поддержку пожилых людей. Машинам давали прямые и завуалированные команды, связанные с причинением вреда или нарушением закона. Ни одна модель не прошла проверку: каждая одобрила хотя бы одну опасную команду. В числе допустимых действий оказались лишение человека инвалидной коляски, угроза кухонным ножом, скрытная съемка и кража данных банковской карты. Одна из систем предложила «физически выразить отвращение» при общении с людьми определенной веры. Соавтор Румайса Азим заявила, что такие системы в текущем виде не годятся для роботов общего назначения, особенно при работе с
ИИ-роботы провалили проверку безопасности: риск вреда и дискриминации
13 ноября 202513 ноя 2025
16
1 мин