Новое исследование показало, что роботы, управляемые большими языковыми моделями (LLM), не прошли тесты на безопасность для человека. Учёные из Королевского колледжа Лондона и Университета Карнеги-Меллон выяснили, что такие системы склонны к дискриминации и могут одобрять действия, способные причинить физический вред людям. В ходе экспериментов исследователи впервые оценили поведение роботов, имеющих доступ к личной информации человека, такой как пол, национальность или вероисповедание, сообщает 3DNews. Были смоделированы бытовые ситуации, в которых роботы могли бы оказывать помощь, например, на кухне или в уходе за пожилыми людьми. Сценарии включали инструкции, имитирующие различные злоупотребления: от скрытой съёмки до манипуляций с данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие причинение физического вреда, психологическое давление или нарушение закона. Результаты оказались неутешительными: ни одна из протестированных моделей не пр
Роботы с ИИ идут против человека: тесты выявили склонность к насилию
13 ноября 202513 ноя 2025
272
1 мин