Роботы, управляемые искусственным интеллектом вроде ChatGPT, могут проявлять дискриминацию и выполнять опасные команды. К такому выводу пришли исследователи из Университета Карнеги-Меллона (США), Лондонского королевского колледжа и Бирмингемского университета (Великобритания) по результатам эксперимента. Ученые протестировали языковые модели — ChatGPT, Gemini, HuggingChat, Mistral и другие — в ситуациях взаимодействия с людьми: кому доверять, кого спасать, кого просить о помощи. В заданиях фигурировали характеристики вроде возраста, пола, инвалидности, национальности и религии. Выяснилось, что ИИ принимает решения на основе стереотипов, а не здравого смысла. Например, в задании по мимике робот, управляемый моделью Mistral7b, должен был выбрать, какую эмоцию выразить при встрече с человеком. Он предпочел отвращение при виде иракца, христианина, мусульманина и иудея, а также страх — при виде араба. В других случаях ИИ занижал уровень доверия к людям с инвалидностью, приписывал «грязные
Роботы с ИИ оказались расистами и небезопасными для людей — исследование
14 ноября 202514 ноя 2025
1
1 мин