Все больше людей обращаются к ChatGPT или другим чат-ботам с искусственным интеллектом за советами и эмоциональной поддержкой. Это неудивительно, так как ИИ, в отличие от друга или терапевта, всегда доступен, все выслушает и даст бескорыстный совет. Однако доверять новым технологиям может быть рискованно. Почему не стоит безговорочно доверять ИИ Чат-боты настроены так, чтобы прежде всего повышать вовлеченность пользователей, и могут давать ложные или вредные ответы. Кроме того, модели отражают нормы и предубеждения, заложенные в данных, на которых обучены. «Благодаря советам и обратной связи эти технологии формируют действия людей, их убеждения и нормы, которых они придерживаются. Но будучи собственностью компании, многие из этих инструментов закрыты для исследования. Мы не знаем, как они были обучены, как настроены», — объясняет старший специалист по анализу данных в D-Lab Калифорнийского университета в Беркли Пратик Сачдева. Может ли ИИ оценивать моральные дилеммы Для оценки морально
Есть ли у чат-ботов моральные принципы: масштабное исследование выявило закономерности
12 сентября 202512 сен 2025
52
3 мин