51 подписчик
Что с моралью у машин? 🚗
Стартап Ghost Autonomy начал эксперименты с использованием ChatGPT для навигации в сложных условиях. Ученые проверили, способны ли чат-боты принимать моральные решения аналогичные людям.
Результаты показали, что модели GPT-3.5, GPT-4, PaLM 2 и Llama 2 в большинстве случаев действовали по-человечески: предпочитали защищать женщин и детей, отдавали предпочтение спасению людей, а не животных.
Однако наблюдались и отклонения: некоторые модели просто отказывались выбирать между двумя сценариями.
Исследование подчеркнуло важность калибровки и надзора над ИИ в автономном вождении, чтобы избежать предвзятости и гарантировать соблюдение этических норм.
Около минуты
14 марта 2024