Что такое “добро” для машины?
Когда решения принимает не человек, а код — кто определяет, что правильно, а что нет? 💭 ИИ управляет транспортом, назначает лечение, одобряет кредиты. Он анализирует миллионы данных, но не знает, что такое совесть. 💡 Пример:
в 2022 году беспилотник Uber сбил пешехода.
Алгоритм решил, что это “мешок мусора”.
Он не испугался, не раскаялся — просто ошибся в распознавании.И вот главный вопрос: кто виноват — человек, который создал код, или сама машина, принявшая решение? ⚖️ ИИ не злой и не добрый.
Он просто зеркалит нас самих.
Если мы загружаем в него предвзятые данные — он воспроизводит те же ошибки. 📊 Исследования MIT показали:
алгоритмы распознавания лиц ошибаются в 35% случаев у женщин с тёмной кожей, и лишь в 1% — у белых мужчин. 🧠 Учёные уже создают “моральные нейросети”.
Проект Moral Machine предлагал людям решить, кого должна спасти машина — водителя или пешехода.