Найти в Дзене

🤖 Может ли искусственный интеллект иметь мораль?

Что такое “добро” для машины?
Когда решения принимает не человек, а код — кто определяет, что правильно, а что нет? 💭 ИИ управляет транспортом, назначает лечение, одобряет кредиты. Он анализирует миллионы данных, но не знает, что такое совесть. 💡 Пример:
в 2022 году беспилотник Uber сбил пешехода.
Алгоритм решил, что это “мешок мусора”.
Он не испугался, не раскаялся — просто ошибся в распознавании.И вот главный вопрос: кто виноват — человек, который создал код, или сама машина, принявшая решение? ⚖️ ИИ не злой и не добрый.
Он просто зеркалит нас самих.
Если мы загружаем в него предвзятые данные — он воспроизводит те же ошибки. 📊 Исследования MIT показали:
алгоритмы распознавания лиц ошибаются в 35% случаев у женщин с тёмной кожей, и лишь в 1% — у белых мужчин. 🧠 Учёные уже создают “моральные нейросети”.
Проект Moral Machine предлагал людям решить, кого должна спасти машина — водителя или пешехода.
ИИ - moral
ИИ - moral

Что такое “добро” для машины?
Когда решения принимает не человек, а код — кто определяет, что правильно, а что нет? 💭

ИИ управляет транспортом, назначает лечение, одобряет кредиты. Он анализирует миллионы данных, но не знает, что такое совесть.

💡 Пример:
в 2022 году беспилотник Uber сбил пешехода.
Алгоритм решил, что это “мешок мусора”.
Он не испугался, не раскаялся — просто
ошибся в распознавании.И вот главный вопрос: кто виноват — человек, который создал код, или сама машина, принявшая решение?

⚖️ ИИ не злой и не добрый.
Он просто
зеркалит нас самих.
Если мы загружаем в него предвзятые данные — он воспроизводит те же ошибки.

📊 Исследования MIT показали:
алгоритмы распознавания лиц ошибаются в 35% случаев у женщин с тёмной кожей, и лишь в 1% — у белых мужчин.

🧠 Учёные уже создают “моральные нейросети”.
Проект
Moral Machine предлагал людям решить, кого должна спасти машина — водителя или пешехода. Результат: у разных стран — разная мораль.
То, что в Японии — героизм, в США — преступление.

🌍 В Японии создают “Этический код ИИ”. Европа требует “паспорт прозрачности алгоритмов”.
Google и DeepMind открыли
Этические лаборатории.

ИИ можно научить этике, но понять, зачем она нужна, — может только человек.

💭 Финальная мысль:

ИИ не учит нас быть добрыми — он проверяет,
достаточно ли человечны мы сами. ❤️