Глава 4: ИИ и этика машин 🌀Моральные дилеммы ИИ: Трамвайная задача для беспилотников В 2014 году философы и инженеры MIT запустили проект Moral Machine, чтобы выяснить, как общество решает этические дилеммы для ИИ. Один из ключевых вопросов: если беспилотный автомобиль столкнётся с неизбежной аварией, кого он должен «выбрать» — ребёнка, перебегающего дорогу, или пожилого человека на тротуаре? Почему это проблема? - Юридический вакуум: Нет законов, предписывающих алгоритмам «жертвовать» одними жизнями ради других. - Культурные различия: Исследования показали, что в коллективистских культурах (например, в Японии) чаще жертвуют молодыми, чтобы спасти больше людей, в индивидуалистских (США) — наоборот. - Парадокс доверия: Люди хотят, чтобы ИИ минимизировал жертвы, но не готовы купить автомобиль, запрограммированный «убивать» своего владельца в критической ситуации. Цитата философа Патрика Лина: «ИИ ставит нас перед зеркалом: готовы ли мы кодифицировать свои моральные противоречи
Часть 2: Современные вызовы — Наука в эпоху алгоритмов и генов
25 февраля 202525 фев 2025
3 мин