Найти в Дзене
СНТ Racing

Автономные автомобили: Кто виноват, когда робот ошибается? Слезы ИИ и юридический вакуум

В 2025 году в Брашове автомобиль Tesla с автопилотом резко свернул на встречку, спасая упавшего пешехода. Результат? Лобовое столкновение с Audi. Пассажиры чудом выжили, но алгоритм предпочел риск двумя жизнями ради спасения одной . Этот случай — не просто ДТП. Это воплощение «проблемы вагонетки» Филиппы Фут в реальности. И он ставит общество перед вопросом: кто ответит, когда решение принимает не человек, а код? 1. Производитель, владелец или ИИ? Глобальный разброд: 2. Пробелы в законах:
Ни одна страна не имеет всеобъемлющего закона для беспилотников. Даже прогрессивный AV Act в Великобритании требует 2 года на разработку вторичных нормативов. В США лишь 3 штата легализовали тесты, а федеральные нормы NHTSA остаются декларативными. «У нас нет готового продукта, поэтому мы не знаем, с какими проблемами столкнемся. Законодателям нужен не ИИ, а кристальный шар» (Брайант Смит, Stanford Law School) Эксперимент Moral Machine (MIT, 40 млн ответов из 233 стран) вскрыл культурные противоречи
Оглавление

В 2025 году в Брашове автомобиль Tesla с автопилотом резко свернул на встречку, спасая упавшего пешехода. Результат? Лобовое столкновение с Audi. Пассажиры чудом выжили, но алгоритм предпочел риск двумя жизнями ради спасения одной . Этот случай — не просто ДТП. Это воплощение «проблемы вагонетки» Филиппы Фут в реальности. И он ставит общество перед вопросом: кто ответит, когда решение принимает не человек, а код?

Юридический лабиринт: Чья вина?

1. Производитель, владелец или ИИ? Глобальный разброд:

  • Великобритания с 2026 года возлагает ответственность за аварии в режиме автопилота на производителя, а не водителя.
  • Германия, Франция, Япония разделяют презумпцию невиновности водителя: чем выше автономность, тем меньше его ответственность.
  • Россия использует «лоскутную» модель:
    Владелец машины — основной ответчик, но может переложить вину на производителя ПО или диспетчера.
    При ДТП со смертельным исходом уголовная ответственность грозит
    оператору удаленной поддержки, инженеру за техсостояние или водителю-испытателю.
    Обязательное страхование: 10 млн рублей на каждый беспилотник в тестовых зонах (Москва, Иннополис).
-2

2. Пробелы в законах:
Ни одна страна не имеет всеобъемлющего закона для беспилотников. Даже прогрессивный
AV Act в Великобритании требует 2 года на разработку вторичных нормативов. В США лишь 3 штата легализовали тесты, а федеральные нормы NHTSA остаются декларативными.

«У нас нет готового продукта, поэтому мы не знаем, с какими проблемами столкнемся. Законодателям нужен не ИИ, а кристальный шар» (Брайант Смит, Stanford Law School)

Этический код: Как запрограммировать смерть?

Эксперимент Moral Machine (MIT, 40 млн ответов из 233 стран) вскрыл культурные противоречия:

  • Универсальные предпочтения: Спасать людей (не животных), большие группы (не малые), молодых (не пожилых).
  • Спорные приоритеты: Женщин > мужчин, статусных > бездомных, законопослушных > нарушителей.

3 неразрешимых конфликта:

  1. Пассажиры vs пешеходы: 80% людей хотят, чтобы ИИ жертвовал водителем ради пешехода. Но 74% купят авто, запрограммированное спасать владельца любой ценой 2.
  2. Дети vs старики: Спасти ребенка — инстинкт. Но искусственный интеллект, оценивающий «ценность жизни» по возрасту, — это евгеника?

Единственное техническое решение?
Ученые из
Технического университета Мюнхена предлагают алгоритм, минимизирующий общий ущерб:

«Если столкновение неизбежно — удар должен прийтись на того, кто лучше защищен. Пешеход в кепке < мотоциклист < водитель в Audi»

-3

🔓 Киберриски: Когда взламывают руль — кто командует беспилотником?

Технологии автономного вождения превращают автомобили в "компьютеры на колесах", создавая новые векторы атак. Уязвимости автопилотов — не теоретическая угроза, а реальность, подтвержденная десятками инцидентов. Разберем ключевые риски, методы защиты и юридические последствия взлома.

💻 Реальные примеры кибератак: от джипов до Ferrari

  • Исторический взлом Jeep Cherokee (2015): Хакеры Чарли Миллер и Крис Валасек дистанционно отключили тормоза и рулевое управление на скорости 110 км/ч через сотовую сеть. Эксперимент доказал: автомобили уязвимы как смартфоны.
  • CAN Injection через Nokia 3310 (2023): Угонщики в США взламывали Toyota, Lexus и Maserati за 15 секунд, подключая модифицированный телефон к CAN-шине через проводку фары. Устройство имитировало сигналы ключа, отключая иммобилайзер.
  • Массовая угроза от Spireon: Уязвимости в системе управления автопарком (15 млн авто) позволяли хакерам удаленно открывать двери, глушить двигатели и отслеживать машины экстренных служб .
  • Элитные марки под прицелом: В Ferrari обнаружены API-ключи в открытом доступе, позволяющие захватывать учетные записи владельцев. У Mercedes-Benz хакеры через GitHub получали доступ к исходному коду приложения Me Connect.

⚠️ Тройная угроза: Последствия успешного взлома

  1. Физическая опасность:
    Отключение тормозов, блокировка руля или преднамеренное создание ДТП — прямой риск для жизни. В 2023 году 22% атак привели к утечкам данных, а 20% — к финансовому ущербу через манипуляции с системами авто.
  2. Массовые угрозы:
    Хакерские атаки приобретают масштабный характер: почти 50% инцидентов в 2023 году затрагивали тысячи машин одновременно. Злоумышленники могут парализовать движение целого города, отключив автопарк каршеринга или такси.

Как защищают транспортные средства с автопилотом?

Принцип "безопасности по умолчанию" (Secure by Design) стал основой новых стандартов:

  • ISO/SAE 21434 и UN Regulations 155-156 обязывают встраивать киберзащиту на этапе проектирования 1.
  • Консолидация ЭБУ: Вместо 100+ блоков управления в современных авто будущие модели будут использовать 5-6 "мини-серверов" с усиленной защитой 1.

Эксперименты в правовом вакууме

Тестовые зоны: Москва (Ясенево), Сколково, Иннополис, Сириус. Условия:

  • С водителем-испытателем (Москва) или с удаленным оператором (Иннополис)
  • Яндекс-такси без водителя: Цена = обычному такси, маршрут — только между 3 станциями метро
  • Проект закона о ВАТС (высокоавтоматизированный транспорт): Планируется на 2025 год. Фиксирует право страховщиков запрашивать данные «черных ящиков»

Главная проблема: Полное отсутствие правовой базы, регулирующей деятельность беспилотных транспортных средств.

Вагонетка 2.0

Технологии мчатся со скоростью Tesla Model S Plaid. Законы — едут на «Запорожце» 1972 года. Этические нормы? Они стоят на обочине, как сломанный робот-доставщик пиццы.

Что делать?

  1. Страхование ОСАГО 2.0 — с введением ответственности производителей и операторов ПО, отвечающего за управление транспортными средствами.
  2. Этические комиссии при Минтрансе — для апробации алгоритмов.
  3. Хакерские аудиты ПО — как условие сертификации.

Автопилот обещает снизить аварийность на 90% . Но цена даже одной ошибки кода — катастрофические последствия . Кто несет ответственность? Пока ответа нет.

«Разработать универсальный моральный код для робота невозможно. Но без него выпускать их на дороги — преступление» (Ияд Рахван, MIT)

💡 А вы готовы сесть в авто, где руля нет даже у водителя? Делитесь в комментариях!