В 2024 году в сети появилось тревожное видео из румынского Брашова: беспилотный автомобиль Tesla, чтобы избежать наезда на внезапно упавшего на дорогу человека, резко изменил траекторию и выехал на встречную полосу, где столкнулся с другим автомобилем. Алгоритм, следуя принципу защиты наиболее уязвимого участника движения — пешехода, поставил под удар водителей обоих автомобилей. Этот случай мгновенно вызвал широкую дискуссию о том, как меняются последствия подобного «этического выбора» в зависимости от массы и размера встречного транспорта.
Однако далеко не все инциденты с автономными системами заканчиваются без тяжких последствий — история знает и трагические примеры: в 2018 году беспилотник Uber совершил смертельный наезд на пешехода, в 2023 году роботакси Cruise столкнулось с пожарной машиной, а автомобиль Waymo задавил собаку. Системы автопилота Tesla также нередко критикуют за ошибки в распознавании дорожных знаков и объектов, что создает потенциальные риски для всех на дороге.
При этом специалисты подчеркивают: большинство аварий происходит не из-за этических дилемм, а из-за технических сбоев, ошибок восприятия или нарушений правил эксплуатации. Но факт остается фактом — автономный транспорт неизбежно выводит нас к вопросам, на которые у общества пока нет готовых ответов.
Дорогие друзья! Если вам нравится то, что я делаю, и вы хотите поддержать мой проект, буду очень благодарен за любой вклад. Вы можете сделать донат по ссылке. Спасибо за вашу поддержку и вдохновение!
Когда философия выходит на дорогу
История с румынской Tesla удивительным образом вписывается в классическую мыслительную задачу, предложенную философом Филиппой Фут еще в 1960-х. «Проблема вагонетки» предлагает человеку представить ситуацию, в которой жертвы неизбежны: трамвай не успевает затормозить, на одной колее — пятеро рабочих, на другой — один человек, и вы обязаны выбрать, кого спасти. Особенность задачи в том, что она не предполагает единственно правильного решения — она всего лишь помогает понять, как человек оценивает риск, ответственность и моральный выбор.
Спустя полвека перед такой задачей оказывается уже не человек, а алгоритм. И, по сути, те же вопросы поднимают сейчас политики, инженеры и разработчики, пытаясь сформировать минимальный набор правил для машин, которые принимают решения быстрее, чем человек успевает моргнуть.
В Евросоюзе с 2017 года работает специальная группа по этике автономного транспорта. Она уже сформулировала 20 рекомендаций, которые производители должны учитывать в системе автопилота — на их основе ученые IEEE превращают эти принципы в программные требования. Их подход к дилемме прост: алгоритм обязан оценивать риски для каждого участника дорожного движения и выбирать вариант, при котором вред придется на того, кто объективно лучше защищен.
Инженеры Технического университета Мюнхена пошли дальше и создали открытый код, основанный на 2000 сценариев. Программа анализирует вероятность травм с учетом защищенности — от наличия подушек безопасности до массы транспортного средства. Так появляется единственный на сегодня практический механизм, который можно назвать этическим решением в контексте беспилотников. И если снова вспомнить Брашов, становится очевидно: пешеход действительно был самым уязвимым — отказавшись от маневра, автомобиль наверняка привел бы к его гибели. А вот встречная машина, пусть и с риском столкновения, была защищена куда лучше, поэтому алгоритм выбрал травму вместо смерти — понятный с точки зрения логики компромисс.
Условно, если бы по встречке шла тяжелая фура, расклад рисков изменился бы, а вместе с ним — и решение автопилота.
Кто отвечает, если водителя нет?
Тема личной ответственности в авариях с участием робомобилей едва ли не острее самой этической дилеммы. Великобритания стала одной из первых стран, предложивших прямой ответ: если автомобиль двигался в режиме автопилота, за последствия ДТП отвечает разработчик программного обеспечения. Страна готовится к тому, чтобы с 2026 года полностью признать беспилотники полноценными участниками дорожного движения, и именно поэтому предпочитает юридическую ясность.
Похожего принципа придерживаются Германия, Франция и Япония: чем выше уровень автономности, тем меньше юридической ответственности остается у человека, сидящего в кресле водителя. Однако единой мировой нормы пока нет: в одних юрисдикциях под удар может попасть производитель машины, в других — поставщик радара или камеры. А иногда виновником вообще признают третью сторону — например, дорожные службы, не обеспечившие видимость знаков, или рекламные конструкции, отбрасывающие тень.
В России подход гибридный: виновным может быть признан как водитель, так и оператор ПО, владелец автомобиля или специалист службы безопасности разработчика. Но в профессиональном сообществе постепенно формируется общий подход: каждый случай нужно рассматривать индивидуально, опираясь на страховые нормы и специфику национального законодательства. По сути, именно страховые компании станут теми, кто будет принимать сложные решения на практике.
Неслучайно Уоррен Баффетт еще несколько лет назад предупреждал: массовое внедрение беспилотников может серьезно изменить структуру страхового рынка.
А если их смогут взломать?
Интересно, что в британской дорожной карте для роботакси отдельным пунктом идут риски кибератак. Хотя сейчас обсуждение чаще сводится к угрозе повреждения авто или его неконтролируемого поведения на дороге, специалисты по информационной безопасности обращают внимание и на другие опасности: утечку данных, удаленный контроль над автомобилем, возможность слежки или даже захвата человека внутри машины.
Пока что нам известны в основном «белые» взломы. В 2019 году специалисты Regulus Cyber перехватили GPS Tesla Model 3 и отправили ее в другой город, в 2024-м профессор из Университета Дьюка показал технологию Mad Radar, которая способна заставить автопилот совершить опасный маневр, а исследователи Мичиганского университета построили полигон Mcity UM, позволяющий в контролируемых условиях моделировать атаки, которые в реальном городе привели бы к резкому торможению или столкновению.
Отдельное направление — утечка данных. История с «режимом Илона», позволяющим отключить ограничения автопилота, долго выглядела почти городской легендой, пока исследователи в Германии не подтвердили ее существование.
Еще серьезнее выглядит проблема видеонаблюдения: девять камер Tesla продолжают снимать даже при выключенном двигателе, передавая материалы сотрудникам компании. Формально данные обезличиваются, но практика показывает, что анонимность таких записей легко нарушается.
Производители, оценивая эти риски, стремятся усилить защиту на уровне архитектуры. И тут автопром оказался перед стратегическим выбором: первый путь — полностью автономные системы, где вычисления происходят на борту автомобиля, как у Tesla, второй — облачная модель, в которой весь парк связан единой инфраструктурой. В первом случае ошибки в коде обходятся дорого, но потенциальный взлом затронет только одну машину. Во втором — обновления проще и дешевле, но уязвимой становится вся система сразу, цена ошибки здесь кратно выше.
Расчет вместо этики
Появление беспилотников подняло множество вопросов, которые прежде казались скорее философскими: как классифицировать аварии с участием животных? Стоит ли жертвовать энергией аккумулятора ради сверхточного анализа дорожной ситуации? Что делать с профессиями водителей, которые постепенно заменяются алгоритмами?
Но автопроизводители, в отличие от философов, смотрят на проблему прагматично, и сходятся в одном: статистически беспилотники делают дороги безопаснее, и пока реальная выгода превышает возможный ущерб, вектор развития понятен. У компаний есть на что опереться: по данным Tesla, в третьем квартале 2024 года на 11,3 млн километров, пройденных с обновленной системой автопилота, пришлось лишь одно (!) ДТП. Это примерно в 5,5 раза реже, чем у водителей, которые ехали без помощи электроники — такая разница для индустрии становится главным аргументом.
ПОДПИСЫВАЙТЕСЬ на наш YouTube канал!
Ставьте ПАЛЕЦ ВВЕРХ и ПОДПИСЫВАЙТЕСЬ на Дзен канал
Читайте также: