Представьте: вы садитесь в машину, задаете маршрут и просто едете – без руля, педалей и какого-либо напряжения. Именно такое будущее с автопилотом нам обещают уже много лет. Однако реальность пока другая: машины стали умнее, но полностью доверить им дорогу все еще нельзя. Так в чем дело?
Сразу оговоримся: в этой статье мы не будем останавливаться на уровнях автопилота и принципах их работы. Об этом мы уже рассказывали, как и о беспилотных грузовиках.
Сегодня поговорим о другом: почему даже самые продвинутые системы автономного вождения всё еще не могут полностью заменить человека за рулем и почему ни одна страна пока не готова к массовому появлению настоящих беспилотных автомобилей.
Проблема №1 – инфраструктура
Автопилот кажется чисто технологическим решением: камеры, датчики, искусственный интеллект. Но на самом деле его работа сильно зависит от окружающей среды – то есть от дорог и инфраструктуры.
Системам автономного вождения нужна четкая дорожная разметка, по которой автомобиль ориентируется. Если линии стерты, засыпаны снегом или просто нарисованы криво, электроника начинает теряться. И если для человека это небольшая проблема (мы можем ориентироваться по другим машинам или по краю дороги), то для автопилота это уже серьезное испытание.
Показательный пример – тестирование автопилота Tesla в северных штатах США и Канаде. Зимой многие владельцы отмечали, что после сильного снегопада система просто отключается, потому что камеры не видят разметку. Аналогичные сложности возникали и у автомобилей GM с их системой Cruise во время испытаний в Сан-Франциско: на улицах с плохо различимой разметкой машины начинали «сомневаться» в траектории движения и резко снижали скорость.
Еще один фактор – состояние дорог. Ямы, временная разметка и дорожные работы могут сильно запутать систему. И то, что водитель воспринимает как обычную дорожную ситуацию, для автопилота выглядит как ошибка в данных. Например, в 2023 году в Сан-Франциско беспилотные такси Cruise несколько раз останавливались прямо посреди перекрестков из-за дорожных работ. Система просто не могла корректно интерпретировать временную схему движения.
Подобные случаи фиксировались и в Китае во время испытаний автономных автомобилей Baidu Apollo, когда строительные ограждения и временные полосы движения сбивали алгоритмы навигации.
Наконец, важную роль играют цифровые карты высокой точности (HD-maps), где дорога прописана буквально до сантиметра. Но поддерживать такие карты в актуальном состоянии сложно: дороги меняются, появляются новые развязки, меняется организация движения. Поэтому даже технологические лидеры вынуждены ограничивать работу своих беспилотных сервисов конкретными районами городов, где инфраструктура уже хорошо изучена.
Проблема №2 – поведение людей
Но предположим, что все дороги идеально размечены, а карты – максимально точные. Казалось бы, идеальные условия для автопилота. Но у нас остается еще один фактор, который сложно просчитать, – это сами люди…
Автопилоты создаются для логичной и предсказуемой дорожной среды, где все участники движения соблюдают правила. Однако реальная жизнь устроена иначе: водители часто перестраиваются без поворотника, резко тормозят, подрезают или пытаются проскочить на желтый сигнал светофора.
Для человека такие ситуации привычны. Мы можем быстро оценить обстановку – по скорости соседних машин, по поведению водителя впереди или даже по тому, как автомобиль начинает смещаться в полосе. Алгоритму же нужно принять решение на основе данных датчиков и заранее прописанных сценариев, а таких сценариев на дороге может быть тысячи. И автопилот не всегда правильно считывает этот сценарий…
Самая известная серия инцидентов произошла в 2023 году в Сан-Франциско. Беспилотные такси Cruise после ДТП с другими авто иногда пытались съехать на обочину, но из-за неверной оценки нестандартной ситуации останавливались прямо на проезжей части, тем самым блокируя движение.
А ведь еще есть пешеходы: кто-то может внезапно выйти на дорогу, перебежать в неположенном месте или начать переходить улицу, отвлекшись на телефон. Для человека это неприятная, но понятная ситуация. Для автопилота – еще один сложный сценарий, который нужно мгновенно распознать и правильно обработать. Но как бы много сценариев ни изучила система, человек все равно способен придумать новый – и чаще всего не самый логичный. И это мы еще не берем в расчет то, что люди сами провоцируют автопилоты.
Еще на ранних этапах тестирования роботакси в Waymo обнаружили интересный эффект: люди довольно быстро понимают, что перед ними беспилотник, и начинают вести себя более рискованно. Например, вклиниваться перед машиной или резко перестраиваться, рассчитывая на ее осторожность. И в одном из отчетов компании отмечалось, что такие ситуации происходят регулярно во время городских тестов.
Проблема №3 – законодательство
Даже если везде появится нужная инфраструктура, а все люди начнут ездить и ходить по правилам, остается еще один и, пожалуй, самый сложный вопрос – юридический. Главная дилемма звучит просто: кто виноват, если беспилотный автомобиль попадает в аварию?
В обычной ситуации все понятно – за рулем человек, значит, именно он и несет ответственность. Но если машина ехала на автопилоте, все становится гораздо сложнее. Тогда возникает целая цепочка возможных виновников:
- водитель, который должен был контролировать систему;
- производитель автомобиля;
- компания, разработавшая программное обеспечение;
- владелец автомобиля.
И здесь начинается юридическая головоломка. Представьте: автомобиль сам принял решение, произошла авария, а человек за рулем в этот момент даже не касался педалей. Кого тогда привлекать к ответственности? Производителя? Разработчика? Или человека, который доверился автопилоту?
А такие вопросы уже возникали на практике. Например, в 2018 году в Аризоне беспилотный автомобиль Uber во время тестирования насмерть сбил пешехода. Расследование показало, что система поздно распознала человека на дороге, а водитель-оператор в этот момент не успел вмешаться. В итоге ответственность легла сразу на несколько сторон: компанию – разработчика технологии, оператора автомобиля и систему безопасности проекта. И после этого инцидента Uber фактически свернул свою программу беспилотных автомобилей.
Еще один показательный пример – история с сервисом Cruise. В 2023 году в Сан-Франциско пешеход вышла на дорогу на красный свет и была сбита автомобилем Nissan, после чего отлетела под колеса беспилотника. Робот-такси остановился, но затем активировал маневр pull over (съезд на обочину), чтобы освободить полосу, при этом протащив пострадавшую девушку около 6 метров. После этого власти Калифорнии временно приостановили лицензию Cruise на эксплуатацию беспилотных такси, а сама компания была вынуждена пересмотреть правила работы системы. И это с учетом того, что изначально виновата сама девушка, вышедшая на запрещающий сигнал светофора.
Даже функции частичной автономности вызывают юридические вопросы. Например, автопилот Tesla и более продвинутый режим Full Self-Driving регулярно становятся предметом расследований в США. Национальное управление безопасностью движения на трассах (NHTSA) изучало десятки аварий с участием автомобилей Tesla, где была активирована система помощи водителю. И основная проблема заключается именно в том, как распределяется ответственность между системой и водителем.
Например, в 2019 году Tesla Model S с включенной системой Autopilot проехал перекресток и столкнулся с припаркованным внедорожником. В результате ДТП 22-летняя женщина погибла, а ее молодой человек получил тяжелые травмы. И после судебных разбирательств присяжные пришли к выводу, что компания Tesla частично виновна в аварии – долю ответственности производителя определили в размере 33%.
Но это лишь частный случай. Пока у законодателей нет однозначного ответа, кто виноват в ДТП с участием автопилота. И это неудивительно: для внедрения беспилотных автомобилей требуется не один новый закон, а целая система правил. Нужно определить ответственность в случае аварии, прописать требования к программному обеспечению и сертификации автомобилей, обозначить правила обновления софта и даже порядок взаимодействия машины с дорожной инфраструктурой.
Получается парадокс: даже если технология уже почти готова, законы к ней – нет. И пока этот вопрос не решен, массовое появление настоящих беспилотных автомобилей остается скорее делом будущего.