Беспилотные автомобили десятилетиями были популярной темой в научной фантастике. Но эта высокотехнологичная мечта стала осязаемой за последние несколько лет. Несколько компаний уже запустили масштабные операции с роботакси, и Tesla неоднократно утверждала, что их система полного самоуправления (FSD) безопаснее человека-водителя. На первый взгляд, кажется, что мы на одном шаге от того, чтобы больше никогда не прикасаться к рулю. Но не все так просто. Если посмотреть на данные, окажется, что эти «самоуправляемые» автомобили настолько небезопасны, что удивительно, как их вообще допустили на дороги. Позвольте объяснить.
Начнем с главного игрока на этом поле — Tesla. Илон Маск известен тем, что делает преувеличенные заявления о возможностях их беспилотных автомобилей. В 2016 году он заявил, что Tesla сможет самостоятельно пересекать страну «уже в следующем году» и что владельцы смогут вызывать свои машины «из любого места, соединенного сушей и не заблокированного границами, например, вы в Лос-Анджелесе, а машина в Нью-Йорке». Ну что ж, прошло 7 лет, и Tesla все еще не может этого делать. Однако недавно Tesla заявила, что FSD имеет показатель аварийности в пять раз ниже, чем у людей, и мой радар "Ерунда от Илона" зашкалил.
Это просто не может быть правдой.
В прошлом году Маск также объявил, что FSD проехал 150 миллионов миль, что означает, что каждая из 400 000 машин с этой технологией в среднем использовала FSD на 375 милях. Но благодаря Национальной администрации безопасности дорожного движения (NHTSA) мы также знаем, что с 2021 года по конец 2023 года на Teslas при использовании автоматизации произошло 736 аварий, 17 из них с летальным исходом, причем большинство случилось в конце 2022–2023 годов. Можно с уверенностью предположить, что большинство из них произошло на FSD, а не на менее способной системе автопилота, так как именно в этот период увеличения аварий была активно продвигаема данная опция. Но это означает, что у FSD показатель смертельных аварий составляет 11.3 смерти на 100 миллионов миль пути. Для сравнения, показатель смертельных аварий для людей, управляющих автомобилями в 2022 году, составил 1.35 смерти на 100 миллионов миль пути.
Другими словами, FSD примерно в 10 раз менее безопасен, чем водители-люди! Более того, FSD не является полностью автономной функцией, несмотря на ее название, и всегда требует контроля со стороны человека-водителя, который должен вмешаться, когда FSD допускает ошибки. Это означает, что показатель смертельных аварий может быть значительно выше, если использовать его как настоящую самоуправляемую машину! К тому же, человеческие водители все еще должны концентрироваться на дороге и принимать решения о том, когда вмешиваться в работу FSD. Иными словами, они все еще водят. Таким образом, можно утверждать, что использование FSD делает нас в 10 раз хуже в вождении.
Теперь можно возразить, что не все эти аварии произошли при использовании FSD, но чтобы соответствовать утверждениям Маска о том, что FSD в 5 раз безопаснее человека, только 2% аварий должны были произойти при использовании FSD. Если это так, то это свидетельствует о том, что Autopilot чрезвычайно небезопасен, и Tesla должна немедленно прекратить установку этой системы на машины, особенно учитывая, что FSD гораздо безопаснее! Но примерно 19% клиентов Tesla в США выбирают FSD. Если предположить, что эти аварии пропорциональны этому соотношению (19% с FSD, 81% с Autopilot), то у FSD все равно показатель смертельных аварий более чем в два раза выше, чем у человека-водителя!
Так что, хотя и может показаться натянутым утверждение, что FSD в десять раз менее безопасен, чем человек, можно с уверенностью сказать, что он значительно менее безопасен, чем водитель-человек.
Клиенты FSD на самом деле подтверждают эти данные. Недавний анализ публичных данных Tesla показал, что клиенты FSD используют систему только 15% времени вождения, что объясняет, почему пробег на автомобиль составил всего 375 миль. Возникает вопрос: почему кто-то тратит более $10,000 на функцию самоуправления, которая якобы в 5 раз безопаснее их собственного вождения, и использует ее только 15% времени? Просто. Они так часто должны были вмешиваться, чтобы исправить опасное вождение FSD, что они не доверяют системе, и им проще и безопаснее водить самим.
Итак, как Маск пришел к своим цифрам? Многие аналитики указали на то, что данные Tesla были искажены и представлены в очень вводящей в заблуждение форме. Изменяя параметры и представляя данные обманчивым способом, Tesla может делать эти явно неправдивые заявления о FSD.
Но не только Tesla так поступает.
Waymo, экспериментальная служба роботакси Google, недавно проанализировала 7.13 миллионов полностью беспилотных миль и сравнила их с эталонами человеческого вождения, чтобы узнать, насколько безопасна их система. Удивительно, но они обнаружили, что их беспилотные автомобили на 6.7 раз реже, чем человек-водитель, оказываются вовлеченными в аварии, приводящие к травмам. Интересно, что Waymo создала свои собственные эталоны человеческого вождения для сравнения с их системой. Также интересно, что в опубликованной статье об этом анализе не упоминается о вмешательстве удаленных работников, чтобы поддерживать безопасное движение автомобиля. Известно, что Waymo делает это, так как они публично сообщили о 21 «отключении» в 2020 году. Однако Waymo не признала публично, как часто вмешиваются эти удаленные работники. Похоже, что Waymo использует те же трюки, что и Tesla, и их утверждение о том, что их машины на 6.7 раз реже оказываются вовлеченными в аварии, приводящие к травмам, может быть объективно ложным. Эти человеческие эталоны могут быть легко изменены, чтобы сделать Waymo выглядеть лучше. Особенно учитывая, что во время этого анализа Waymo могла двигаться максимум со скоростью 35 миль в час. Это означает, что их средняя скорость могла быть значительно ниже человеческого эталона, что снижает вероятность травм при аварии. Они также могли скрывать, как часто необходимо вмешательство удаленных работников, делая систему искусственно кажущейся более безопасной.
Таким образом, я сомневаюсь, что утверждения о безопасности Waymo действительно надежны.
Что же делать с этой проблемой? Как ни странно, но Waymo предложила блестящее решение — стандартизированный и тщательный тест для оценки безопасности беспилотных автомобилей по сравнению с водителями-людьми. Во-первых, интересно, что они это заявили, так как это определенно кажется попыткой уйти от ответственности за публикуемый анализ безопасности. Во-вторых, такой тест мог бы гарантировать, что общественность понимает, насколько потенциально опасны беспилотные автомобили. Вопрос в том, как бы выглядел такой тест? Как мы можем гарантировать, что в нем не будет лазеек, он не будет предвзятым или действительно отражает правду? Я не тот, кто может ответить на эти вопросы. Но я думаю, что пришло время призвать к такому тестированию, чтобы прояснить эту мутную ситуацию.