Найти тему
Информационный

Неисправность Совета безопасности Тесла и регуляторов в фатальной аварии 2018 года

Национальный совет по безопасности на транспорте говорит, что автопроизводитель должен ограничить использование своей функции автопилота и лучше определять, когда водители обращают внимание.
Федеральная контрольная панель взорвалась в Тесле и федеральном агентстве, которое регулирует ее во вторник после завершения расследования фатальной аварии 2018 года, в которой участвовала автопилотская компания по оказанию помощи при вождении автомобиля.

Расследование, проведенное Национальным советом по безопасности на транспорте, показало, что Tesla не сделала достаточно для предотвращения злоупотребления водителями автопилотом, который, по словам Теслы, может «ездить» по автомагистралям в некоторых ситуациях, но всегда должен контролироваться теми, кто находится за рулем. Исследование также пришло к выводу, что невнимательный, добровольный подход Национальной администрации безопасности дорожного движения к регулированию новых технологий транспортных средств упустил из виду риски расширенных функций помощи водителю, которые в настоящее время обнаруживаются в автомобилях Tesla, General Motors, Audi и других.

Расследование NTSB - одно из четырех завершенных или находящихся в стадии выполнения аварий, связанных с автопилотом - расследовало инцидент, произошедший в марте 2018 года в Маунтин-Вью, штат Калифорния. Во время утренних поездок модель X 2017 года на автопилоте врезалась в бетонный барьер, отделяющий шоссе от съезда со скоростью 71 миль в час. (Барьер был поврежден в результате другого крушения 11 дней назад и не был отремонтирован агентством автомобильных дорог Калифорнии.) Внедорожник развернулся, столкнулся с двумя другими транспортными средствами, а затем загорелся. Посторонние вытащили водителя из машины, но вскоре после этого мужчина, 38-летний инженер Apple по имени Вальтер Хуан, умер в местной больнице.

Правление решило, что вероятная причина крушения была сложной, но выдвинуло несколько обоснованных обвинений против Теслы. В нем говорилось, что система «Автопилот» Теслы управляла внедорожником с дороги и что водитель не заметил, прежде чем автомобиль врезался в барьер несколько секунд спустя. NTSB пришел к выводу, что Хуан больше полагался на функцию автопилота, чем следовало бы; журналы сотовых телефонов показывают, что он играл в игру на своем телефоне. Совет по безопасности приписал некоторые из этого невнимания к дизайну Tesla Autopilot, который использует величину крутящего момента, приложенного к рулевому колесу, как признак того, что водитель достаточно занят во время вождения. (Другие системы, такие как та, что используется General Motors, используют камеру в автомобиле для контроля положения головы и движения глаз.)

-2

NTSB не может изменить федеральную или местную политику, но может давать рекомендации. Там было много таких. Правление повторило две рекомендации, которые оно вынесло в ходе расследования смерти, связанной с автопилотом в 2017 году, на которое Тесла официально не отреагировал. Он попросил, чтобы Тесла ограничил водителей использовать автопилот в дорожных и погодных ситуациях, где он может безопасно использоваться. И она настоятельно призвала компанию обновить свою систему мониторинга водителя, чтобы она могла «более эффективно ощущать», насколько увлечен человек за рулем вождением.

Тесла не ответил на запрос о комментарии. Но всего через несколько дней после аварии компания опубликовала подробности об этом инциденте - серьезное отрицание в расследованиях NTSB, которое обычно занимает месяцы или годы - и фактически обвинила Хуанга в этом событии. Компания заявила, что Хуан не касался колеса в течение шести секунд, прежде чем автомобиль врезался в бетонный разделитель полосы движения, и что «у водителя было около пяти секунд и 150 метров беспрепятственного обзора бетонного разделителя... но журналы транспортного средства показывают, что никаких действий не было». принято «. Поскольку Тесла обнародовал эту информацию, NTSB предпринял необычный шаг, официально исключив Теслу как сторону расследования.
NTSB также сказал, что дорожные агентства Калифорнии внесли свой вклад в инцидент, не сумев устранить конкретный барьер - что, как он заключил, спасло бы жизнь водителей.

У NTSB также были рекомендации для NHTSA. Он призвал агентство разработать новые способы тестирования расширенных функций помощи водителю, таких как предупреждение о прямом столкновении, и, в частности, изучить систему автопилота Tesla. NTSB также попросил NHTSA сотрудничать с промышленностью, чтобы создать стандарты производительности для функций помощи водителю, которые, по словам критиков, могут заманить людей в чувство самодовольства, даже если они не намерены взять на себя задачу вождения.

Член правления Дженнифер Хоменди обвинила федеральных регуляторов в их подходе к новым технологиям, таким как Autopilot, который отстаивал NHTSA, чтобы сохранить новые транспортные средства по доступным ценам и доступным для большего числа водителей. «Миссия NHTSA - не продавать автомобили», - сказала она.

В своем заявлении представитель НАБДД заявил, что агентство «тщательно изучит» отчет NTSB, окончательный вариант которого будет выпущен в ближайшие недели. Это также указало на исследование агентства, излагающее лучшие отраслевые методы для технологии помощи водителю.
NTSB также возложил вину за крах Хуанга у ног его работодателя, Apple. Совет директоров заявил, что работодатели должны иметь политику отвлекающего вождения для своих работников, запрещающую им использовать устройства при эксплуатации принадлежащих компании транспортных средств и использовать свои рабочие устройства при управлении любым транспортным средством. (Во время аварии Хуанг управлял собственным автомобилем, но его телефон принадлежал Apple.) И группа призвала производителей мобильных устройств, в том числе Apple, Google, Lenovo и Samsung, создать технологию, которая блокировала бы драйверы. отвлекающих приложений во время вождения. Спрос «не против технологий», сказал председатель NTSB Роберт Sumwalt в своем вступительном заявлении. «Это за безопасность». Apple заявила, что ожидает от своих сотрудников соблюдения закона.

После аварии 2016 года с участием автопилота Тесла изменил работу этой функции. Теперь, если водитель, использующий автопилот, не нажимает на колесо в течение 30 секунд, будут звучать предупреждения и мигать, пока автомобиль не замедлится до остановки. В прошлом году компания снова обновила автопилот новыми предупреждениями о красных огнях и знаках остановки.

В ответ на видео, которое стало популярным в прошлом году и показало, что водитель спит во время использования автопилота на шоссе, американский сенатор Эд Марки (штат Массачусетс) рекомендовал переименовать Tesla и переименовать автопилот, чтобы прояснить его ограничения и добавить систему резервного копирования. чтобы убедиться, что водитель остается включенным, находясь за рулем. В ответ Марки Тесла сказал, что считает, что водители, которые злоупотребляют Autopilot, являются «очень небольшим процентом от нашей клиентской базы»,  и что многие онлайн-видео водителей, злоупотребляющих этой функцией, «являются поддельными и предназначены для привлечения внимания средств массовой информации».

Сравнивая данные о сбоях водителей Tesla с включенным автопилотом с данными тех, кто использует только более базовые функции безопасности, такие как предупреждение о прямом столкновении и автоматическое экстренное торможение, Тесла пришел к выводу, что его клиенты на 62% меньше подвержены сбоям при включенном автопилоте.