Независимое исследование показало, что система помощи водителю Tesla Autopilot может приводить к авариям со смертельным исходом из-за ошибочных решений, принимаемых алгоритмом. Журналисты The Wall Street Journal проанализировали информацию, полученную после доступа к компьютерам автомобилей Tesla с функцией FSD, которая была извлечена из аварийных автомобилей. Благодаря этому удалось воссоздать 222 инцидента с участием Tesla, включая случаи, когда автомобили на автопилоте внезапно меняли траекторию движения или не останавливались вовремя.
Анализ данных показал, что в некоторых случаях системы FSD плохо распознавали препятствия на дороге, что приводило к столкновениям. Также были выявлены проблемы с калибровкой камеры и медлительностью обновления алгоритмов. Эксперты отметили, что автопилот Tesla работает по алгоритмам, требующим обучения, и некоторые ситуации бывает трудно предсказать. Решение этих проблем может потребовать сотрудничества с другими компаниями, предоставляющими данные для обучения автопилота.
]]>