Найти тему
Gaze

Банкротство проекта беспилотных грузовиков - Искусственный интеллект недостаточно безопасен

Генеральный директор проекта откровенно говорит о причине: машинное обучение «не оправдывает шумиху»

Недавно компания Starsky Robotics - стартап по производству самоуправляемых грузовиков, объявила о закрытии проекта. Starsky Robotics был не просто очередным стартапом, столкнувшимся с реалиями бизнеса. В 2019 году он был назван одним из 100 самых многообещающих стартапов в мире и одним из самых популярных в отрасли грузовых перевозок.

Изначально команда Starsky не стремилась к невообразимому. Фирма разрабатывала грузовики так, чтобы они были автономными на междугородних трассах - что намного проще, - водители были нужны лишь на критических участках начала и окончания поездки (несколько километров, как правило - в городе).

Стефан Зелс-Аксмахер, соучредитель и генеральный директор Starsky, написал в блоге длинный и содержательный пост о проблемах, которые привели к упадку его фирмы:

Я считаю, что именно время больше, чем что-либо другое, виновато в нашей несчастной судьбе. Наш подход, я по-прежнему считаю, был правильным, но пространство было слишком перегружено невыполненными обещаниями [об автономности], чтобы сосредоточиться на практическом решении. Поскольку этих достижений не произошло, поток интереса инвесторов превратился в мелкий дождь. Не помогло и то, что прошлогодние технологические IPO отняли у технологической отрасли много энергии и что грузоперевозки находятся в состоянии рецессии около 18 месяцев. Это поучительно и позволяет увидеть перспективы (и опасность) в перспективе.
-2

Хайп на искусственном интеллекте и первые признаки беды

Несмотря на все обещания и усилия, грузовики Starsky не были надежными. Причины, по которым проект потерпел неудачу, Зелс-Аксмахер сводит к единственному фактору, несколько охлаждая шумиху, которую мы так часто слышим о беспилотных транспортных средствах:

С этой индустрией слишком много проблем: сумасшедший темп, с которым работает большинство команд, отсутствие ощутимых этапов развертывания, очевидный всем "секрет", что не существует бизнес-модели роботакси, что машинное обучение с учителем не оправдывает шумиху и т.д. Это не настоящий искусственный интеллект, похожий на "Терминатора", это сложный инструмент сопоставления с образцом.

По сути, экспоненциального улучшения систем искусственного интеллекта (глубокое/машинное обучение), которого все ожидали, не произошло. Более ранние быстрые улучшения превратились в длинный хвост сложных «исключительных случаев». После нескольких лет, казалось бы, неудержимого прогресса, искусственный интеллект снова наталкивается на твердую стену реального мира. Как говорит Зелс-Аксмахер:

Вместо экспоненциального улучшения качества работы ИИ (по закону Мура) мы наблюдаем экспоненциальный рост затрат на улучшение систем ИИ…

-3

К чести компании Starsky Robotics (и к несчастью для их собственного выживания) фирма серьезно относилась к безопасности:

По определению, достижение безопасности - это достижение безупречного; вы упорно пытаетесь создать систему, которая будет работать без сбоев.
Техника безопасности - это процесс тщательного документирования вашего продукта, чтобы вы точно знали условия, при которых он выйдет из строя, и серьезность этих отказов, а затем измерение частоты этих условий, чтобы вы знали, насколько вероятно, что ваш продукт причинит вред людям.
Это действительно очень сложно. Настолько сложно, что это более или менее единственное, что мы делали с сентября 2017 года до нашего беспилотного запуска в июне 2019 года. Мы задокументировали нашу систему, создали систему резервного копирования, а затем неоднократно тестировали нашу систему на отказ, исправляли ошибки и повторяли снова.

Бизнес-модель Starsky пострадала отчасти из-за того, что инвесторы предпочитают необычные новые функции доказанной безопасности. Однако затем реальный мир всё расставляет по местам.

Несмотря на обещания и маркетинг, в автономном вождении никакая форма искусственного интеллекта и близко не может заменить людей, даже в сценариях ограниченного использования. Не весело смотреть, как умирает чья-то мечта. Но, полагаю, мы все можем извлечь из этого урок.

-4