Здравствуйте, дорогие мои читатели!
Роботизированные транспортные средства десятилетиями использовались в опасных условиях - от вывода из эксплуатации атомной электростанции в Фукусиме до инспекции подводной энергетической инфраструктуры в Северном море. Совсем недавно автономные транспортные средства-от лодок до тележек для доставки продуктов-совершили плавный переход из исследовательских центров в реальный мир с очень небольшим количеством сбоев.
Однако обещанное появление самоуправляемых/беспилотных автомобилей не продвинулось дальше стадии испытаний. А в одном из тест-драйвов самоуправляемого автомобиля Uber в 2018 году этот автомобиль сбил пешехода . Хотя эти несчастные случаи происходят каждый день, когда люди находятся за рулем, общественность придерживается гораздо более высоких стандартов безопасности, интерпретируя единичные аварии как доказательство того, что эти транспортные средства слишком опасны, чтобы выпускать их на дороги общего пользования.
Программирование идеального самоуправляемого автомобиля, который всегда будет принимать самое безопасное решение-огромная и сложная техническая задача. В отличие от других автономных транспортных средств, которые, как правило, разворачиваются в строго контролируемых условиях, самоходные автомобили должны функционировать в бесконечно непредсказуемой дорожной сети, быстро обрабатывая многие сложные переменные , чтобы не создавать опасных ситуаций и оставаться в безопасности.
Вдохновленные правилами дорожного движения , учёные работают над набором правил, которые помогут самоуправляющимся автомобилям принимать самые безопасные решения в каждом мыслимом сценарии. Проверка того, что эти правила работают - это последнее препятствие, которое надо преодолеть, чтобы получить надежные самоуправляемые автомобили безопасные на наших дорогах.
Автор научной фантастики Исаак Азимов написал “три закона робототехники” в 1942 году. Первый и самый важный закон гласит: “робот не может причинить вред человеку или своим бездействием допустить , чтобы человеку был причинен вред”.
В Национальном роботизированном центре ведутся исследования, призванные гарантировать, что самоуправляемые автомобили всегда будут принимать решения, соответствующие этому закону. Такая гарантия обеспечит решение очень серьезных проблем безопасности, которые препятствуют самостоятельному вождению автомобилей во всем мире.
Программное обеспечение ИИ на самом деле довольно хорошо изучает сценарии, с которыми оно никогда не сталкивалось. Используя “ нейронные сети ”, аналогичные структурам человеческого мозга, такие программы могут обнаруживать закономерности в данных, таких как движение автомобилей и пешеходов, а затем вспоминать эти закономерности в новых сценариях.
Но учёным еще нужно доказать, что в этих новых сценариях будут работать любые правила безопасности, которым обучают самоуправляемые автомобили. Для этого можно обратиться к формальной верификации -методу, с помощью которого компьютерщики доказывают, что правило работает при любых обстоятельствах .
В математике, например, правила могут доказать, что x + y равно y + x, не проверяя каждое возможное значение x и y. Формальная верификация делает нечто подобное: она позволяет доказать, как программное обеспечение ИИ будет реагировать на различные сценарии без необходимости исчерпывающего тестирования каждого сценария, который может произойти на дорогах общего пользования.
Одним из наиболее заметных недавних успехов в этой области является верификация системы искусственного интеллекта, которая использует нейронные сети, чтобы избежать столкновений между автономными самолетами . Исследователи успешно официально подтвердили, что система всегда будет реагировать правильно, независимо от горизонтальных и вертикальных маневров задействованного самолета.
Люди-водители следуют правилам дорожного движения , чтобы обеспечить безопасность всех участников дорожного движения, которые полагаются на человеческий мозг, чтобы изучить эти правила и разумно применять их в бесчисленных реальных сценариях. Учёные также могут научить самоуправляемые автомобили дорожным правилам. Для этого требуется разъяснить и закодировать в коде каждое правило, и научить нейронные сети транспортных средств понимать, как подчиняться каждому правилу, затем проверить , насколько на них можно положиться, чтобы безопасно подчиняться этим правилам при любых обстоятельствах.
Однако проблема проверки того, что эти правила будут соблюдаться безопасно, усложняется при рассмотрении последствий фразы “никогда не должен” в дорожных правилах. Чтобы сделать самоуправляемый автомобиль таким же, как и водитель-человек в любом конкретном сценарии, надо запрограммировать эти правила таким образом, чтобы учесть нюансы, взвешенный риск и случайный сценарий, когда различные правила находятся в прямом конфликте, требуя, чтобы автомобиль игнорировал один или несколько из них.
Такая задача не может быть поставлена исключительно программистам – она потребует участия юристов, экспертов по безопасности, системных инженеров и политиков. В рамках недавно созданного проекта AISEC команда исследователей разрабатывает инструмент для облегчения междисциплинарного сотрудничества , необходимого для создания этических и правовых стандартов для самоуправляемых автомобилей.
Обучение самодвижущихся автомобилей может быть совершенным и динамичным процессом в зависимости от того, как правовые, культурные и технологические эксперты определяют Совершенство с течением времени. Инструмент AISEC строится с учетом этого, предлагая “панель управления движением” для мониторинга, дополнения и адаптации наиболее успешных правил, регулирующих работу самоуправляемых автомобилей, которые затем будут доступны для отрасли.
Учёные надеются поставить первый экспериментальный прототип инструмента AISEC к 2024 году. Но еще нужно создать адаптивные методы проверки для решения остающихся проблем безопасности и это, вероятно, займет не один год.
Аварии с участием самоуправляемых автомобилей всегда создают довольно шумную реакцию в прессе. Самоуправляемый автомобиль, который узнает пешехода и останавливается, прежде чем сбить его, в 99% случаев является поводом для празднования в исследовательских лабораториях. Создавая надежные, поддающиеся проверке правила безопасности для самоуправляемых автомобилей, мы пытаемся сделать так, чтобы этот 1% аварий остался в прошлом.
Дорогие мои читатели!
Я стараюсь рассказать Вам о разных сторонах нашей жизни, о новых открытиях и достижениях, об интересном и полезном.
Прошу Вас не лениться и оставлять комментарии, ведь Ваше мнение не менее важно для всех кто читает статью, и для меня в том числе.
Ставьте лайк, выражайте своё отношение к каналу.
Подписывайтесь, не теряйте его в массе других, если Вам интересно!
В статье, в том числе, использован материал « Perfecting self-driving cars – can it be done? ».