Найти тему
Peace-data.ru

Почему Искусственный Интеллект никого не убьет

Skynet не пройдет!

Увертюра

Цель данной статьи — пробудить неподдельный и глубокий интерес к технологиям, информировать о том, что сейчас происходит в IT области. Я надеюсь, что этот текст позволит уменьшить степень демонизации прогресса в технологической области. Хочу поделиться с Вами тягой к технологизации и развитию.

Очевидно, что «компуктеры» и «компудахтеры» не стоят на месте и уже опережают людей в некоторых областях, а затем, идейные люди развивают их, делают еще лучше, создавая алгоритмы самообучения. И это полезно для человечества в целом: благодаря такой своеобразной конкуренции с собственным творением человеку необходимо развиваться и приобретать новые навыки. Интересно, сколько было ужаса у людей, когда вместо печатных машинок ставили компьютер с текстовым редактором? По секрету скажу, что я застал печатную машинку у родителей на работе.

Как мне кажется, скоро любому человеку кроме родного языка, пары иностранных языков, необходимо будет знать хотя бы два языка программирования.

Актуальность темы и существующие проблемы

Чтобы сделать тему «острее», для рассмотрения я намеренно выбрал такую область развития технологий, которая напрямую затрагивает человеческую жизнь. Точнее будет сказать, что я выбрал сферу дорожно-транспортных происшествий с человеческими жертвами для наглядности и чтобы задеть Вас за живое. Только так рождается неподдельный интерес.

Надеюсь, многие слышали, что различные IT компании и автоконцерны занимаются созданием автопилота для автомибелей.

Есть две основные причины проблем, возникающих на данном этапе развития ИИ в области управления автомобилем:

  • Дорожная ситуация не всегда предсказуема: участники дорожного движения могут вести себя на дороге самым неожиданным образом, в любой момент времени кто-то может нарушить правила дорожного движения.
  • Сам автопилот для машин еще далек от совершенства и изобилует ошибками, которые приводят к ДТП.

Другими словами, пока все проблемные ситуации происходят либо из-за непредсказуемого поведения человека, либо из-за плохо настроенного и «обученного» ИИ. Очевидно, что со второй проблемой можно справиться, настроив и обучив соответствующий автопилот (автономный интеллект). С другой стороны — человеческий фактор. Например, как в ситуации ДТП со смертельным исходом, которая произошла в том числе из-за нарушения пешеходом ПДД.

Что же делать с человеческим фактором? Возможно ли его предсказать?

На данном этапе развития Искусственного Интеллекта ответом на эти вопросы может быть исследование, проведенное в MIT (Массачусетском технологическом институте). Если у Вас будет желание, Вы можете присоединиться к нему и пройти анкетирование, в котором описываются различные моральны дилеммы в ситуации неизбежного ДТП с человеческими жертвами.

Другими словами, исследователи из MIT предполагают, что на данный момент исключить и предсказать человеческий фактор в дорожной ситуации невозможно. Остается только решить, что делать в той или иной ситуации: так, если жертвы не избежать, но еще есть время, чтобы решить, кто именно пострадает, пострадает больше или даже погибнет в ДТП?

Очевидно, что такую ответственность невозможно переложить на автопилот. В тоже время, исследование MIT предполагает, что эту ответственность можно переложить с разработчиков на статистику, то есть на общественное мнение, на людей… на нас с Вами.

Человеческий фактор в описании морали Искусственного Интеллекта

У данного исследования, на мой взгляд, есть несколько наиболее логичных вопросов, на которые оно наталкивает:

  • Если управлять машиной будет автопилот, то вероятность ДТП снизится?
  • Если ДТП будет неминуемо, то как именно будет действовать Искусственный Интеллект? Как он будет выбирать то или иное действие?
  • Буду ли я согласен с его выбором?

Так при чем здесь мораль?

Это самый сложный вопрос, который уводит нас от незыблемого материального мира в область вечно туманных философских рассуждений.

Буду краток.

Наиболее известное определение морали гласит, что «мораль (лат. – нравственность) – это способ духовного существования личности, духовный рычаг общества. Проявляется как форма общественного сознания, устанавливающая нормативно-оценочные правила поведения человека в обществе и его личной духовной жизни». Другими словами, это негласные правила поведения человека в различных ситуациях, в том числе, ДТП. Существует два очевидных регулятора моральности поведения: личность человека (его индивидуальность) и общество. Человек может взять или не взять ответственность на себя, а общество, в свою очередь, может эту ответственность снять или «повесить».

Возвращаясь к ситуации ДТП.

Если машину ведет человек, то, в соответствии с ПДД, ответственность будет возложена на того, кто правила нарушил. Проще говоря, виновен тот, чьи действия привели к сложившейся ситуации, если доказано, что это так. Тем не менее, если у водителя есть шанс изменить ситуацию?

Итак, в среднем, скорость реакции водителя равняется одной секунде. На дорогу выбегает человек и за эту секунду можно успеть вывернуть руль. Конечно, если водитель успел увидеть выбегающего человека, если не впал в ступор, если… он успел среагировать. Но насколько эта реакция обдумана? Это будет рефлекс. И хорошо, если на дороге не будет других участников движения и машина «улетит» в кювет на небольшой скорости. Как Вы понимаете, в этой умозрительной ситуации слишком много допущений, и мне не хочется описывать ситуации с оживленным дорожным движением, когда резкий маневр, даже попытка затормозить может привести к более серьезным последствиям, чем относительно удачное приземление в кювет. В данном случае, автопилот и ИИ в тысячи раз быстрее. Мощный компьютер сможет просчитать высокую степень вероятности последствий того или ного действия.

Что же получается? Если у машины есть автопилот, который может направить ситуацию ДТП в сторону «улучшения», то на ком будет ответственность? Кто сделает моральный выбор?

Наиболее важное в этой ситуации одна простая мысль: люди создают и программируют машины. Даже те виды ИИ, в которых появились алгоритмы самообучения, остаются специализированными программами у которых есть цель — выполнять свою функцию. Таким образом, Искусственный Интеллект лишь тогда сможет причинить вред человеку или убить его, когда человек сам решит, что такая программа, такой Искусственный Интеллект нужен.Как и ребенок, Искусственный Интеллект не владеет такими понятиями как «причинить вред», «убийство» и т.д. И не будет ими владеть так, как ими владеет человек никогда лишь по одной простой причине — каждый человек индивидуален, и, пусть мы очень похожи, но каждый имеет свой опыт и сформированный понятий аппарат, поведенческие особенности. Так и любой возможный Искусственный Интеллект будет другим, более того, на мой взгляд, он не будет мыслить так, как мыслим мы в принципе.

На мой взгляд, когда развитие технологий позволит воплотить такой автопилот и ИИ, который будет способен просчитать все варианты развития ДТП, потребуются новые законы, которые будут регулировать такую ситуацию. Законы, которые будут сложнее чем те, что придумал Айзек Азимов. Сложнее в том смысле, что они будут специализированы для всех видов деятельности ИИ.

Вывод:

Я считаю, что Искусственный Интеллект необходимо развивать дальше. Самый сложный вопрос в развитии ИИ и в вопросах «морали машины на автопилоте», не в решении, кому жить, а кому умереть в той или иной ситуации, ведь в любой из таких ситуаций решить что, «верно», а что — «неверно» на самом деле практически невозможно доподлинно. Важнее то, на ком будет моральная ответственность за происходящее на дороге и ответственность за выбор в случае неизбежности чрезвычайных ситуаций. На мой взгляд, такую ответственность придется взять на себя разработчикам автопилота и Искусственного Интеллекта в целом.

P.S.

Хотел бы снова обратить Ваше внимание на понятие «автономный интеллект» и его отличие от «ИИ».

Если Вам некогда читать еще и это, то простое пояснение таково: автономный интеллект — предшественник полноценного Искусственного Интеллекта, является его возможным проявлением. Сравнить можно с Ваши умение водить машину, которое является проявлением Вашего интеллекта. Поэтому, стоит правильно многие разработки в области ИИ называть автономным интеллектом. Это позволит избежать паники в рядах обывателей по поводу того, что скоро мир заполонят роботы, а люди станут рабами. Если у Вас еще есть мысли о том, что роботы хотят «убить всех человеков», советую посмотреть вот этот ролик.

Есть только одно существо, которое может помыслить масштабное истребление сородичей и геноцид — человек.

Данная статья идейное продолжение размышлений на тему «Психология и ИИ».

Источники вдохновения: