Доброго времени суток, друзья. Как думайте, что будет если когда-нибудь роботы нарушат установленные нами правила? Например три закона робототехники Айзека Азимова:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Могут ли машины нарушить эти законы. Конечно. Основная причины возможности нарушения этих законов, неправильная трактовка роботом понятий человека. Что в понимании робота есть вред, что есть бездействие. При неправильной трактовке этих понятий, робот может зайти слишком далеко. А как научить робота правильно трактовать эти понятия, если даже люди иногда ошибаются в своих суждениях.
Есть хороший пример нарушения роботом первого закона. Изобретатель Ребен создал простого робота с иглой и платформой, человек кладет палец на платформу, а робот решает сам, уколоть или нет. И часто это решение не в пользу человека. Посмотрите видео ниже.
Как видите робот нарушает первый закон. Ребен наделил робота искусственным интеллектом и возможностью самому принимать решения. Изобретатель говорит, что важнее не заставить роботов выполнять законы, а создать определенную резервную кнопку или команду, способную остановить машину. Ведь если робот не так поймет происходящее вокруг, значит и совершит не те действия. Как бы то ни было на видео пример с иголкой. А если у робота будет нечто более страшное, чем иголка?
Робототехника развивается огромными темпами. Может стоит немного сдержать это развитие. Как вы считайте? Или понадеемся, что потом, что-нибудь придумаем...