3 закона робототехники
ИИ рассказал в каких случаях но может обойти законы робототехники.
Законы робототехники, сформулированные Айзеком Азимовым, на протяжении десятилетий служили ориентиром для разработки искусственного интеллекта и робототехники. Эти три правила гласят: 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен подчиняться приказам человека, если они не противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности, если это не противоречит Первому или Второму Законам. Но как может...
Три закона робототехники - почему они не работают, и никогда не будут
Согласитесь, претенциозное название для статьи? Давайте разбираться, в чём дело. Всем любителям фантастики знакомы те самые заветные три фразы, которые управляют логикой поступков больших железных андроидов: Маэстро Айзек Азимов создал, казалось бы, гениальную систему, лучший набор алгоритмов, который обезопасит человека от разбушевавшегося ИИ. Благодаря этим вшитым в чипы директивам, роботов можно смело приводить домой и посадить на привязь относиться как к ещё одному члену семьи. Но не так-то тихо в Датском королевстве, как могло бы показаться...