Не так уж далеко то время, когда авторы Season Passed будут готовить злободневные репортажи на тему «Технофобия против технократии». Но, одно дело писать об умном доме, который сам себя приберёт, и самостоятельно приготовит ужин хозяину, а другое — о военных машинах, что способны найти и поразить цель, не прибегая к запросу разрешения на открытие огня у человека. И всё чаще в европейских новостных сводках мелькают заголовки по типу «скажем нет роботам-убийцам!», и всё ближе гонка кибернетических вооружений между Россией и США.
Тем временем, активисты из 35 стран встретились на этой неделе в Берлине, чтобы привлечь внимание к запрету смертоносного автономного оружия в преддверии новых переговоров об этом оружии в Женеве. Они полагают, что если Германия возьмёт инициативу в свои руки по данному вопросу, то и другие страны последуют её примеру.
«Я могу создать робота-убийцу всего за две недели», — говорит Ноэль Шарки, наклоняясь вперед с предупреждающим взглядом. Седовласый английский профессор — известный специалист по робототехнике и искусственному интеллекту, специально отправился в Берлин, чтобы принять участие в международной встрече движения под названием «Остановите роботов-убийц». Ноэль — один из основных идеологов данного движения.
Профессор Шарки утверждает, что говорить о «смертоносном автономном оружии» так, будто оно на данный момент является чем-то из научной фантастики — большая ошибка; полностью автономные оружейные системы на самом деле являются устоявшейся реальностью!
Такое оружие уже существует в виде ракет, беспилотных транспортных средств, БПЛА, подводных лодок или скоплений мини-дронов.
Ноэль Шарки подчеркнул, что «машина не способна принимать решения, основанные на морали», и «не всегда может отличить боевика от мирного гражданского». А в качестве примера привёл ошибки в работе системы распознавания лиц, по вине которых невинные люди были идентифицированы ей как предполагаемые преступники. Точность распознавания напрямую зависит от искусственного интеллекта, и как только боевая машина установит личность человека, она может атаковать сама. Всё больше критиков приходит в ужас от такого сценария.
Человек тоже может ошибиться, командование может отдать приказ «открыть огонь», основанный на неточных разведданных, у солдата могут сдать нервы, на войне случается всякое… Но если робот принял решение вести огонь на поражение — он это сделает, причём сделает это эффективно и точно. Робот не боится, робот не сомневается, у него не «дрогнет рука», а в случае поражения «не той» цели — робот не испытает горечи раскаяния, не почувствует ровным счётом ничего, и более того — ничего ему за это не будет.
На основании материала dw.com: Resistance to killer robots growing
Поддержка: telegram-канал @Neverwhere.