Найти тему
Душкин объяснит

Как Искусственный Интеллект изменит войну

Оглавление
Это перевод статьи «5 Ways Artificial Intelligence Will Forever Change How We View The Battlefield», которая была опубликована в журнале Hackernoon 11 июня 2018 г.

Любой, кто следит за новостями, вероятно, уже слышал о том, что компания Google поимела некоторые проблемы из-за связи с американскими военными. В общем, в Google не захотели продлевать контракт Project Maven по предоставлению Искусственного Интеллекта и его возможностей для Минобороны США. Причина отказа от Project Maven — инакомыслие сотрудников, достигшее точки кипения.

Компания, которая никогда не делает зла, конкурирует с Amazon и Microsoft в получении контрактов от государства по Искусственному Интеллекту и облачным технологиям, чья общая стоимость составляет 10 млрд долларов. Если Google перестанет брать контракты, подобные Project Maven, то она потеряет огромную нишу. В прошлом году Amazon рекламировала систему распознавания Rekognition, которая предназначена для обороны. Microsoft сообщала, что её облачные технологии используются для обработки данных американских военных. Если так продолжится дальше, то эксперты Искусственного Интеллекта позабудут о Google.

Project Maven — безвредный, ненаступательный, невооруженный, не летальный инструмент, который используется для того, чтобы идентифицировать транспортные средства и корректировать атаки беспилотных летательных аппаратов. Однако его реализация вызвала несколько серьёзных вопросов, среди которых – «А не переместится ли поле боя в дата-центры?». Сотрудники Google знают, что данные, полученные Искусственным Интеллектом, будут использоваться для борьбы с повстанцами и для нанесения контртеррористических ударов по всему миру. Такие операции редко обходятся без жертв.

Ещё в 2017 году Илон Маск направил письмо в ООН, предупредив, что автономные системы оружия, которые могут идентифицировать цели и стрелять по ним без разрешения человека, имеют шанс быть использованными неправильно. Конечно, это далеко не терминаторы, но автономность летального оружия вызывает тревогу.

Самонаводящееся оружие — это третья революция вооружения после пороха и атомной бомбы. США уже вступила в гонку вооружений. Эксперты военного дела сообщают, что Китай и Европа вложили колоссальные средства в развитие Искусственного Интеллекта для обороны. Россия тоже начинает развивать своё умное оружие. В 2017 году президент РФ заявил что:

«Искусственный Интеллект — это будущее не только для России, но и для всего человечества. Кто станет лидером в этой сфере, тот будет править всем миром».

Эта цитата отчасти является правдой. Выявить преимущества, которые получит страна, преуспевшая в Искусственном Интеллекте, довольно трудно. Ибо их масштаб тяжело вообразить. Ставки настолько высоки, насколько это возможно. И нет, это не голословное заявление, давайте обратимся к основам военного дела.

Конец Взаимного Гарантированного Уничтожения

-2

Со времён «Холодной войны» основой военных действий является взаимное гарантированное уничтожение. Суть этой концепции такова, что любой нападающий будет караться и полностью уничтожаться, если он не сможет взять свою цель с первого захода. Поэтому страны стремятся к созданию оружия, которое позволит нанести первый и сокрушительный удар. И технически, они могут использовать его, если увидят, что баланс взаимного гарантированного уничтожения нарушен одной из сторон.

В игру вступает Искусственный Интеллект, который может найти потенциальные цели. Агрессор сможет безнаказанно совершить первый шаг, что рушит все сценарии взаимного гарантированного уничтожения. Таким образом начинается гонка вооружений, которая дестабилизирует мировой порядок и создает возможность для превентивной войны.

Война может начаться не только из-за автономного оружия, но и из-за командиров, у которых чешутся руки.

Используйте или потеряете

© Pinterest
© Pinterest

Ещё одна опасность заключается в феномене «используй или потеряй». Вдруг ваше преимущество будет разрушено об MAD? Нам не нужно смотреть в будущее для того, чтобы понять чем займутся страны, которые создадут военный Искусственный Интеллект. США уже использовали ядерную бомбу, чтобы проверить её, произвести инвестиции и показать русским, что у них есть оружие, которое стоит бояться. Так США стала доминировать на протяжении следующих десятилетий. Любое государство, которое создаст смертельный Искусственный Интеллект, захочет продемонстрировать его по политическим и стратегическим причинам.

Дегуманизация войны

© New York Post
© New York Post

Глупый аргумент в пользу автоматизированного оружия гласит, что из-за точности роботизированных систем, на войне будет гибнуть меньше людей. Однако это и есть главная проблема. Машины не подвержены эмоциям. Такие чувства, как сострадание и гнев делают нас людьми как во время войны, так и во время мира. Милосердие — это неотъемлемая часть человека. А автономные системы просто выполнят задачу, без каких-либо попыток минимизировать потери.

«Линия, разделяющая добро и зло, проходит не между государствами, не между классами, не между партиями — она проходит через каждое человеческое сердце», — писал Александр Солженицын.

Развитые страны понесут наименьшие потери, но что насчёт менее развитых государств, на чьих территориях сверхдержавы ведут свои войны? Многие страны не обладают робототехникой, поэтому они будут продолжать воевать устаревшими методами. Эти страны неспособны честно сражаться на поле боя, и единственным выходом для них станут диверсии по всему миру.

Потеря контроля

© Polygon
© Polygon

Новые военные технологии будут включать в себя оружие различной степени автономности от полностью контролируемого человеком до полностью автономного. Решающий фактор в такой ситуации — качество имеющихся алгоритмов. Темп боя в таком случае может стать настолько быстрым, что обе стороны не смогут поспевать за машинами.

Существует ещё один риск. И связан он с тем, что неопытные игроки в Искусственном Интеллекте могут потерять контроль над своими военными возможностями. Еда для Искусственного Интеллекта — это данные. Накормите бота неверными данными и он будет идентифицировать всё и всех как угрозу.

Непредсказуемые боты

© Critical Shots
© Critical Shots

Эксперты боятся непредсказуемого Искусственного Интеллекта. Исследование сложных систем показывает, что их поведение непредсказуемо. А это значит, что у нас вряд ли получится контролировать некоторые виды роботов. Осознание того, что некоторые роботы будут обладать оружием, станет веской причиной потребовать большего контроля над ними.

Люди, которые не обладают должными знаниями уже нарисовали у себя в голове сценарии «Терминатор против Человека». Но на самом деле это комплексная задача, которая относится к сферам права, политики и бизнеса. Google уже успела показать свой бессмысленный набор принципов, который рассказывает о том, как эта компания будет этически внедрять Искусственный Интеллект. Нельзя доверять компаниям, которые «никогда не ошибаются». Для этого нужна структура, организованная на международном уровне и управляемая правительствами и организациями, создающими набор общепринятых норм.

Автономные системы защиты обрабатывают информацию быстрее, чем человек, например, анализируя форму, размер, скорость и траекторию, а после принимают решение. «Выключатель» для отключения роботов убийц есть в каждом из нас, и только мы решаем как им воспользоваться.

© Adrien Book для Hackernoon