Вторая половина конференции о риске ядерной эскалации из-за автономии и машинного обучения была посвящена поиску ответов на накопившиеся вопросы: Что нужно делать для уменьшения рисков?
С одной стороны, внедрение машинного обучения в оборонительных системах уменьшает время, требующееся на классификацию угрозы и даёт больше времени военно-политическому руководству для принятия осмысленного решения, а симуляции могут дать ответ на вопрос, какие действия могут быть наиболее правильными в сложившейся ситуации. С другой стороны, всё это работает при достаточно отработанной технологии, а сами цифровые системы подвержены дополнительным рискам, как со стороны информационной безопасности, так и со стороны манипуляции. Поэтому нужно об этих рисках говорить и пытаться их снизить в форматах, похожих на переговоры о контроле за технологиями военного и двойного назначения. В частности, предлагаются следующие шаги.
0. Прежде всего: управляемость и предсказуемость боевых систем в интересах военных. Это значит, что они тоже заинтересованы в мерах контроля и верификации внедряемых технологий. Возможно, меры контроля следует дифференцировать по классу вооружений, так как автоматическое срабатывание ПВО гораздо менее критично, чем внезапный переход танковой дивизии в автономный режим.
1. В политической плоскости: многостороннее заявление (в стиле совместного заявления Рейгана и Горбачёва) о том, что (1) в ядерной войне победителей не будет (2) контроль за решением на применение оружия, в особенности ядерного, должен оставаться у человека. Этим заявлением международный диалог должен получить политическую поддержку.
2. В военно-политической плоскости: совместное понижение боеготовности, «горячие линии», возможно: увеличение времени реагирования систем вроде «мёртвой руки». Это вдвойне актуально для конфликта Индии и Пакистана, где подлётное время гораздо меньше.
3. В институциональной плоскости: меры по повышению «здорового скепсиса» по отношению к новым технологиям, развитие диалога между научными работниками. Отдельно: обсуждение вопросов контроля за технологиями, диалог между предприятиями и пограничными службами. Скорее всего, нельзя ограничить распространение идей и алгоритмов обучения, но можно задуматься об ограничении сбора и распространения тренировочных данных, требуемых для машинного обучения. Можно перенять успешный опыт контроля за химическим и биологическим оружием, не ограничивающий мирные исследования в области химии и фармацевтики. На стороне разработчиков это означает комплексные аудиты безопасности, в том числе путём проверок активного воздействия на «свои» системы.
4. В целом: диалог лучше всего получается вне политического контекста. То есть, в диалоге пограничных служб проще обсудить конкретный опыт экспортного контроля, чем на уровне внешнеполитических ведомств, опасающихся потерять лицо и допустить даже намёк на мысль, что граница не на замке.
5. На будущее: стоит озаботиться вопросом контроля за вычислительными ресурсами и увеличением взаимозависимости в цифровой сфере. Последнее, правда, крайне проблематично: компьютерные сети проектировались как раз на случай ядерной войны, и взаимозависимость полностью противоречит техническому заданию.