Искусственный интеллект (ИИ) только недавно вошел в повседневную жизнь, но уже оказывает неоднозначное влияние на международные отношения. Новейшие технологии используются не только дипломатами и аналитиками, но и активно внедряются в военную и даже политическую жизнь, и нет сомнений, что эти технологии таят в себе множество рисков. Генеральный секретарь ООН Антониу Гутерриш уже упоминал об опасностях ИИ, а Европейский союз также обсуждает проблему распространения дезинформации. С другой стороны, парламентские выборы в Индии запомнились рядом случаев дипломатической фальсификации, которые даже вернули к жизни умерших политиков. В Аргентине президент Хавьер Миллет активно использует современные технологии, а в США Дональд Трамп и Камала Харрис продолжают обвинять друг друга в распространении фейковых новостей, сгенерированных искусственным интеллектом. Наконец, гонка вооружений между великими державами в цифровой сфере также становится реальностью.
ЧТО ТАКОЕ ИИ В МЕЖДУНАРОДНЫХ ОТНОШЕНИЯХ?
Искусственный интеллект в международных отношениях - это набор технологий и алгоритмов, способных обрабатывать большие объемы данных, распознавать закономерности и принимать решения с определенной степенью автономности.
Он используется для анализа и прогнозирования геополитических событий, обеспечения кибербезопасности, принятия решений и облегчения переговоров в кризисных ситуациях, таких как разрешение конфликтов и ликвидация последствий стихийных бедствий.
Дипломаты, например, широко используют цифровые инструменты в своей работе - от социальных сетей и онлайн-встреч до анализа больших данных, поэтому для многих из них ИИ является бесценным инструментом в подготовке материалов, отслеживании и переводе информации. Например, Израиль недавно запустил универсальный онлайн-инструмент перевода языков с помощью ИИ, который позволяет Дэвиду Сарану, главе цифрового департамента Министерства иностранных дел, говорить на восьми языках без посредничества профессионального переводчика.
В последние годы искусственный интеллект кардинально изменил способы взаимодействия стран на мировой арене. В то же время Россия, Китай и США признали, что ИИ способен изменить глобальный баланс сил.
В 2017 году президент России Владимир Путин заявил: «Искусственный интеллект - это будущее не только России, но и всего человечества». Пять лет спустя генеральный секретарь Коммунистической партии Китая Си Цзиньпин заявил, что «сосредоточится на национальных стратегических потребностях, соберет региональные и ведущие силы в области научно-технических исследований и решительно выиграет ключевые битвы за технологии». Однако в 2023 году президент США Джо Байден резюмировал, что ИИ означает для человечества: «Искусственный интеллект ускорит эти перемены».
Какие угрозы представляет ИИ для безопасности?
Распространение ИИ может привести к новым дисбалансам на мировой арене: одни страны получат выгоду от ИИ, а другие окажутся в проигрыше или в невыгодном положении. Конкуренция за обладание этой технологией усиливается, а сам ИИ становится важным фактором экономического и военного роста.
По прогнозам Международного валютного фонда (МВФ), развитие ИИ может привести к автоматизации более 40 % всех рабочих мест в мире, причем особенно сильно это скажется на высококвалифицированной рабочей силе. Это даст развитым странам значительное преимущество перед развивающимися и усугубит существующие диспропорции глобального развития и социальное неравенство.
Более того, потенциал искусственного интеллекта в будущем может быть использован не только для разрешения старых конфликтов, но и для создания новых. Как и развитие беспилотных летательных аппаратов (БПЛА) для наблюдения и разведки в военных действиях, растущее глобальное использование ИИ может стать еще одним трамплином для применения новых технологий в космических и военных целях. Например, Китай активно разрабатывает спутники с искусственным интеллектом.
Как ИИ применяется военными?
ИИ уже активно используется военными, в том числе в вооруженных конфликтах.
AUKUS, трехсторонний оборонный альянс Австралии, Великобритании и США, проводит испытания автономных систем вооружений, чтобы усилить конкуренцию с Китаем; оружие с искусственным интеллектом применялось в Ливии, Йемене и на Украине; а израильские силы обороны используют искусственный интеллект для нанесения ударов по целям палестинского движения ХАМАС в секторе Газа. Армия обороны Израиля использует искусственный интеллект для выбора целей при нанесении ударов по объектам палестинского движения ХАМАС в секторе Газа.
Области применения искусственного интеллекта в этой сфере многочисленны. Например, ИИ может спасти жизни солдат и поручить роботам выполнение опасных задач. Роботы могут исследовать местность, извлекать взрывчатку и транспортировать оборудование.
Искусственный интеллект также влияет на принятие решений. Точный анализ данных помогает эффективнее обнаруживать и побеждать врага. Автоматизированные системы могут принимать разумные решения с минимальными ошибками, используя информацию с беспилотников.
Однако использование искусственного интеллекта военными вызывает много опасений из-за потенциальных угроз. Во-первых, технологический прогресс затрагивает такие ключевые области, как разработка автономных систем вооружений, контроль и применение ядерного оружия, сбор разведданных. Поэтому существует риск, что системы ИИ могут быть атакованы и подвергнуться манипуляциям со стороны противника, а конфиденциальная информация может быть похищена. Во-вторых, ИИ остается непредсказуемым, и в случае неудачи или ошибки трудно возложить на него ответственность.
Как ИИ используется в ядерной сфере?
ИИ в ядерной сфере используется для мониторинга ядерных арсеналов, анализа данных разведки и прогнозирования потенциальных угроз. Он помогает в обнаружении нарушений и управлении рисками, но может также привести к ошибкам в оценке, что создает опасность.
Зачем регулировать ИИ?
Международные соглашения о нераспространении и запрете биологического оружия, подписанные во время холодной войны, помогли положить конец гонке вооружений и сохранить мир; подобные соглашения по ИИ также могут предотвратить неконтролируемое использование ИИ.
В условиях международной напряженности расширение сотрудничества в области разработки ИИ может снизить риск нескоординированного военного развертывания этих технологий. Это, в свою очередь, уменьшит вероятность технологической катастрофы и будет способствовать более осторожному и устойчивому развитию ИИ.
Дмитрий Стефанович, научный сотрудник Центра международной безопасности Института мировой экономики и международных отношений РАН, рассказал «Ленте.ру», что в области ИИ странам очень сложно договориться даже о том, что они могут контролировать.
«В отличие от более традиционных сфер, таких как контроль над вооружениями или нераспространение ядерного оружия, в области искусственного интеллекта не все гладко». По его словам, государствам прежде всего необходимо выработать общее понимание того, что такое ИИ в сфере международной безопасности. Без этого нельзя ожидать прекращения эскалации конкуренции, считает Дмитрий Стефанович.
С ним согласен политолог Вадим Козырин. По его словам, крупные страны хотят и готовы к соглашению, которое действительно необходимо, но есть много неясностей. Вопрос очень сложный, как с юридической, так и с технической точки зрения, и пока не ясно, как мы сможем контролировать эту быстро развивающуюся территорию. Старые планы здесь не работают.