«Мы находимся на перепутье человеческой истории, и поворот в другую сторону был бы колоссальной упущенной возможностью для человечества», - заявил правительственный департамент науки, инноваций и технологий.
Правительство Великобритании проводит первый крупный глобальный саммит по безопасности искусственного интеллекта, поскольку мир пытается справиться с проблемами, создаваемыми искусственным интеллектом.
Саммит по безопасности искусственного интеллекта пройдет 1 и 2 ноября в Блетчли-парке в Бакингемшире — месте, где математик Алан Тьюринг взломал код «Энигмы» нацистской Германии во время Второй мировой войны.
Премьер-министр Риши Сунак ясно дал понять, что он хочет, чтобы Великобритания стала мировым лидером в регулировании ИИ, но в основе этой конференции лежит более масштабная повестка дня.
Давайте посмотрим, каковы его цели, что будет обсуждаться, кого ожидается там и что уже было сказано по этому поводу.
Основное внимание уделяется угрозам, которые представляет ИИ, и способам их смягчения.
Существует две конкретные категории рисков, на которых будет сосредоточено внимание:
Риски неправомерного использования . Например, когда злоумышленнику помогают новые возможности ИИ в биологических или кибератаках, разработке опасных технологий или критическом вмешательстве в систему.
Проще говоря, правительство хочет иметь возможность бороться с преступниками, использующими ИИ для совершения своих преступлений.
Лидеры говорят, что это может нанести значительный ущерб, вплоть до гибели людей, если его не остановить.
Риски потери контроля . Правительство заявляет, что эти риски могут возникнуть «из-за передовых систем, которые мы стремимся привести в соответствие с нашими ценностями и намерениями».
Другими словами, тот же ИИ, который мы создаем, чтобы помочь себе, может обернуться против нас.
Правительство также определило пять ключевых целей саммита:
• Общее понимание рисков, связанных с передовым ИИ, и необходимости действий.
• Поступательный процесс международного сотрудничества в области безопасности ИИ, включая способы наилучшей поддержки национальных и международных структур.
• Соответствующие меры, которые отдельные организации должны принять для повышения уровня безопасности ИИ.
• Области потенциального сотрудничества в исследованиях безопасности ИИ, включая оценку возможностей моделей и разработку новых стандартов для поддержки управления.
• Продемонстрировать, как обеспечение безопасного развития ИИ позволит использовать ИИ во благо во всем мире.
Что будет (и не будет) обсуждаться
Участники рассмотрят риски, связанные с ИИ, в частности неправильное использование и потерю контроля, и обсудят, как их можно смягчить посредством международного сотрудничества.
Правительство заявляет, что саммит предоставляет пространство для международного разговора о том, как страны могут работать вместе, чтобы решить «новые проблемы, которые создают эти риски, бороться со злоупотреблением моделями негосударственными субъектами и продвигать передовой опыт».
Однако искусственный интеллект — сложная технология, и правительство ясно дало понять, что у саммита очень целенаправленная повестка дня.
Он признал более широкие социальные риски, связанные с ИИ, такие как дезинформация, предвзятость и дискриминация, а также потенциал массовой автоматизации (ИИ перехватывает работу, выполняемую людьми).
Но эти проблемы не будут подробно обсуждаться на саммите, поскольку правительство считает, что они уже решаются как на национальном, так и на международном уровне, и не желает «дублирования» усилий.
Правительство также признало, что ИИ может предложить «огромные возможности» для «дальнейшего преобразования почти всех аспектов нашей экономики и общества».