И это могут сделать лишь политики MIRI (Исследовательский институт машинного интеллекта, занимающийся вопросами безопасности ИИ) четко и прямо сформулировал цель своей деятельности — «убедить крупные державы прекратить разработку систем фронтирного ИИ по всему миру, пока не стало слишком поздно» [1]. Опубликованный документ впервые переводит дискуссии о рисках для человечества на путях дальнейшего развития ИИ: ✔️ из разряда самоуверенных деклараций научно недоказуемых точек зрения и бесконечных непродуктивных дебатов вокруг них между сторонниками и противниками этих воззрений, ✔️ в прямую и ясную политическую позицию, суть которой такова:
— поскольку в любых оценках ИИ-рисков, не подкрепленных практически ничем, кроме мнений их авторов, довольно сложно быть уверенным,
— а верхняя граница таких рисков лежит в зоне экзистенциальных рисков для человечества,
— политикам стран — лидеров разработок фронтирного ИИ необходимо договориться о срочном создании международно признанной процедур