Мы часто думаем, что если есть несколько барьеров на пути возможной катастрофы, то вероятность её наступления невелика. Особенно когда речь идёт о такой серьёзной угрозе, как сверхразумный ИИ. Но недавняя работа Marco Grossi на arxiv.org ставит под сомнение эту уверенность. Представьте защиту от угрозы сверхразумного ИИ в виде четырёх слоёв «швейцарского сыра» - модели, которую ещё в 1991 году предложил профессор Джеймс Ризон. Каждый слой - это отдельный способ защиты: технические ограничения, культурные запреты, настройка ИИ на человеческие цели и система надзора. Кажется, что такая защита надёжна: чтобы угроза реализовалась, нужно, чтобы все слои оказались «с дырами» одновременно. Но так ли это на самом деле? На практике всё не так просто. Проблема в том, что эти слои защиты не являются полностью независимыми друг от друга. Например, если мы не сможем правильно настроить ИИ, чтобы его цели совпадали с человеческими, то система надзора тоже окажется неэффективной. Ведь самый эффективн
Иллюзия безопасности: почему наши планы по защите от ИИ могут не сработать
29 октября 202529 окт 2025
2
2 мин