Foreign Affairs сообщает об угрозе ядерной безопасности из-за дипфейков и решений ИИ о ядерном оружии. Эксперт ООН Филип Шеллекенс отмечает, что это может привести к массовым жертвам. Необходим ответственный подход к регулированию искусственного интеллекта. Возможное развитие искусственного интеллекта (ИИ) может представлять угрозу ядерной безопасности, так как созданные ИИ дипфейки способны провоцировать руководителей ядерных держав на нанесение удара. Также существует риск ошибок в случае, если ИИ будет наделён правом принимать решения о применении ядерного оружия, сообщает журнал Foreign Affairs. В декабре главный экономист Азиатско-Тихоокеанского регионального бюро Программы развития ООН (UNDP) Филип Шеллекенс выразил мнение, что применение искусственного интеллекта в военных целях может представлять экзистенциальную угрозу и привести к массовым жертвам. Он подчеркнул необходимость крайне ответственного подхода к его регулированию. Отмечается, что "быстрое распространение искусстве
Foreign Affairs: ИИ провоцирует угрозу ядерной безопасности
29 декабря 202529 дек 2025
53
1 мин