Найти в Дзене

«Потеря контроля»: Китай предупреждает об угрозе применения ИИ террористами для создания оружия

Китайские власти заявили, что искусственный интеллект может дать экстремистам и террористам доступ к знаниям и технологиям, необходимым для создания оружия массового уничтожения. Об этом говорится в новом докладе по управлению безопасностью ИИ, опубликованном Государственным комитетом по стандартизации кибербезопасности при Центральной комиссии по делам киберпространства. Основные угрозы В документе подчёркивается риск потери «контроля над знаниями и возможностями ядерного, биологического, химического и ракетного оружия». По мнению экспертов, генеративный ИИ, способный совмещать поиск с созданием новых текстов, может предоставить доступ к критической информации, облегчающей разработку и применение таких технологий. «Без строгого регулирования террористические организации могут использовать ИИ для разработки, производства и применения оружия, что сделает традиционные механизмы контроля неэффективными», — отмечается в докладе. Контекст Документ является обновлением концепции, впервые опу

Китайские власти заявили, что искусственный интеллект может дать экстремистам и террористам доступ к знаниям и технологиям, необходимым для создания оружия массового уничтожения. Об этом говорится в новом докладе по управлению безопасностью ИИ, опубликованном Государственным комитетом по стандартизации кибербезопасности при Центральной комиссии по делам киберпространства.

Основные угрозы

В документе подчёркивается риск потери «контроля над знаниями и возможностями ядерного, биологического, химического и ракетного оружия». По мнению экспертов, генеративный ИИ, способный совмещать поиск с созданием новых текстов, может предоставить доступ к критической информации, облегчающей разработку и применение таких технологий.

«Без строгого регулирования террористические организации могут использовать ИИ для разработки, производства и применения оружия, что сделает традиционные механизмы контроля неэффективными», — отмечается в докладе.

Контекст

Документ является обновлением концепции, впервые опубликованной в 2023 году в рамках Глобальной инициативы Китая по управлению искусственным интеллектом. В его подготовке участвовали национальная группа реагирования на киберугрозы (CNCERT) и государственные структуры, отвечающие за мониторинг критически важных сетей и реагирование на кибератаки.

Китай ранее предупреждал о рисках «технологий двойного назначения», способных подорвать национальную безопасность и снизить барьеры для использования оружия неспециалистами.

Международный фон

Военные по всему миру активно внедряют ИИ. В докладе напомнили, что в июне 2024 года Израиль применил системы на базе искусственного интеллекта при атаке на Иран. На этом фоне в Пекине подчёркивают необходимость строгого контроля:

«Мы должны предотвращать любые неконтролируемые риски, которые могут угрожать выживанию и развитию человечества. Искусственный интеллект должен всегда оставаться под контролем человека», — говорится в заявлении.

Источник: https://www.scmp.com/news/china/politics/article/3325843/loss-control-china-warns-terrorists-could-u...

Больше интересного – на медиапортале https://www.cta.ru/