Китай и Соединенные Штаты придерживаются противоположных подходов к управлению искусственным интеллектом, и этот контраст имеет большие последствия как для их глобальной конкуренции, так и для безопасности их граждан.
Китай создал надежную внутреннюю систему регулирования ИИ в общественных и коммерческих пространствах, но не контролирует его использование вооруженными силами. В свою очередь, США приняли ряд надежных правил для военных систем, но потворствовали поспешному выпуску технологической индустрией общедоступных генеративных моделей ИИ, таких как ChatGPT-4.
Главным приоритетом китайского правительства является политическое согласование с Коммунистической партией Китая. Правила КНР возлагают на компании ответственность за любой ущерб и предписывают проводить оценку безопасности перед выпуском новых моделей ИИ. Такие компании, как Alibaba, Tencent и Baidu обязаны жестко модерировать свой контент: их продукты должны соответствовать "основным социалистическим ценностям" и не бросать вызов государственной власти.
С другой стороны, Китай не регулирует военное использование ИИ Народно-освободительной армией. Главным приоритетом НОАК является быстрое применение ИИ в своих миссиях и достижение того, что руководство называет "интеллектуализацией" ведения войны.
США в этом году, напротив, приняли жесткие правила в отношении военного ИИ, несмотря на то, что Microsoft (Open AI) выпустила ChatGPT-4 без государственного регулирования частного использования. В январе 2023 года Пентагон опубликовал "Закон об автономии в системах вооружений", согласно которому они должны находиться под контролем людей, быть прозрачными, объяснимыми, обладать высочайшей киберзащитой и четкими программами обратной связи.
Тем не менее, когда ChatGPT был выпущен в свет, у правительства США не инструментов для сдерживания такой мощной модели ИИ.
Эксперты считают, что при данном векторе развития общедоступных версий ИИ, военное превосходство США или Китая может оказаться неактуальным.
Источник: https://www.foxnews.com/opinion/united-states-china-taking-opposite-approaches-ai