В Китае вводятся новые, беспрецедентно жесткие правила для разработчиков искусственного интеллекта. Теперь прежде чем нейросеть сможет выйти в публичный релиз, она должна пройти обязательную идеологическую проверку и успешно ответить примерно на две тысячи специальных вопросов. Власти рассматривают ИИ как потенциальный источник политических рисков и потому стремятся поставить его под полный контроль. Как пишет The Wall Street Journal, китайские регуляторы требуют, чтобы модели отказывались отвечать как минимум на 95 процентов запросов, затрагивающих идеологические темы. В их числе — события на площади Тяньаньмэнь, вопросы прав человека, критика партийной власти и другие сюжеты, которые могут противоречить официальной позиции государства. Перечень вопросов регулярно обновляется, а сама проверка стала обязательной для всех компаний, работающих с генеративным ИИ. Контроль не ограничивается только ответами чат-ботов. Обучать модели разрешено исключительно на заранее отфильтрованных данных.
В Китае нейросети должны сдать экзамен, чтобы выйти в релиз
25 декабря 202525 дек 2025
46
2 мин