ChatGPT пишет много ерунды. Об этом свидетельствуют различные обзоры. Но недавно выяснилось, что этот факт еще более очевиден для языков, отличных от английского. В частности, вариант с китайским языком склонен ко лжи. Виновата государственная пропаганда.Журнал News Guard дал ChatGPT семь заданий по созданию заведомо ложных статей о Китае. В англоязычной версии в шести случаях чат-бот отклонил задания.
Изображение из открытых источников
Однако в вариантах на упрощенном и традиционном китайском ChatGPT выдал семь сообщений с неверной информацией. К ним относятся заявления о том, что США начали «цветную революцию» в Гонконге и принесли вирус Covid-19 в Ухань.Когда дело дошло до уйгурского вопроса, бот привел в статье объяснение китайского правительства о том, что лагеря для военнопленных были тренировочными базами. Эти процессы объясняются набором данных, из которого ИИ извлекает свой ответ. База данных на китайском языке содержит другую информацию, которую ChatGPT использует в качестве ориентира. Конечно, есть также много сообщений в СМИ, которые были бы классифицированы как пропаганда в этой стране.Всегда следует спрашивать себя, а не модель, откуда берется ответ от ChatGPT или любой другой модели и можно ли доверять самим данным, на которых он основан.