А по факту – нет. ИИ обучается и функционирует на контексте, в котором чаще всего заложены культурные, этические и эмоциональные аспекты. Помните может быть чат-бота, который очень быстро перешел к расистским высказываниям и был отключен? Можно по дефолту считать, что все ответы от LLM каким-то образом предвзяты. Что с этим делать пользователю?
Достаточно это знать и добавлять в промпте корректировки, чтобы в повседневной жизни получать вполне приемлимые ответы. А вот если вы проектируете техносервисы, надо думать системно и глубоко. Китай вот вводит идеологический экзамен для нейросети. Смотрим, примеряем. Про человека и технологии | Ядова Екатерина