Большие языковые модели, называемые «ИИ», допускают ошибки. Википедия столкнулась с «галлюцинациями» в статьях, переведенных с помощью БЯМ, созданных сторонней организацией OKA. Проблема в том, что переводы делаются без должной проверки человеком. — pcworld.com Большие языковые модели, которые в маркетинговых целях называют «ИИ», иногда выдумывают вещи. Это проблема, с которой сталкивается каждый, кто пользуется ими хотя бы недолго — и ошибаются они не только в базовой информации. Википедия борется с одним из таких примеров, обнаруживая «галлюцинации» в статьях, переведенных с помощью БЯМ. Начало этой истории позитивное и альтруистичное: сторонняя некоммерческая организация Open Knowledge Association (OKA) выплачивает стипендии людям, переводящим статьи Википедии на другие языки. Проблемы возникают из-за того, что для перевода используются большие языковые модели, такие как Google Gemini и ChatGPT, без проверки человеком. Согласно отчету 404 Media, редакторы Википедии, проводящие рутин