Найти в Дзене
OVERCLOCKERS.RU

Редакторы Википедии страдают от наводнения сайта, сгенерированной ИИ информацией

Википедия долгое время оставалась надежным бастионом коллективных знаний, которые люди кропотливо собирали вручную. Однако сегодня этот островок достоверной информации столкнулся с новым вызовом - наплывом контента, сгенерированного искусственным интеллектом (ИИ). Масштаб проблемы настолько велик, что администрации пришлось создать специальное подразделение для борьбы с этим явлением.

Появление недостоверной информации, произведенной ИИ, стало почти неизбежным побочным эффектом растущей популярности генеративных технологий. Эта проблема приобрела такой масштаб, что в Википедии была организована специальная группа волонтеров, задача которых — выявлять и удалять некорректные статьи, написанные ИИ.

Проект под названием «WikiProject AI Cleanup» был инициирован, когда пользователи начали замечать тексты с явными признаками машинного написания. Как сообщает один из основателей группы, Ильяс Леблё, команда проанализировала наиболее вопиющие примеры сгенерированных статей и выявила характерные для ИИ обороты речи. Они даже смогли воспроизвести некоторые из этих текстов с помощью ChatGPT, что подтверждает их искусственное происхождение.

Одним из таких примеров стала статья о несуществующей османской крепости под названием Амберлисихар. На первый взгляд текст о её строительстве выглядел вполне правдоподобно, однако он содержал полностью выдуманные факты о вымышленном историческом объекте. При этом в статье приводились реальные, но несущественные данные о событиях и людях, что добавляло ей правдоподобности. В итоге ничего не подозревающие читатели могли быть введены в заблуждение статьей на более чем 2000 слов, посвящённой несуществующей крепости.

-2

Однако не все примеры сгенерированного ИИ контента настолько сложны и продуманны. Иногда фальшивые данные добавляются к уже существующим достоверным статьям, что делает их проверку особенно трудной. Например, в одном из случаев к статье о жуке вида Estola albosignata был добавлен текст, который, на первый взгляд, выглядел обоснованным и корректно цитированным. Однако ссылка на источник вела к научной работе, посвященной совершенно другому виду крабов, не имеющему отношения к жукам. Это создает дополнительные сложности, особенно если оригинальные источники не на английском языке, поскольку это усложняет обнаружение ошибки как читателями, так и редакторами.

Стоит отметить, что сама Википедия и её администрация не используют большие языковые модели для создания контента. Проблема исходит от некоторых добровольцев-редакторов, которые, по неизвестным причинам, решают использовать инструменты ИИ, такие как ChatGPT, для написания новых материалов. Эти редакторы не получают финансового вознаграждения за свою работу, поэтому причина их действий остаётся загадкой. Возможно, часть из них искренне считает, что помогает улучшить статьи, в то время как другие могут намеренно вносить ложную информацию ради развлечения или троллинга.

Журналист издания 404 Media Джейсон Кёблер отметил, что Википедия является одним из крупнейших примеров коллективного сотрудничества в истории человечества, и сейчас этот уникальный проект страдает от злоупотребления ИИ, что создаёт дополнительную нагрузку на и без того занятых волонтёров-редакторов.

📃 Читайте далее на сайте