Добавить в корзинуПозвонить
Найти в Дзене

Новое международное исследование, скоординированное Европейским Вещательным Союзом (EBU) и проведенное BBC, выявило тревожную картину

: ИИ-ассистенты РЕГУЛЯРНО ИСКАЖАЮТ новостной контент, независимо от языка, территории или используемой платформы. Что изучили? В рамках исследования 22 организации общественного медиа из 18 стран, работающие на 14 языках, проанализировали более 3000 ответов от четырех ведущих ИИ-инструментов: ChatGPT, Copilot, Gemini и Perplexity. Профессиональные журналисты оценивали их по критически важным критериям: точность, надёжность источников, умение отличать мнение от факта и предоставление контекста. Ключевые выводы, которые заставят задуматься. • 45% всех ответов ИИ-ассистентов содержали как минимум ОДНУ существенную ошибку. • 31% ответов имели серьёзные проблемы с источниками: ссылки отсутствовали, вводили в заблуждение или были неверными. • 20% содержали крупные ошибки в точности: от откровенных «галлюцинаций» (выдуманных деталей) до устаревшей информации. • Gemini показал наихудшие результаты: 76% его ответов содержали существенные проблемы, что более чем вдвое превышает показатели

Новое международное исследование, скоординированное Европейским Вещательным Союзом (EBU) и проведенное BBC, выявило тревожную картину: ИИ-ассистенты РЕГУЛЯРНО ИСКАЖАЮТ новостной контент, независимо от языка, территории или используемой платформы.

Что изучили?

В рамках исследования 22 организации общественного медиа из 18 стран, работающие на 14 языках, проанализировали более 3000 ответов от четырех ведущих ИИ-инструментов: ChatGPT, Copilot, Gemini и Perplexity. Профессиональные журналисты оценивали их по критически важным критериям: точность, надёжность источников, умение отличать мнение от факта и предоставление контекста.

Ключевые выводы, которые заставят задуматься.

• 45% всех ответов ИИ-ассистентов содержали как минимум ОДНУ существенную ошибку.

• 31% ответов имели серьёзные проблемы с источниками: ссылки отсутствовали, вводили в заблуждение или были неверными.

• 20% содержали крупные ошибки в точности: от откровенных «галлюцинаций» (выдуманных деталей) до устаревшей информации.

• Gemini показал наихудшие результаты: 76% его ответов содержали существенные проблемы, что более чем вдвое превышает показатели других ассистентов, в основном из-за крайне плохой работы с источниками.

Почему это ВАЖНО?

ИИ-помощники уже активно заменяют поисковые системы для получения новостей. По данным Reuters Institute, 7% всех онлайн-потребителей новостей используют ИИ-ассистентов, а среди молодёжи до 25 лет эта цифра достигает 15%.

Искаженная информация, отсутствие проверенных источников и фейки, генерируемые ИИ, представляют серьёзную угрозу для медиаграмотности, общественного мнения и доверия к новостям в целом.

#зарубежная_аналитика