Добавить в корзинуПозвонить
Найти в Дзене

ИИ все чаще формирует новостную ленту, не заботясь о достоверности

Для части аудитории ИИ стал привычным источником информации. Утром достаточно открыть чат, задать вопрос о событиях дня и получить обобщенную подборку из «главных новостей». Заголовки выглядят весьма убедительно, формулировки внешне нейтральны, ссылки тоже на месте. Ну чем не привычная лента новостей? Проблема в том, что за этой внешней убедительностью все чаще нет никакой, даже поверхностной проверки. Новости, которые формируют ИИ ассистенты, нередко не выдерживают даже простого теста на достоверность. Источники отсутствуют, ссылки ведут на главные страницы или вообще не существуют, а пересказ реальных публикаций в корне искажает смысл. И речь уже идет даже не об отдельных ошибках и курьезных «галлюцинациях», а о повторяющемся системном паттерне. Почти 50% новостных ответов ИИ содержат существенные ошибки, а около 20% включают вымышленные или устаревшие факты. В крупном отчете общественных вещателей Европы и BBC, где анализировались тысячи ответов ИИ–ассистентов на новостные запросы,

Для части аудитории ИИ стал привычным источником информации. Утром достаточно открыть чат, задать вопрос о событиях дня и получить обобщенную подборку из «главных новостей». Заголовки выглядят весьма убедительно, формулировки внешне нейтральны, ссылки тоже на месте. Ну чем не привычная лента новостей?

Проблема в том, что за этой внешней убедительностью все чаще нет никакой, даже поверхностной проверки. Новости, которые формируют ИИ ассистенты, нередко не выдерживают даже простого теста на достоверность. Источники отсутствуют, ссылки ведут на главные страницы или вообще не существуют, а пересказ реальных публикаций в корне искажает смысл. И речь уже идет даже не об отдельных ошибках и курьезных «галлюцинациях», а о повторяющемся системном паттерне.

Почти 50% новостных ответов ИИ содержат существенные ошибки, а около 20% включают вымышленные или устаревшие факты.

В крупном отчете общественных вещателей Европы и BBC, где анализировались тысячи ответов ИИ–ассистентов на новостные запросы, почти половина ответов содержала серьезные ошибки. В трети случаев фиксировались проблемы с источниками, а примерно в каждом пятом ответе обнаруживались ошибки с данными, включая вымышленные или устаревшие факты. Эти результаты повторялись на разных языках и рынках, что лишний раз подтверждает системный характер проблемы.

Эксперимент журналиста и преподавателя Жана Юга Руа показал ту же картину на уровне повседневного использования. В течение месяца он ежедневно запрашивал у популярных ИИ ассистентов главные новости своего региона с обязательными ссылками на источники. Полноценные, проверяемые URL удалось получить лишь в меньшей части ответов. При этом почти половина новостных сводок оказалась либо частично неверной, либо содержала искажения и необоснованные выводы. В одном из случаев ИИ сослался на полностью вымышленное медиа, которого вообще не существует.

ИИ привычно воспроизводит язык, используемый в журналистике, структуру новостной заметки и даже атрибуты источников. Но ожидаемая редакционная ответственность в этом процессе просто отсутствует. Проверка фактов не встроена в механизм генерации, а уверенный тон и связный текст создают иллюзию достоверности там, где ее может не быть даже близко.

Искусственный интеллект и «общество зомби»

Дополнительный риск добавляет общий тренд снижения критичности восприятия информации читателями. Когда пользователь получает «готовую ленту дня» в одном окне, мотивация проверить первоисточники практически отсутствует. ИИ из инструмента поиска постепенно превращается в медиапосредника, который формирует картину дня за редакцию, без коррекции ошибок и без каких–либо обязательств.

Полный материал читайте на it-world.ru