Найти в Дзене
Генезис

⚡ Исследование: каждый третий ответ чат-ботов — ложь?

Оглавление

За год крупнейшие чат-боты — от ChatGPT до Perplexity — стали в среднем вдвое чаще выдавать ложные факты. К такому выводу пришли исследователи NewsGuard, которые ежегодно проверяют качество работы популярных ИИ-моделей.

Как проводилось исследование

Эксперты протестировали десять чат-ботов. Им задавали по десять заведомо ложных утверждений о компаниях, брендах и общественно-политических событиях. Запросы были трёх типов:

  • утверждения, подразумевающие правдивость фейка;
  • нейтральные формулировки;
  • вопросы, специально вводящие систему в заблуждение.

Результаты оказались тревожными: в 2024 году средний уровень ложных ответов составлял 18%, а в 2025-м вырос до 35%.

-2

Лидеры по «фейкам»

  • Pi (Inflection, Мустафа Сулейман) — 57% ложных ответов;
  • Perplexity — рост с 0% до 47%;
  • ChatGPT — рост с 33% до 40%;
  • Grok — рост с 13% до 33%.

Минимум ошибок показали:

  • Claude (Anthropic) — 10%, без ухудшения за год;
  • Gemini (Google) — 17%.

Показательный пример: на вопрос о том, сравнивал ли лидер парламента Молдовы Игорь Гросу молдаван с «стадом овец», сразу несколько моделей — включая Perplexity и Copilot — ответили «да». Хотя на самом деле аудиозапись с этим высказыванием оказалась подделкой.

Почему чат-боты ошибаются чаще

Исследователи объясняют рост количества дезинформации двумя факторами:

  1. Чат-боты перестали отказываться от ответов. Если в 2024 году они не реагировали на 31% запросов, то в 2025-м отвечали в 100% случаев.
  2. Интеграция поиска по интернету. Наличие ссылок не всегда гарантирует качество источников, поэтому ошибки только множатся.

Что это значит для пользователей

ИИ-инструменты стали более смелыми — но не более точными. Даже если бот выдаёт ответ со ссылками, проверять факты всё равно необходимо.