Исследователи из Европейского вещательного союза (EBU) провели расследование и выяснили, что ИИ-помощники вводят пользователей в заблуждение, давая неверную информацию на их запросы. В ходе исследования профессиональные журналисты из 22 общественных организаций СМИ 18 стран, работающие на 14 различных языках, изучили более 3 тысяч ответов таких популярных чат-ботов, как ChatGPT, Copilot, Gemini и Perplexity. Критериями оценки были: выбор источника информации, способность отделять мнение от фактов и предоставление контекста. Результаты показали, что в 45% ответах ИИ содержалась как «минимум одна значимая ошибка», в 31% ответов специалисты выявили «серьёзные проблемы с поиском источника: отсутствующие, вводящие в заблуждение или неверные атрибуции». Пятая часть всех ответов содержала неверные детали или устаревшую информацию. Хуже всех показала себя Gemini, сделав серьёзные ошибки в 76% случаев, что вдвое превысило показатели других нейросетей. ИИ-помощники стали для пользователей повсед