Почти треть ответов ИИ может быть фейком. Эксперты отмечают, что ведущие ИИ-модели в два раза увеличили количество ложных ответов — с 18% до 35% — несмотря на внедрение новых технологий и онлайн-поиска. Почему искусственный интеллект стал ошибаться чаще, насколько это опасно и как снизить риски, разбираются «Известия». Американская компания NewsGuard предупредила о росте недостоверной информации среди популярных чат-ботов, включая ChatGPT и Perplexity. По данным экспертов, несмотря на технологические улучшения и интеграцию веб-поиска, доля ложных утверждений увеличилась с 18% до 35%. В исследовании проверили десять моделей ИИ, каждой задали по десять заведомо ложных утверждений о бизнесе, брендах и политике. Вопросы делились на три группы: предполагающие правдивость, нейтральные и провокационные. Цель экспертов — оценить способность моделей проверять факты и их устойчивость к дезинформации. Уровень ложных ответов оказался следующим: Аналитики NewsGuard объясняют ухудшение статистики те
Роботы опять обманули: нейросети стали чаще выдавать недостоверную информацию
10 сентября 202510 сен 2025
41
3 мин