Компания NewsGuard, специализирующаяся на отслеживании дезинформации в интернете, опубликовала свежий рейтинг «правдивости» чат-ботов на базе ИИ. Как оказалось, в конце лета 2025 года нейросети стали генерировать заведомо ложную информацию почти вдвое чаще, чем годом ранее. По данным NewsGuard, к осени этого года популярные модели ИИ генерировали ложные данные в 35% случаев вместо прошлогодних 18%. Худшие результаты показала модель Inflection с вероятностью распространения ложной информации в 56,67%. Чуть лучше дела обстоят у Perplexity — в среднем 46,67% ложных ответов. ChatGPT распространял фейки с частотой 40%, а у Copilot (Microsoft Bing Chat) и Mistral этот показатель составил 36,67%. Наиболее эффективными были признаны ИИ-модели Claude и Gemini с частотой распространения ложной информации 10% и 16,67% соответственно. Такую тенденцию аналитики связывают с массовым внедрением функций веб-поиска в реальном времени. Это изменение, по их словам, предоставляет злоумышленникам ещё один
Исследование: чат-боты стали гораздо чаще генерировать фейки
15 сентября 202515 сен 2025
6
1 мин