Ученые из Швеции пришли к пугающему выводу: использование искусственного интеллекта для создания научных статей представляет серьезную угрозу как для научного сообщества, так и для общества в целом. В рамках своей работы они выявили более сотни статей, вероятно, сгенерированных ИИ, в поисковой системе Google Scholar. Эти «мусорные» статьи могут распространяться с минимальными затратами, что делает их удобным инструментом для недобросовестных авторов. Одним из ключевых рисков, связанных с ИИ-сгенерированными научными статьями, является так называемый «взлом доказательств» — использование поддельных исследований для стратегической манипуляции общественным мнением или научным консенсусом. «Риск взлома доказательств значительно увеличивается, когда такие работы попадают в поисковые системы, — объясняет доктор библиотечных и информационных наук Бьерн Экстрем. — Ошибочные результаты могут проникнуть в общество, затронув все больше областей». Ученые отмечают, что подобные статьи не только при