Добавить в корзинуПозвонить
Найти в Дзене
NewsWeekly | Новости

ИИ меняет академический ландшафт: нейросети наводнены фейковыми исследованиями

Учёные бьют тревогу: искусственный интеллект проникает в научные исследования, создавая фальшивые публикации, которые заполоняют популярные академические ресурсы. Недавнее исследование выявило, что значительная часть научных работ в Google Scholar могла быть частично или полностью сгенерирована алгоритмами без соответствующего упоминания. Группа исследователей сосредоточилась на выявлении материалов, созданных с помощью генеративных языковых моделей, включая ChatGPT от OpenAI. В ходе анализа было установлено, что две трети проверенных научных статей содержат признаки автоматической генерации текста. Особенно часто такие работы встречаются в областях здравоохранения, экологии и информационных технологий. «Мы сталкиваемся с реальной угрозой манипулирования научными данными, когда сгенерированные ИИ материалы попадают в открытые поисковые системы», — отметил Бьёрн Экстрём из Шведской школы библиотечных и информационных наук. Основные риски, связанные с проникновением ИИ в академическую сф
Оглавление

Учёные бьют тревогу: искусственный интеллект проникает в научные исследования, создавая фальшивые публикации, которые заполоняют популярные академические ресурсы.

Недавнее исследование выявило, что значительная часть научных работ в Google Scholar могла быть частично или полностью сгенерирована алгоритмами без соответствующего упоминания.

Фальшивые исследования в открытом доступе

Группа исследователей сосредоточилась на выявлении материалов, созданных с помощью генеративных языковых моделей, включая ChatGPT от OpenAI. В ходе анализа было установлено, что две трети проверенных научных статей содержат признаки автоматической генерации текста. Особенно часто такие работы встречаются в областях здравоохранения, экологии и информационных технологий.

«Мы сталкиваемся с реальной угрозой манипулирования научными данными, когда сгенерированные ИИ материалы попадают в открытые поисковые системы», — отметил Бьёрн Экстрём из Шведской школы библиотечных и информационных наук.

Опасность для науки и общества

Основные риски, связанные с проникновением ИИ в академическую сферу, заключаются в снижении достоверности научных данных и подрыве доверия к научным исследованиям. Эксперты подчёркивают, что высокая убедительность таких текстов создаёт иллюзию надёжности, что может привести к принятию неверных решений.

«Если не предпринимать меры, мы рискуем оказаться в мире, где сложно отличить подлинную науку от искусственно созданной информации», — предупредила Ютта Хайдер, один из авторов исследования.
Специалисты отмечают, что проблема охватывает не только рецензируемые журналы, но и менее строго проверяемые источники, что угрожает всей экосистеме академического контента.

Призыв к действиям уже прозвучал. Эксперты настаивают на внедрении инструментов для выявления ИИ-сгенерированных текстов и усилении контроля в академических базах данных. Это позволит сохранить научное пространство свободным от дезинформации и поддерживать высокий стандарт исследований.