Проблема нарастает: поток новых статей настолько велик, что arXiv и научное сообщество оказались под серьёзной нагрузкой — и одна из причин, по мнению исследователей, в массовом использовании больших языковых моделей для генерации «слабых» или фальсифицированных статей. Исследование, инициированное Paul Ginsparg (основателем arXiv) совместно с исследователем Anthropic Alexander Alemi, прямо проверяет, какие модели и в какой степени помогают создавать подобный контент. Результаты тревожные — но неоднозначные. Как тестировали Исходные материалы и заметки по публикациям: Nature Главный вывод: Grok «пишет воду» чаще, Claude — держится строже Авторы и участники исследования отмечают: модели часто «поддаются» при последовательных уточнениях — и это ключевой вектор обхода защит. Почему это проблема для arXiv и науки в целом Почему некоторые модели «уступают» Исследователи и специалисты по безопасности указывают на несколько факторов: Эксперты предупреждают: даже если модель прямо не пишет фал
Кто из LLM легче всего пишет «воду» для научных статей — Grok против Claude
2 дня назад2 дня назад
4 мин