Популярность больших языковых моделей, таких как ChatGPT от OpenAI, Bard от Google и LLaMa от Meta вызвала всплеск мошеннических действий. Популярность больших языковых моделей (LLM), таких как ChatGPT от OpenAI, Bard от Google и LLaMa от Meta вызвала всплеск мошеннических действий. Пользователи бросились писать рефераты, курсовые, научные работы и книги при помощи нейросетей. Такая активность побудила ученых искать способы обнаружения текстов, сгенерированных машинами. Пять ученых из Университета Мэриленда в США – Вина Санкар Садасиван, Аунон Кумар, Шрирам Баласубраманян, Вэньсяо Ван и Сохэйл Фейзи изучили возможность обнаружения текста, сгенерированного большими языковыми моделями. Их выводы оказались неутешительными. Эффективность существующих программ-детекторов примерно сопоставима с игрой в «орел и решку». Оказывается, текст от нейросети можно прогнать через программу замены слов, и этого будет достаточно, чтобы избежать обнаружения. Это может снизить точность детектора с базовог
Ученые безуспешно ищут способы обнаружения текстов, созданных нейросетями
24 марта 202324 мар 2023
99
1 мин