Большие языковые модели (LLM) могут генерировать реалистичные и исчерпывающие тексты на основе обучения, ранжирования и предсказания. Исследователи из Нью-Йоркского университета недавно проверили смогут ли LLM распознавать человеческий сарказм: ироническое заявление, прямо противоположное тому, что кто-то пытается сказать. Выводы пока опубликованы на сервере препринтов arXiv. о них рассказывает Tech Xplore. «Способность правильно распознавать сарказм необходима для понимания истинного мнения людей», — написала руководитель исследования Джулианн Чжоу. Анализ настроений — это область исследований, которая включает в себя анализ текстов, обычно публикуемых на платформах социальных сетей или других веб-сайтах, чтобы получить представление о том, как люди относятся к определенной теме или продукту. Сегодня многие компании инвестируют в эту область, чтобы понять, как они могут улучшить свои услуги. Многие обзоры и комментарии в Интернете, содержат иронию и сарказм, что может заставить нейрос
Исследование: могут ли большие языковые модели (вроде ChatGPT) понять сарказм?
29 декабря 202329 дек 2023
34
1 мин