Ученые из Кардиффского университета и университета Ка-Фоскари в Венеции исследовали, как крупные языковые модели распознают каламбуры. Они проверили десятки примеров и обнаружили, что модели уверенно отмечают форму шутки, но не понимают ее смысл, пишет The Guardian. Команда подчеркивает, что алгоритмы часто воспринимают каламбур там, где игра слов отсутствует. Эксперты отмечают, что модели полагаются на шаблоны. Нейросети уверенно определяют знакомые конструкции, но не анализируют двоякое значение. Исследователи подчеркивают, что небольшое изменение формулировки полностью разрушает механизм шутки, но модели продолжают приписывать ей скрытый смысл. По данным исследования, при столкновении с новым или измененным каламбуром точность распознавания падает до 20%. В одном из примеров ученые проверили фразу «Старые LLM не умирают, они просто теряют внимание». При замене слова «внимание» на «укулеле» модели продолжали считать фразу каламбуром и пытались объяснить связь звуковыми ассоциациями.
Исследование: крупные языковые модели ИИ ошибаются в определении каламбуров в четырех случаях из пяти
28 ноября 202528 ноя 2025
1
1 мин