Даже самые продвинутые модели не понимают разницу между «есть» и «нет». В критичных задачах это может стоить жизни. Представьте: врач смотрит на рентген и видит — «опухоль не обнаружена». Чтобы ускорить работу, он подключает ИИ-модель, анализирующую изображения и тексты. Та выдает похожие случаи... но включает в выборку и те, где опухоль была. Почему? Потому что модель проигнорировала слово «не», а это значит, что диагноз может быть неверным. MIT провели масштабное исследование и пришли к тревожному выводу: современные vision-language модели, включая CLIP (Contrastive Language–Image Pretraining), не понимают отрицание. Слова вроде «not», «no», «without» или «lacks» они воспринимают так же, как если бы их не было вовсе. Специалисты разработали NegBench — первый полноценный бенчмарк на понимание отрицания в мультимодальных моделях. Он включает: Результаты показали, что: Иными словами, модель видит слово «not» — и игнорирует его. Везде, где важна точность формулировки, ошибка в понимании
«Нет» — и в ответ тишина: почему мультимодальные ИИ-модели игнорируют отрицание
25 мая 202525 мая 2025
9
3 мин