На фоне растущего интереса к нейросетям, проникающим в диагностику, промышленность и автоматизированную аналитику, учёные из Массачусетского технологического института предупредили об опасной уязвимости в визуально-языковых системах ИИ. Эти модели, связывающие изображение с текстом, не умеют корректно интерпретировать отрицательные конструкции, что может привести к критическим ошибкам. Суть проблемы раскрыта в исследовании, где специалисты протестировали поведение ИИ при работе с фразами, содержащими отрицания. Примеры из медицины продемонстрировали потенциальный ущерб. Система, анализирующая рентгеновский снимок, может проигнорировать уточнение «отёк тканей без увеличения сердца» и подобрать некорректные аналоги. Это способно привести к искажениям при принятии решений, где важна точность до нюанса. Исследователи установили, что визуально-языковые модели в процессе обучения практически не сталкиваются с отрицаниями. Подписи к изображениям в обучающих базах фиксируют лишь присутствующие
Игнорирование слова «нет» у ИИ может привести к фатальным ошибкам
16 мая 202516 мая 2025
13
2 мин