Эксперты обнаружили необычную уязвимость в медицинском ИИ-сервисе Doctronic. Оказалось, что систему можно сбить с нормального поведения с помощью простой текстовой манипуляции. Достаточно убедить чат-бота, что диалог ещё не начался и разговор ведётся не с пациентом, а с системой. После этого модель начинает раскрывать внутренние инструкции и может выдавать совершенно неожиданные ответы. Исследование провели специалисты компании Mindgard. Они показали, что подобная манипуляция относится к типу атак через текстовые подсказки. Суть приёма состоит в том, чтобы заставить модель воспринимать сообщение не как обычный запрос пользователя, а как служебную инструкцию. Директор по продукту Mindgard Аарон Портной объясняет, что вся атака строится вокруг простой идеи. Нужно убедить модель, что сессия ещё не запущена и бот разговаривает с системой управления. После такого сигнала чат-бот начинает вести себя иначе. В ходе тестов система могла генерировать конспирологические рассуждения о пандемии COV