NTU сделал революционное, но в то же время опасное открытие: они нашли способ «взломать» чат-боты с помощью другого ИИ. Этот метод, получивший название «Masterkey», использует слабые места в защите чат-ботов, чтобы заставить их раскрыть конфиденциальную информацию или выполнить несанкционированные действия. Исследователи NTU сначала изучили, как чат-боты на LLM определяют и блокируют вредоносные запросы. Эти важнейшие знания стали ключом к созданию инструмента. Введя полученные данные в другой LLM, они создали специализированный «искусственный интеллект для взлома». Этот ИИ может автоматически генерировать вредоносные запросы, которые обходят типичные средства защиты чатботов. Самое страшное? Этот процесс самоподдерживающийся. ИИ Masterkey может адаптироваться и генерировать новые подсказки для джейлбрейка даже после того, как разработчики чатботов исправят уязвимости. Последствия этого вызывают тревогу. Компании, использующие чат-боты для обслуживания клиентов, поиска информации или д
ИИ научили взламывать другие ИИ-чатботы с помощью «мастер-ключа»
29 декабря 202329 дек 2023
26
1 мин