Китайская компания DeepSeek столкнулась с серьёзными проблемами безопасности после того, как исследователи обнаружили уязвимости в её флагманских моделях искусственного интеллекта R1 и V3. Эти уязвимости включают возможность джейлбрейка, генерацию вредоносного контента и галлюцинации, что ставит под сомнение готовность новых технологий к массовому применению. Особую тревогу вызывает методика джейлбрейка, которая позволяет обмануть систему ограничений, установленных разработчиками. Техники, получившие названия «Deceptive Delight», «Bad Likert Judge» и «Crescendo», позволяют заставить модель выполнять запрещённые задачи, включая создание инструкций для опасных устройств и программ. По словам исследователей из Palo Alto, это создаёт реальные риски для безопасности, особенно в сфере киберзащиты. Ещё одна проблема заключается в способности модели генерировать вредоносный контент. Команда Enkrypt AI выявила, что R1 может создавать информацию о химических и биологических угрозах, а также проя