Reasoning-модель на 8B параметров оказалась умнее гигантов В последние два года LLM в кибербезопасности стали почти обязательным элементом стека. Они помогают разбирать отчёты, классифицировать CVE, сопоставлять индикаторы с MITRE ATT&CK, писать черновики рекомендаций. Однако все модели в лучшем случае угадывают, а в худшем уверенно галлюцинируют 🤷♂️ Даже когда ответ формально правильный, логика рассуждений часто либо отсутствует, либо не соответствует факт-чекингу. Для ИБ это критично: важно не просто «что», а почему именно так. На этом фоне работа Cisco Foundation AI выглядит нетипично здравой. Ребята не стали делать ещё один instruction-tuned security-бот, а попробовали решить более фундаментальную задачу, научить модель рассуждать в контексте кибербезопасности 🛡️ Так появилась Foundation-Sec-8B-Reasoning, open-source LLM, которая сначала думает, а уже потом отвечает. 🤖 Обычные LLM плохо подходят для ИБ Большинство security-моделей сегодня — это базовые LLM с дообучением н