🧠💣 LLM для кибербезопасности, который пытается рассуждать
Reasoning-модель на 8B параметров оказалась умнее гигантов В последние два года LLM в кибербезопасности стали почти обязательным элементом стека. Они помогают разбирать отчёты, классифицировать CVE, сопоставлять индикаторы с MITRE ATT&CK, писать черновики рекомендаций. Однако все модели в лучшем случае угадывают, а в худшем уверенно галлюцинируют 🤷♂️ Даже когда ответ формально правильный, логика рассуждений часто либо отсутствует, либо не соответствует факт-чекингу. Для ИБ это критично: важно не просто «что», а почему именно так...