Найти в Дзене
Поддержите автораПеревод на любую сумму
🧠 AppSec переезжает в редактор кода
Сегодня Copilot или LLM способны генерировать целые фрагменты бизнес-логики за минуты. Разработчик всё чаще не пишет код вручную, а проверяет уже готовый результат. Таким образом количество нового кода начинает расти быстрее, чем человек успевает анализировать его с точки зрения безопасности. ⚙️ Security-проверки прямо во время написания кода Heidi - open-source security plugin для IDE, который анализирует код прямо в процессе редактирования. Плагин отслеживает изменения в файлах и пытается находить...
11 часов назад
🦊 Mozilla подключили Claude к поиску уязвимостей в Firefox
В Mozilla решили проверить, можно ли использовать Claude как часть реального vulnerability research pipeline для Firefox. ⚙️ Анализ поведения Firefox активно включились в тестирование Claude Mythos по программе Preview. Разработчики давали модели широкие задачи: анализировать execution flow, искать подозрительные переходы состояний, изучать edge-case поведение API и проверять, как разные компоненты Firefox взаимодействуют между собой. Claude использовали как систему генерации гипотез, способную быстро проходить по большим объёмам кода и выделять места, где логика выглядит  необычной...
4 дня назад
🌊 Bluerock: добавляем runtime-безопасность в Kubernetes
Kubernetes отлично умеет оркестрировать контейнеры. Но с безопасностью в runtime у него всегда были проблемы. Вы настраиваете RBAC, network policies, admission controllers и сканирование образов и ждете отсутствия рисков ИБ. Однако всё это в основном работает до запуска workload’а. После старта контейнера Kubernetes почти не понимает, что внутри него происходит на самом деле. ⚙️ Что же делать? Bluerock - это runtime security layer для Kubernetes. Платформа наблюдает за поведением контейнеров...
5 дней назад
🗺 AIMap: инструмент, который показывает, где на самом деле начинается AI-атака
С появлением LLM архитектура перестает быть очевидной. Раньше можно было нарисовать схему: тут фронт, вот API, здесь база и примерно понять, где проходит граница систем. В AI-приложениях граница распадается. Один запрос к модели может привести к вызову внешнего инструмента, обращению к API, извлечению данных из хранилища или генерации нового действия. Зачастую часть связей не фиксируется явно, она возникает на уровне prompt’ов, конфигураций агентов и оркестрации. В какой-то момент становится трудно...
6 дней назад
🧬 Код как отпечаток пальца: уязвимости начинают искать по стилю
Мы воспринимаем уязвимости, как локальный сбой. Где-то не проверили вход, где-то неверно обработали условие, где-то допустили лишний доступ. В такой логике ошибка - это случайность, которую можно найти и исправить. Однако ошибки почти никогда не бывают случайными. Они воспроизводятся. Причём не потому, что разработчик копирует код, а потому что он воспроизводит собственный способ мышления. У каждого есть устойчивые паттерны, например, как упрощать проверки или как обходиться с исключениями. Эти решения повторяются, а вместе с ними повторяются и уязвимости...
1 неделю назад
🔥 PipeLock: попытка поставить AI-агента под контроль
AI-агенты больше не сидят в чате, им выдают доступ к shell, CI/CD и runtime. Они начинают выполнять команды. ⚙️ PipeLock В классической схеме работает стандартеый принцип: агент принял решение → система его сразу исполнила. PipeLock встраивается между ними, обеспечивая прослойку контроля. На практике мы имеем execution proxy для агента. Все команды, которые он генерирует, проходят через PipeLock перед тем, как попасть в систему. 🔒 Архитектурные особенности Как мы уже проговорили, PipeLock работает на уровне перехвата выполнения, т...
1 неделю назад
🔐 LLM проверили в условиях, приближённых к SOC
Моделям предложили самостоятельно искать атаки. 28 апреля вышел новый бенчмарк от Simbian, один из первых, где языковые модели тестируют не на знание терминов, а на способность работать как аналитик кибербезопасности. 🧪 Как устроен бенчмарк? Модели поместили в среду, максимально приближенную к реальной. Они анализировали поток событий (Windows Security, Sysmon), внутри которого были спрятаны цепочки атак. Не отдельные техники, а полноценные сценарии. При этом модели не знали, есть ли атака в данных и сколько их...
1 неделю назад
🔐 Prompt перестаёт быть приватным
Исследователи обратили внимание на еще одну проблему: конфиденциальность prompt’ов в AI-системах не гарантирована. Скрытые инструкции модели могут быть извлечены через специально сформированные запросы. 🧠 Один контекст на всё LLM обрабатывают весь вход как единый текстовый поток, включая: ➖системные инструкции ➖пользовательские запросы ➖внешние данные В такой модели границы размываются, и при определённых условиях система может начать воспроизводить части внутреннего prompt’а (даже без прямого доступа к нему)...
1 неделю назад
🎼 Symphony от OpenAI: разработка, в которой человек уже лишний
Symphony - это open-source orchestration-система от OpenAI, которая управляет AI-агентами, привязывая их к задачам в таск-трекерах (например, Linear). Каждый агент работает автономно: читает задачу, пишет код, создаёт pull request и доводит её до завершения через итерации. 🪄 Не помощник, а исполнитель Рассмотрим use case: Ты создаёшь задачу → система сама назначает на неё агента → агент начинает работать. Он читает описание, лезет в код, что-то пишет, открывает PR, спотыкается, поднимается и продолжает...
2 недели назад
🔑 Пароли уходят, но мы всё ещё за них держимся
Давно известно, что пароли слабое звено, но люди продолжают их использовать и, если честно, делают это предсказуемо плохо. Мы переиспользуем пароли, храним их где попало и спокойно вводим их на фишинговых сайтах (даже зная о рисках). Поведение не меняется годами. 🧠 Технология уже есть На этом фоне passkeys выглядят как очевидное решение. Они убирают саму идею пароля, вместо него используется пара криптографических ключей, где приватная часть остаётся на устройстве, а вход подтверждается через биометрию или PIN...
2 недели назад
🔐 Люди сами сливают свои данные в AI, а OpenAI пытается это исправить
Сегодня речь пойдет о проблеме, о которой все знают, но почти никто не решает. Пользователи массово вставляют персональные данные в диалоги с LLM ( включая креды и номера карт). На днях OpenAI выпустила инструмент, который работает до того, как данные “утекут” в модель. 🧠 Что за штука? Речь про Privacy Filter, отдельную модель для поиска и удаления PII (персональных данных) из текста. В отличие от классических DLP/regex-фильтров, модель не просто ищет шаблоны вроде “@gmail.com” или “+7…”, а...
2 недели назад
🐍 Быстрые нейросети таят в себе опасные уязвимости
Пока весь AI-мир обсуждает модели, способные обрабатывать книги за секунды, исследователи обнаружили, что их главное преимущество в невероятной скорости,  одновременно является ахиллесовой пятой в плане безопасности. 👉 Речь идёт о State-Space Models SSM (архитектурах вроде Mamba и Jamba), которые обрабатывают тексты и данные в десятки раз быстрее классических Transformer'ов, вроде ChatGPT. Они уже внедряются в геномный анализ, клинический мониторинг пациентов и SOC-центры. Однако никто всерьёз не изучал их устойчивость к атакам...
2 недели назад