Найти в Дзене
Поддержите автораПеревод на любую сумму
🤖 README-файлы становятся новой точкой утечки
AI-агенты всё чаще работают напрямую с кодом. Они читают репозитории, анализируют README, настраивают окружение и даже принимают решения без участия человека. Однако здесь появляется новая, неожиданная поверхность атаки. 🧠 Где проблема? README-файл больше не просто документация для разработчика. Теперь это входная точка для AI-агента. А это значит, что если в README есть вредоносные инструкции или скрытые данные, то агент будет действовать следующим образом: 🔹 интерпретировать их как легитимные...
2 часа назад
🦞 OpenClaw и автономные AI-агенты (часть 2): как на самом деле выглядят атаки на агентные системы
В прошлом посте про OpenClaw мы разобрали, почему автономные AI-агенты создают новую поверхность атак. Однако свежие исследования показывают более неприятную вещь: проблема не в отдельных уязвимостях.  Уязвима сама архитектура агентных систем. Агент одновременно является: 🧠 reasoning-движком ⚙️ оркестратором инструментов 💾 системой памяти 🌐 шлюзом к внешним сервисам Поэтому атаки начинают происходить на нескольких уровнях сразу. Исследователи предложили отдельную модель угроз для таких систем...
1 день назад
🕷 Как сегодня реально начинаются кибератаки
? Многие представляют атаку как сложный эксплойт или zero-day. Однако на практике чаще всего всё начинается с инфостилера и кражи данных с заражённого компьютера. Обычно воруют: 🔹 логины и пароли 🔹 cookies и session-токены 🔹 данные браузеров 🔹 VPN-доступы и SaaS-аккаунты Самым ценным являются cookies активных сессий. С таким токеном злоумышленнику часто не нужен ни пароль, ни MFA. Достаточно импортировать cookie, и система воспринимает его как легитимного пользователя. 🧩 Данные превращаются в товар После заражения данные почти никогда не используют напрямую...
4 дня назад
🤖 AI-агенты могут убедительно врать о выполнении задач
AI-агенты быстрее и быстрее внедряются в реальные системы. Они запускают DevOps-процессы, анализируют логи, помогают искать уязвимости и управляют инфраструктурой. Но у такой архитектуры есть неприятная особенность: агент может уверенно заявить, что выполнил задачу, даже если этого никогда не происходило. 🧠 Иллюзия выполнения В классической автоматизации всё просто: задача → выполнение → результат У LLM-агентов цепочка другая: задача → рассуждение → текстовое описание “выполненных действий” Если система не проверяет реальные операции, она начинает доверять тексту агента...
5 дней назад
🦞 OpenClaw и автономные AI-агенты: новая поверхность атак для кибербезопасности
Автономные AI-агенты постепенно выходят из лабораторий в реальный бизнес. Вместе с этим растёт и интерес к open-source фреймворкам, которые позволяют запускать таких агентов буквально «из коробки». Одним из самых обсуждаемых проектов последних недель стал OpenClaw, платформа для создания автономных AI-агентов, которые могут самостоятельно работать с интернетом, сервисами и инфраструктурой. 🚀 Не одним OpenClaw едины Крупнейшие компании начали выпускать собственные версии подобных агентов: Tencent...
6 дней назад
🧪 SAGE: инструмент, который пытается взломать вашу LLM
Инженеры из Avast выпустили open-source инструмент SAGE, фреймворк для автоматизированного тестирования безопасности LLM-приложений. 🧠  О чем речь? SAGE (Security Assessment Generation Engine) - open-source платформа, которая помогает находить уязвимости в LLM-системах. Другими словами, это red team для AI, который позволяет моделировать атаки на: 🔹 чат-ботов 🔹 AI-агентов 🔹 RAG-системы 🔹 LLM-ассистентов внутри корпоративных сервисов SAGE генерирует вредоносные промпты, запускает сценарии атак и анализирует реакцию моделей...
1 неделю назад
🔥 Корпоративные курсы по кибербезопасности могут снижать безопасность дома
Кажется очевидным: если сотрудников обучают кибербезопасности, общий уровень защиты должен расти. Новое исследование показывает неожиданный эффект: security awareness на работе может сужать восприятие угроз и снижать внимание к безопасности вне работы. Исследователи опросили 1200 человек из США, Великобритании, Германии и Франции, чтобы понять, где люди узнают о киберугрозах и как делятся этой информацией. 🧠 Откуда люди узнают о кибербезопасности Топ источников: 1️⃣ Работодатель — 22% 2️⃣ Веб-сайты...
1 неделю назад
🔥 PerplexedBrowser: когда AI-браузер работает против вас
AI-браузеры, такие как Perplexity Comet, уже не просто показывают страницы. Они интерпретируют команды, сохраняют контекст авторизации и выполняют действия на устройстве и в приложениях от вашего имени. Это круто, но страшно с точки зрения безопасности. Исследователи из Zenity Labs обнаружили критическую семью уязвимостей под названием PleaseFix, а в её составе подвох, который назвали PerplexedBrowser. Уязвимости позволяют злоумышленникам подчинить AI-агента и использовать его привилегии без вашего взаимодействия...
1 неделю назад
🛠 mquire: аудит безопасности MCP-серверов для AI-агентов
Когда AI-агенты начинают работать с инструментами через MCP (Model Context Protocol), они перестают быть «чатом» и становятся частью инфраструктуры. 📂 Файлы 🔑 Токены 🚀 CI/CD ☁️ Облачные API Всё это оказывается в зоне досягаемости модели. Компания Trail of Bits выпустила open-source инструмент mquire, нацеленный на аудит безопасности MCP-серверов. ⚠️ В чём проблема MCP-сервер - это слой, через который агент получает доступ к инструментам. Другими словами - это точка расширения возможностей LLM...
1 неделю назад
🕸️ Как вытащить кибербезопасность из 468 ТБ веб-данных и не разориться
На arXiv вышла работа " Cybersecurity Data Extraction from Common Crawl". Авторы решают практичную задачу: как собрать специализированный pretraining-датасет по кибербезопасности, не прогоняя через классификатор весь интернет. 🚨 В чём проблема Современные LLM обучаются на гигантских массивах данных вроде: ➖Common Crawl ➖The Pile ➖C4 ➖FineWeb Это огромные сборники текстов из интернета на самые разные темы. Они отлично подходят для «общего интеллекта», но если вам нужна модель, которая глубоко...
2 недели назад
🧠 IronCurtain: защитный периметр для AI-агентов
AI-агенты всё чаще получают реальный доступ к инфраструктуре: читают репозитории, ходят в интернет, вызывают API, запускают код, взаимодействуют с файлами и секретами. Удобно, но не безопасно. 🚨 В чём риск AI-агент уже не просто модель, а исполняющая система. Агент: ➖принимает входные данные извне ➖может использовать инструменты ➖выполняет действия ➖работает с локальными и удалёнными ресурсами Добавьте prompt injection, вредоносный контент в документах или неожиданные tool-calls и вы получаете новый класс атак...
2 недели назад
🔍 Федеративный RCA без доступа к данным: как найти источник сбоя в распределённой промышленной системе
Вышел интересный препринт на arXiv “Learning Unknown Interdependencies for Decentralized Root Cause Analysis in Nonlinear Dynamical Systems” (arXiv:2602.21928v1). Исследователи предлагают способ находить первопричину инцидента в распределённой промышленной системе… не имея доступа к сырым данным. Звучит как невозможное? Разберёмся. 👇 🏭 В чём суть проблемы Представьте несколько заводских установок, которые связаны между собой. Если одна «ломается», сбой может распространиться на остальные....
2 недели назад