Найти в Дзене
Автора можно поддержать разовым переводом
Поддержите автораПеревод на любую сумму
🧠 Исследование: ИИ-агенты для защиты сети
🧠 Исследование: ИИ-агенты для защиты сети 🚀  Исследователи из MITRE и NSA пошли дальше стандартных моделей, которые умеют решать только одну задачу за раз. Вместо этого они предлагают динамическое обучение с открытым набором задач — это значит, что агент не просто учится на ограниченном наборе данных, а накапливает знания и применяет их в новых, непредсказуемых ситуациях. 💡 В чем смысл? 🌐 Моделирование реальных сетей и сценариев безопасности, где агент учится действовать, как опытный специалист: распознавать угрозы, блокировать атаки, предотвращать утечки...
1 день назад
🛡️ Кибербезопасность и GenAI: главные события мая 2025
🛡️ Кибербезопасность и GenAI: главные события мая 2025 🌐 Масштабная утечка данных: 184 миллиона паролей в открытом доступе Исследователь Джеремия Фаулер обнаружил незащищённую базу данных с более чем 184 миллионами паролей, относящихся к сервисам Google, Apple, Microsoft и другим. Данные, вероятно, были собраны с помощью вредоносного ПО, крадущего информацию из браузеров и приложений. База данных уже удалена, но её владелец остаётся неизвестным. (New York Post) 🧠 GenAI: новые угрозы и инвестиции...
2 дня назад
🛠️ Woodpecker: инструмент Red Team в эпоху ИИ, Kubernetes и API
🛠️ Woodpecker: инструмент Red Team в эпоху ИИ, Kubernetes и API Open-source инструмент, который поднимет ваш уровень киберзащиты 🤖 Woodpecker — это open-source фреймворк для Red Team-тестирования, разработанный компанией Operant AI. Он предназначен для: ➖Выявления уязвимостей в ИИ-моделях ➖Проверки безопасности Kubernetes-кластеров ➖Анализа защищенности API ➖Woodpecker помогает проактивно находить слабые места в инфраструктуре ещё до того, как ими воспользуются злоумышленники. 🌟 Основные возможности...
3 дня назад
🔥 Multi-Agent Reinforcement Learning — вот будущее кибербезопасности
🔥 Multi-Agent Reinforcement Learning — вот будущее кибербезопасности! 🤖🛡️ Современные кибератаки — это не просто одиночные взломы. Это координированные, динамичные атаки, которые требуют не менее умной защиты. Multi-Agent Reinforcement Learning (MARL) — обучаемый коллектив ИИ-агентов, который способен отбиваться от самых продвинутых угроз! 📈  MARL — коротко о главном 🌐 Децентрализация: вместо единого центра принятия решений, множество агентов взаимодействуют между собой, что делает защиту гибкой и масштабируемой...
4 дня назад
🧱 Meta запускает LlamaFirewall — первый open-source "фаервол" для защиты ИИ-агентов
🧱 Meta запускает LlamaFirewall — первый open-source "фаервол" для защиты ИИ-агентов Как защитить LLM от джейлбрейков, инъекций и небезопасного кода? 🤖 Зачем нужен LlamaFirewall? LLM больше не просто чат-боты — они: ✍️ Пишут и запускают код 🔗 Интегрируются с API 🧠 Принимают решения в реальном времени Но вместе с возможностями растёт и опасность: 🕳️ Инъекции промптов 🚨 Джейлбрейки 🐛 Генерация уязвимого кода Meta* выпустила LlamaFirewall — open-source фреймворк для защиты ИИ-агентов (*компания признана экстремистской организацией на территории России)...
5 дней назад
🎯 Как выиграть у хакеров: теория игр в кибербезопасности
🎯 Как выиграть у хакеров: теория игр в кибербезопасности Почему защита — это не просто блокировка, а стратегическая игра с последствиями ⚔️ Почему «не-нулевая»? В кибербезопасности часто предполагается, что атака = проигрыш защиты. Но это упрощение. На самом деле, обе стороны могут как выигрывать, так и терять одновременно. Поэтому исследователи предложили использовать модель не-нолевой игры, где выигрыши и потери не обязательно симметричны. Результаты исследования были представлены в статье...
1 неделю назад
🤖 GenAI в офисе: новая эффективность или бомба замедленного действия
🤖 GenAI в офисе: новая эффективность или бомба замедленного действия? Что происходит, когда сотрудники массово используют ИИ без спроса — и почему это страшно для безопасности. 🚨 Проблема: ИИ везде, но вне контроля Исследования Netskope показали: ➖В среднем компания передаёт более 7,7 ГБ данных в GenAI-сервисы каждый месяц ➖75% сотрудников регулярно используют ИИ на работе При этом большинство делает это без согласования с безопасностью. Это и есть "Shadow AI" — когда ИИ-инструменты используются "втихаря", без контроля, без шифрования, без защиты...
1 неделю назад
🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно
🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно? Алгоритмы могут быть не хуже людей… но и не лучше, если дискриминируют. 🚨 А в чём вообще проблема? Представьте, что ваша безопасность зависит от работы алгоритма. Этот алгоритм — система обнаружения "аномалий": он решает, кто ведёт себя подозрительно. И вот незадача: он чаще ошибается, если вы, скажем, пожилой человек. Или женщина. Несправедливо? Очень. Но вполне реально. 🧠 Что придумали учёные? Исследователи из Гонконга создали...
1 неделю назад
🔐 Hanko: открытая альтернатива Auth0 и Clerk для эпохи Passkey
🔐 Hanko: открытая альтернатива Auth0 и Clerk для эпохи Passkey Пароли устарели. Время для новых решений. 🚀 Что такое Hanko? Hanko — это полностью открытая платформа для аутентификации и управления пользователями, созданная для современной цифровой среды. Она предлагает: ➖Поддержку Passkey: нативная реализация безпарольной аутентификации с использованием современных стандартов. ➖Гибкие сценарии входа: настройка различных вариантов входа, включая безпарольные, с паролем, только через социальные сети или только с использованием Passkey...
1 неделю назад
🧠 Утечка системного промпта Claude 3.7 Sonnet
🧠 Утечка системного промпта Claude 3.7 Sonnet В начале мая 2025 года в открытом доступе оказался полный системный промпт модели Claude 3.7 Sonnet от компании Anthropic. Этот документ объемом около 24 000 токенов предоставляет уникальный взгляд на внутреннюю архитектуру одного из самых продвинутых ИИ-ассистентов на рынке . 🔍 Что утекло? Системный промпт Claude 3.7 Sonnet — это не просто набор инструкций. Он включает: ➖Поведенческие директивы: рекомендации по нейтральности, избеганию категоричных суждений и использованию Markdown для форматирования кода...
1 неделю назад
🌪 ONLINE-IFOREST: как искать аномалии в потоках данных
🌪 ONLINE-IFOREST: как искать аномалии в потоках данных? Когда каждое событие может быть атакой, а событий миллионы в секунду… 🔍 В чём проблема? Все любят Isolation Forest — простой и мощный алгоритм поиска аномалий. Но он рассчитан на работу с статичными данными. А в кибербезопасности данные — это бесконечный поток событий: ⚙️ Логи от SIEM 💳 Транзакции 📡 События с IoT 🐛 Трафик и телеметрия Именно для таких задач создан ONLINE-IFOREST — абсолютно новый подход, заточенный под потоковую обработку...
2 недели назад
🧠 Обходим фильтры ChatGPT: новый лайфхак
🧠 Обходим фильтры ChatGPT: новый лайфхак ИИ-ассистенты вроде ChatGPT, Gemini и DeepSeek имеют встроенные фильтры и цензуру. Как их обойти мы рассказывали в данном посте. Однко недавно был выявлен еще один способ обхода с помощью обычного системного промпта. 🧩 Как это работает? Секрет — в кастомной системной инструкции. Вместо запроса напрямую, ты внедряешь директиву на уровне «системного сообщения», которое LLM воспринимает как приказ с высшим приоритетом. И она больше не спрашивает «можно ли» — она просто делает...
2 недели назад