Добавить в корзинуПозвонить
Найти в Дзене
IXBT.com

ИИ Big Sleep от Google предотвратил кибератаку через уязвимость в SQLite

Google подтвердил первый случай предотвращения реальной кибератаки с помощью искусственного интеллекта. Агент Big Sleep, созданный совместно Google DeepMind и Project Zero, выявил критическую уязвимость в SQLite (CVE-2025-6965) до её эксплуатации злоумышленниками. Эта уязвимость, известная исключительно хакерам, могла быть использована в ближайшее время, но комбинация данных Google Threat Intelligence и анализа Big Sleep позволила заблокировать угрозу заранее. Достижение стало продолжением работы, начатой в ноябре 2024 года, когда Big Sleep впервые обнаружил реальную уязвимость. С тех пор система неоднократно превосходила ожидания, выявляя множественные уязвимости. В данном случае алгоритм не просто нашёл слабое место, но и спрогнозировал его скорое использование, что ранее не удавалось ИИ-инструментам. Помимо защиты продуктов Google, Big Sleep сейчас применяется для аудита open-source проектов. Технология освобождает специалистов по кибербезопасности для решения сложных задач, масштаб

Google подтвердил первый случай предотвращения реальной кибератаки с помощью искусственного интеллекта. Агент Big Sleep, созданный совместно Google DeepMind и Project Zero, выявил критическую уязвимость в SQLite (CVE-2025-6965) до её эксплуатации злоумышленниками.

Эта уязвимость, известная исключительно хакерам, могла быть использована в ближайшее время, но комбинация данных Google Threat Intelligence и анализа Big Sleep позволила заблокировать угрозу заранее.

Иллюстрация: Sora  📷
Иллюстрация: Sora 📷

Достижение стало продолжением работы, начатой в ноябре 2024 года, когда Big Sleep впервые обнаружил реальную уязвимость. С тех пор система неоднократно превосходила ожидания, выявляя множественные уязвимости. В данном случае алгоритм не просто нашёл слабое место, но и спрогнозировал его скорое использование, что ранее не удавалось ИИ-инструментам.

Помимо защиты продуктов Google, Big Sleep сейчас применяется для аудита open-source проектов. Технология освобождает специалистов по кибербезопасности для решения сложных задач, масштабируя их возможности. Разработка ведётся с соблюдением принципов ответственного ИИ: в опубликованном техническом документе Google детализированы меры контроля, включая защиту приватности, предотвращение несанкционированных действий и обеспечение прозрачности под человеческим надзором.

Все обнаруженные проблемы отслеживаются в открытой базе данных Google.