Найти в Дзене
14 подписчиков

💻 GenAI легко подвергается атакам


💾 Согласно данным компании Lakera, 95% экспертов в области кибербезопасности выражают недоверие к мерам защиты, применяемым для моделей GenAI. Красноречивые данные показывают, что модели GenAI можно легко скомпрометировать. Промт атаки позволяют злоумышленникам манипулировать приложениями, получать несанкционированный доступ, похищать конфиденциальные данные и выполнять другие нежелательные действия.

💥 GenAI: каждый может стать хакером

Lakera создала образовательную игру Gandalf, которая привлекла более миллиона игроков, включая специалистов по кибербезопасности. Интересный факт: 200,000 из них успешно преодолели семь уровней игры, демонстрируя свою способность манипулировать моделями GenAI. Этот пример наглядно показывает, что сегодня практически любой может стать потенциальным хакером. Навыки программирования теперь не обязательны.

🔐 Надежность и безопасность: ключевые барьеры для внедрения GenAI

Около 35% респондентов обеспокоены надежностью и точностью моделей LLM, в то время как 34% волнует конфиденциальность данных и безопасность. Наибольшие сложности возникают из-за нехватки квалифицированного персонала, на что указали 28% участников опроса.

🏦 Отрасли проявляют различный уровень готовности к внедрению GenAI и обеспечению безопасности. Финансовый сектор, например, демонстрирует высокую склонность к строгим мерам безопасности: 20% организаций уже имеют команды, специализирующиеся на безопасности ИИ: 27% из них оценивают свою готовность на уровне 4/5 или 5/5. В то время как в секторе образования лишь 9% организаций имеют такие команды и только 15% высоко оценили свою готовность.

Stay secure and read SecureTechTalks 📚

#GenAI #LLM #Threat #Lakera #cybersecurity #Cybernews
💻 GenAI легко подвергается атакам  💾 Согласно данным компании Lakera, 95% экспертов в области кибербезопасности выражают недоверие к мерам защиты, применяемым для моделей GenAI.
1 минута