🤖 GenAI в офисе: новая эффективность или бомба замедленного действия?
Что происходит, когда сотрудники массово используют ИИ без спроса — и почему это страшно для безопасности.
🚨 Проблема: ИИ везде, но вне контроля
Исследования Netskope показали:
➖В среднем компания передаёт более 7,7 ГБ данных в GenAI-сервисы каждый месяц
➖75% сотрудников регулярно используют ИИ на работе
При этом большинство делает это без согласования с безопасностью. Это и есть "Shadow AI" — когда ИИ-инструменты используются "втихаря", без контроля, без шифрования, без защиты.
⚠️ Что может пойти не так?
💦 Утечки данных
Персональные или корпоративные данные могут улететь в открытые LLM — и останутся там навсегда.
👨💻 Использование личных аккаунтов
Почти 60% пользователей заходят в GenAI с личных устройств и без SSO.
Это значит — никакой централизации и мониторинга.
📖 Никаких инструкций и обучения
81% сотрудников никогда не обучались работе с GenAI
15% уже используют несанкционированные инструменты на постоянной основе
🚫 Почему просто запрет — не решение?
Блокировка ChatGPT и Copilot звучит как простое решение. Но если не объяснить “почему”, сотрудники найдут обходные пути. И риски только вырастут.
✅ Что делать?
➖Разработать понятную политику по GenAI
➖Ввести DLP-контроль и ограничения на ввод чувствительных данных
➖Использовать корпоративные версии (например, ChatGPT Team или Copilot for M365)
➖Проводить обучение с примерами: что можно, что нельзя, и почему
🧠 Вопросы, на которые должен знать ответ любой CISO
➖Какие GenAI-инструменты используются у нас прямо сейчас?
➖Какой объём данных сотрудники передают в них?
➖Есть ли политика? А логирование?
➖Кто будет отвечать, если данные "утекут" в запросе к ИИ?
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #GenAI #ShadowAI #DataLoss #CyberSecurity #LLM #DLP #EnterpriseAI #AIatWork #CISO