Генеративный ИИ (GenAI) вызвал панику среди специалистов по информационной безопасности. Статья рассматривает риски, связанные с GenAI, и предлагает два решения для защиты конфиденциальных данных: корпоративную модель GenAI и открытую модель GenAI с использованием XDR DLP. — csoonline.com
Когда генеративный ИИ (GenAI) вышел на потребительский рынок с релизом ChatGPT от OpenAI, пользователи по всему миру хлынули к продукту и начали экспериментировать с возможностями инструмента в различных отраслях. Релиз также мгновенно поверг в панику специалистов по информационной безопасности, чья задача — защищать организации от рисков, включая потерю или кражу конфиденциальных данных, таких как персональные данные (PII), медицинская информация (PHI) и конфиденциальные корпоративные данные и интеллектуальная собственность.
Прежде чем перейти в режим защиты, мы должны спросить себя: «Что именно мы пытаемся защитить с помощью GenAI?» Я вижу три основные цели: 1) конфиденциальные корпоративные данные и интеллектуальная собственность, 2) PII, PHI и 3) вредоносное ПО, злонамеренно сгенерированный код и т. д.
Что не так с имеющимися у нас инструментами?
Традиционные корпоративные средства предотвращения утечек данных (DLP) (такие как Forta, Symantec, Netscope, Trellix, Microsoft и др.) существуют уже много лет, но они дороги, сложны во внедрении и требуют значительного внимания и усилий со стороны ИТ-специалистов для обеспечения их эффективности в организации. Они предлагают комплексные решения, как правило, основанные на дата-ориентированном и сетевом DLP, которые интегрируются с источниками данных и отслеживают сеть и любые точки выхода. В результате только крупные организации с большими ресурсами имеют возможность развертывать устаревшие DLP-инструменты.
Перенесемся в настоящее время с совокупными рисками, связанными с решениями GenAI. Неуправляемые решения GenAI и потребительские продукты, предлагаемые лидерами GenAI — такими как ChatGPT от OpenAI, Gemini от Google, CoPilot от Microsoft и Claude от Anthropic — позволяют пользователям загружать документы, анализировать информацию и генерировать различные выходные данные (текст, аудио, видео, графику и т. д.). Риск для организаций прост: сотрудники, загружающие и анализирующие конфиденциальные данные, включающие PII, PHI или проприетарную информацию компании или интеллектуальную собственность, подвергают данные организации риску.
Большинство организаций сегодня имеют политики и руководящие принципы в отношении GenAI, но большинству не хватает технологических инструментов для реализации этих политик. Я вижу пару хороших вариантов для защиты конфиденциальных данных и рисков кибербезопасности в мире GenAI, которые включают:
Решение 1: Корпоративная модель GenAI
Внедрение корпоративных лицензий для утвержденных решений GenAI (таких как ChatGPT Enterprise или Microsoft CoPilot 365, который интегрирован в существующие клиенты O365). Корпоративные решения GenAI, как правило, включают надежный набор встроенных инструментов безопасности, которые позволяют организациям защищать свои данные и применять элементы управления DLP непосредственно в корпоративном решении GenAI.
Тем не менее, они дороги и обычно стоят от 30 до 40 долларов на пользователя в месяц. Для организации из 4000 сотрудников это составляет 1 440 000 долларов в год. При таком подходе обучение может быть оптимизировано под конкретные утвержденные корпоративные инструменты.
И, конечно же, чтобы снизить риски, связанные с другими неутвержденными инструментами GenAI — заблокируйте их с помощью современных инструментов фильтрации интернет-контента, таких как Cisco Umbrella, iBoss, DNSFilter или WEB Titan. Недостаток этого варианта заключается в том, что организации могут рисковать блокировкой решений, которые необходимы сотрудникам, тем самым потенциально подавляя инновации. ИТ-отделы должны научиться понимать, что помогает бизнесу добиваться успеха, а затем выяснять, как это обеспечить. Я считаю это вариантом с низким уровнем риска.
Решение 2: Открытая модель GenAI
Внедрение элементов управления DLP для GenAI в ваше решение безопасности XDR/MDR (расширенное обнаружение и реагирование / управляемое обнаружение и реагирование) для обнаружения, анализа и реагирования на риски утечки конфиденциальных данных. Основное отличие современных XDR от традиционных решений DLP заключается в том, что XDR объединяет несколько инструментов (конечные точки, сетевую безопасность и аналитику угроз) и DLP в решение безопасности, как правило, через агент.
Этот вариант позволяет организации развивать больше инноваций, не выбирая только одно или два корпоративных решения GenAI, а открывая возможности для сотрудников. Тем не менее, экономия на масштабе обучения уходит, поскольку сложно обучать десятки различных решений в рамках предприятия.
Решения уровня Tier-1, такие как Sentinel One, Microsoft и CrowdStrike, предлагают надежные модули DLP в рамках своих платформ кибербезопасности, используя мощные ИИ-движки для обнаружения и предотвращения утечек конфиденциальных данных из не корпоративных инструментов GenAI или любых других инструментов. Эти инструменты также могут обезопасить ваш агентский ИИ, определяя «защитные ограждения» посредством защиты от угроз и данных, а также автоматизированного реагирования на всей поверхности атаки ИИ.
Этот подход смещает уровень риска утечки данных с внедрения корпоративных инструментов на конечную точку. Он также снимает бремя использования инструмента фильтрации интернет-контента для блокировки не корпоративных решений GenAI, позволяя инновациям развиваться с меньшим риском. XDR DLP также намного более экономичен и обходится в сумму от 30 000 до 50 000 долларов в год для организации из 4000 сотрудников. Я считаю это вариантом с учетом рисков.
Программные решения и поставщики продолжают внедрять инновации и развиваться. Переход от корпоративных DLP и решений для фильтрации или блокировки интернет-контента к модулям XDR DLP в рамках платформы кибербезопасности демонстрирует интеграцию инструментов и возможностей по мере вступления в 2026 год.
CIO и CISO должны уделять внимание новым инструментам, способствующим инновациям (таким как GenAI), одновременно внедряя политики и технологии для снижения рисков, связанных с неконтролируемыми или не корпоративными решениями GenAI. Оставшиеся риски GenAI (вредоносное ПО и злонамеренно сгенерированный код) могут быть устранены комбинацией XDR и решений для сканирования кода. В результате XDR/MDR DLP является надежным и экономически эффективным вариантом для большинства рисков, связанных с GenAI.
Эта статья опубликована в рамках сети Foundry Expert Contributor Network.
Хотите присоединиться?
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Gregory S. Smith