Добавить в корзинуПозвонить
Найти в Дзене
Нейрозона сегодня

Утечки в ИИ: Российские компании теряют данные

Аналитики ГК «Солар» проанализировали трафик 150 компаний и выявили 30-кратный рост объема данных, отправляемых в общедоступные нейросети за последний год. Около 60% российских организаций не имеют политик регулирования работы с ИИ, что создает риски для бизнеса. Массовое использование ИИ сотрудниками стало новым каналом утечек информации и заражения инфраструктуры. Искусственный интеллект стал вторым Shadow IT. Сотрудники загружают в нейросети конфиденциальную информацию, а злоумышленники осваивают ИИ быстрее, чем создаются средства защиты. Время перестройки DDoS-атаки сократилось с часа до минуты, и ожидаются новые векторы атак. Компании должны проактивно контролировать поток данных, блокируя утечки и вредоносные ответы от нейросетей на уровне трафика. Важным элементом защиты становится контроль канала взаимодействия с ИИ-сервисами. Масштаб проблемы в цифрах Анализ трафика 150 клиентов показал, что объем корпоративной информации, отправляемой в публичные ИИ-сервисы, вырос более чем в

Аналитики ГК «Солар» проанализировали трафик 150 компаний и выявили 30-кратный рост объема данных, отправляемых в общедоступные нейросети за последний год. Около 60% российских организаций не имеют политик регулирования работы с ИИ, что создает риски для бизнеса. Массовое использование ИИ сотрудниками стало новым каналом утечек информации и заражения инфраструктуры.

Искусственный интеллект стал вторым Shadow IT. Сотрудники загружают в нейросети конфиденциальную информацию, а злоумышленники осваивают ИИ быстрее, чем создаются средства защиты. Время перестройки DDoS-атаки сократилось с часа до минуты, и ожидаются новые векторы атак.

Компании должны проактивно контролировать поток данных, блокируя утечки и вредоносные ответы от нейросетей на уровне трафика. Важным элементом защиты становится контроль канала взаимодействия с ИИ-сервисами.

Масштаб проблемы в цифрах

Анализ трафика 150 клиентов показал, что объем корпоративной информации, отправляемой в публичные ИИ-сервисы, вырос более чем в 30 раз. Сотрудники загружают фрагменты кода, финансовые отчеты, юридические документы и клиентские базы для упрощения задач, неосознанно становясь причиной утечек.

46% конфиденциальных файлов и промтов попадают в ChatGPT, а 60% организаций не имеют AI-governance политик.

40% российских ИТ-компаний уже внедрили проекты на базе генеративного ИИ, который перестал быть экспериментом и стал рабочим инструментом. 8% организаций пока не применяют эту технологию. ИИ приносит наибольшую ценность в разработке продуктов, клиентской поддержке, продажах и маркетинге. 45% компаний создали специальные отделы или центры компетенций по ИИ.

Стремительный рост использования ИИ на фоне отсутствия контроля создает угрозу безопасности, превращая сотрудников в источник риска.

От теории к практике: реальные инциденты

Риск утечки через ИИ затрагивает не только сотрудников, но и руководство. Исполняющий обязанности главы CISA Мадху Готтумуккала загрузил служебные документы в ChatGPT, что привело к расследованию.

В Samsung инженеры использовали ChatGPT для проверки кода, в результате чего фрагменты секретного исходного кода оказались на серверах OpenAI. Компании пришлось вводить ограничения и разрабатывать собственный ИИ-инструмент.

Сотни тысяч разговоров с чат-ботом Grok Илона Маска оказались проиндексированными Google, включая запросы на создание паролей и инструкции по изготовлению запрещенных веществ.

Новые инструменты для атак и защиты

Искусственный интеллект стал мощным инструментом для злоумышленников, автоматизирующих фишинг, поиск уязвимостей и генерацию эксплойтов. Противостоять этому можно с помощью аналогичных технологий.

Современные решения по информационной безопасности должны выявлять аномалии в запросах, блокировать угрозы, обеспечивать мониторинг API-взаимодействий, сегментацию сети и изоляцию систем.

Угроза для всех: от финтеха до госсектора

В финансовом секторе ИИ стал новым каналом утечек. В ИТ-компаниях высок риск утечки исходников и API-ключей. На промышленных предприятиях ИИ создает риск утечки технологий и данных о производственных процессах. В ритейле и e-commerce возникает вопрос контроля над клиентскими данными. В госсекторе ИИ часто используется без формальных правил и средств контроля.

Решение — в построении гранулярных политик безопасности, которые позволяют контролировать использование нейросетей и тип передаваемых данных. Вопрос уже не в том, использовать ли ИИ, а в том, как делать это безопасно.