Речь идёт не о взломах, а о повседневной практике, когда сотрудники загружают в ChatGPT, Gemini и аналогичные сервисы рабочие документы чтобы «быстрее разобраться» или «улучшить текст». Об этом сообщили аналитики после изучения трафика 150 компаний из разных отраслей. По их данным, около 60% организаций до сих пор не имеют формализованных правил работы с ИИ, а значит — не контролируют, какие данные и куда уходят. В результате ИИ-сервисы фактически превратились в новый канал утечек, незаметный для сотрудников, но критичный для безопасности. 🌐Проблема системная и характерна не только для России. Аналогичные инциденты фиксировались и за рубежом — от загрузки служебных документов в ChatGPT чиновниками до утечек исходного кода в крупных технологических корпорациях. ⚙Нейросети остаются полезным инструментом, но без чётких правил и технического контроля они становится источником риска, а иногда и точкой входа для злоумышленников. 🫡Подписаться на Киберполицию России 📲 Max I 📱 ВK I
❗️Объём утечек данных российских компаний через публичные ИИ-сервисы за 2025 год вырос в 30 раз
11 февраля11 фев
~1 мин