» Когда начинаешь реально внедрять большие языковые модели, быстро понимаешь неприятное. Самая сложная часть - не «как получить умный ответ», а «как не утопить компанию в утечках». Я держу простой принцип: любые данные, которые уходят в облако, проходят локальный шлюз приватности. Без исключений. 🔒 Пайплайн: в облако уходит только обезличенное 1. Локальный чек на конфиденциальность • быстрый слой: маски и регулярки (телефоны, email, ИНН, паспорт, карты, адреса, реквизиты) • умный слой: локальная модель NER (распознавание сущностей), которая ловит «человеческое» (ФИО, компании, должности, проекты, внутренние названия) На выходе не 2 статуса - “да/нет”, а 3 статуса: SAFE / SENSITIVE / UNKNOWN. Правило риск-контура: ⚠️ UNKNOWN -> SENSITIVE. 2. SAFE: сразу в большую модель Это важно для экономики и UX: безопасность не должна убивать скорость. Точнее, не должна убивать продукт. 3. SENSITIVE: де-идентификация + словарь замен Заменяем на плейсхолдеры и сохраняем карту соответствий:
LLM в корппроцессах: сначала шлюз приватности, потом «умный ответ
26 января26 янв
1 мин