Пост по Федеративному обучению Пост 1 из цикла ➖➖➖➖➖➖➖➖➖➖➖ ДООБУЧЕНИЕ (fine-tuning) и LoRA Вы не храните датасет, но обязанности по ПДн никуда не делись 👀 Есть базовая модель (например, языковая). Вы даете ей набор своих примеров: диалоги, письма, карточки обращений, шаблоны ответов и получаете модель, которая лучше говорит “как вы”. Две популярные формы: ⚫️ Fine-tuning — полноценная настройка весов модели; ⚫️ LoRA/PEFT — «легкие адаптеры» (часто проще внедрять и откатывать, но юридически это все равно обучение на данных). ГЛАВНАЯ ОШИБКА БИЗНЕСА “Мы же не выгружаем базу клиентов целиком, мы просто дообучили модель на примерах.” Если в этих примерах есть ПДн, это все равно обработка ПДн и нужен нормальный режим легальности/безопасности. Ключевые ПДн-риски fine-tuning: 👉 Утечка через веса: модель может воспроизводить фрагменты обучающих данных при удачных запросах 👉 Трудно доказать обезличивание: “удалили ФИО” не значит обезличили (может остаться связность и косвенная идентификация) ?