📢 Кибербезопасность: Как данные "утекают" в языковых моделях?
Во второй части статьи на Хабре обсуждаются угрозы безопасности, связанные с отравлением обучающих данных больших языковых моделей (Data Poisoning). В статье рассматриваются методы атаки, такие как внедрение ложных данных, что может привести к неправильной классификации и снижению точности модели. Также авторы предлагают методы визуализации графов данных, чтобы выявить уязвимые узлы.
Около минуты
18 сентября 2024