Найти в Дзене

📢 Кибербезопасность: Как данные "утекают" в языковых моделях?


Во второй части статьи на Хабре обсуждаются угрозы безопасности, связанные с отравлением обучающих данных больших языковых моделей (Data Poisoning). В статье рассматриваются методы атаки, такие как внедрение ложных данных, что может привести к неправильной классификации и снижению точности модели. Также авторы предлагают методы визуализации графов данных, чтобы выявить уязвимые узлы.

🔗 Подробнее: [Читать на Хабре](https://habr.com/ru/companies/sberbank/articles/826202/)
📢 Кибербезопасность: Как данные "утекают" в языковых моделях?
Около минуты