В Минобрнауки рассказали о новой ИИ, защищенной от атак с отравлением данных. АНАСТАСИЯ ЖИГИНА Специалисты НИЯУ МИФИ разработали нейросеть MambaShield, защищённую от атак отравлением данных. Её можно использовать на серверах, в банках, медицине и промышленности. Об этом сообщили в пресс-службе Минобрнауки. Большинство современных ИИ-моделей, включая те, что лежат в основе ChatGPT, уязвимы перед атаками отравления. Если злоумышленник добавит в обучающие данные вредоносные образцы, логика работы модели изменится. Это позволяет украсть деньги, получить секретную информацию или навредить скрыто, так как внешне ИИ продолжает работать нормально. В МИФИ объясняют: "MambaShield - это фундамент для доверенного искусственного интеллекта. Его можно ставить на атомные станции, в финансовые и медицинские организации, не боясь, что одна хитрая картинка или пакет данных испортит всю модель". Учёные использовали архитектуру селективных моделей в пространстве состояний (sSSM). Они способны адаптировать