Найти в Дзене

Эксперт: Утечки данных из локальных систем возможны при внедрении ИИ в медицине

Внедрение искусственного интеллекта в медицине создаeт риски утечек данных из локальных систем и оборудования клиник, которые будут объединяться для дообучения ИИ. Об этом Агентству городских новостей «Москва» сообщил учредитель и ведущий эксперт по защите персональных данных консалтинговой компании «Б-152» Максим Лагутин. «Любые большие хранилища данных, особенно на государственном уровне, кажется, всегда большой риск. Но практика многих лет на примере госуслуг и других реестров показывает, что контур защиты государственных сервисов – один из самых непоколебимых на рынке. Поэтому кажется, что именно из хранилищ утечки не будет, но для работы ИИ нужны данные из оборудования и локальных серверов медучреждений. Вот здесь как раз таки утечки реальны, есть достаточное число случаев утечек данных из оборудования и локальных серверов клиник – они будут создавать новые сервера для объединения всех данных для дообучения ИИ, и это большой риск и лакомый кусок для преступников», – сказал Лагути
Фотограф: Юлия Морозова
Фотограф: Юлия Морозова

Внедрение искусственного интеллекта в медицине создаeт риски утечек данных из локальных систем и оборудования клиник, которые будут объединяться для дообучения ИИ. Об этом Агентству городских новостей «Москва» сообщил учредитель и ведущий эксперт по защите персональных данных консалтинговой компании «Б-152» Максим Лагутин.

«Любые большие хранилища данных, особенно на государственном уровне, кажется, всегда большой риск. Но практика многих лет на примере госуслуг и других реестров показывает, что контур защиты государственных сервисов – один из самых непоколебимых на рынке. Поэтому кажется, что именно из хранилищ утечки не будет, но для работы ИИ нужны данные из оборудования и локальных серверов медучреждений. Вот здесь как раз таки утечки реальны, есть достаточное число случаев утечек данных из оборудования и локальных серверов клиник – они будут создавать новые сервера для объединения всех данных для дообучения ИИ, и это большой риск и лакомый кусок для преступников», – сказал Лагутин.

Эксперт отметил, что для минимизации рисков необходимо разработать чeткие требования к обеспечению безопасности данных, используемых для работы ИИ. «В плане защиты должны быть разработаны министерством рекомендации или даже требования к обеспечению безопасности данных, которые будут использоваться для работы ИИ, и только тогда этот риск можно действительно прикрыть. Или ввести большие штрафы за необеспечение безопасности на стороне медцентра, как это сделано в области защиты персональных данных, и очень хорошо без всяких рекомендаций замотивировало компании вкладываться в безопасность», – подчеркнул Лагутин.

Ранее СМИ сообщали, что в 2026 году в России планируется масштабное внедрение технологий искусственного интеллекта в обработку электронных медицинских карт всех россиян.

Больше новостей АГН в MAX

Больше новостей АГН в Telegram