Анализ медицинских данных с помощью нейросети может привести к их утечке, рассказал РИА Новости старший юрист MWS AI (входит в ERION, объединяющую нетелеком-активы МТС) Кирилл Дьяков. "Использование больших языковых моделей, таких как ChatGPT, которые предлагают пользователям возможность анализа медицинской информации, может привести к утечке таких данных", - сказал Дьяков. Он объяснил, что такие ИИ-сервисы способны запоминать пользовательские данные, обучаться на них и в дальнейшем воспроизводить информацию о пользователе, в том числе ссылаясь на медицинские данные. Это может привести к компрометации личности. Кроме того, создатели ИИ-моделей обязаны в ряде случаев раскрывать данные пользователей по решению суда, и это создает дополнительные риски для конфиденциальности. Помимо прочего, неспециализированные модели при некорректно сформулированных запросах могут допускать ошибки в ответах, добавил Дьяков. "Оптимальным решением является либо загрузка в нейросети обезличенных данных (усл
Эксперт рассказал, почему не стоит делиться медицинскими данными с ИИ
19 января19 янв
87
1 мин