Использование искусственного интеллекта для анализа медицинских данных может обернуться их утечкой. Об этом заявил старший юрист MWS AI (входит в ERION, объединяющую нетелеком-активы МТС) Кирилл Дьяков в беседе с РИА «Новости». «Использование больших языковых моделей, таких как ChatGPT, которые предлагают пользователям возможность анализа медицинской информации, может привести к утечке таких данных», — сказал он. По словам специалиста, крупные ИИ-сервисы могут сохранять персональные сведения, обучаться на их основе и потом генерировать информацию о человеке, ссылаясь на медицинские данные. Это может раскрыть личность. Также разработчики ИИ-моделей в определенных ситуациях должны предоставлять данные клиентов по судебному запросу, что создает дополнительные угрозы для приватности. Помимо этого, неспециализированные модели могут давать ошибочные ответы на некорректно сформулированные запросы пользователей. Дьяков отметил, что наиболее подходящим вариантом будет загрузка информации с удал
Юрист Дьяков: анализ медицинских данных через нейросеть приведет к их утечке
19 января19 янв
9
1 мин