Использование искусственного интеллекта в сфере здравоохранения вызывает все больше вопросов с точки зрения безопасности персональных данных. Старший юрист компании MWS AI Кирилл Дьяков в беседе с РИА Новости предупредил о серьезных рисках, связанных с загрузкой медицинских сведений в общедоступные нейросети. По словам специалиста, популярные большие языковые модели — такие как ChatGPT — несут потенциальную угрозу конфиденциальности. Эти сервисы способны сохранять пользовательские данные, использовать их для дальнейшего обучения и впоследствии воспроизводить информацию, включая чувствительные медицинские сведения. Подобная утечка может привести к компрометации личности: злоумышленники получат доступ к диагнозам, анализам и другой приватной информации, способной нанести серьезный репутационный и даже финансовый ущерб. Дьяков обратил внимание и на юридический аспект проблемы. В ряде случаев разработчики ИИ‑моделей обязаны предоставлять данные пользователей по решению суда. Это создает до
Опасности делегирования: эксперты предостерегают от передачи личных данных нейросетям
19 января19 янв
1 мин