Кирилл Дьяков из MWS AI рассказал РИА Новости о рисках утечки медицинских данных при использовании нейросетей, таких как ChatGPT. Под угрозой конфиденциальность пользователей из-за способности ИИ запоминать и раскрывать информацию, а также из-за возможных судебных запросов. Как сообщил РИА Новости старший юрист компании MWS AI (являющейся частью ERION и включающей нетелеком-активы МТС) Кирилл Дьяков, анализ медицинских данных с применением нейросетей может привести к их утечке. "Применение больших языковых моделей, вроде ChatGPT, предоставляющих пользователям возможность анализа медицинской информации, может привести к утечке таких данных", - отметил Дьяков. Он объяснил, что такие ИИ-сервисы способны запоминать данные пользователей, обучаться на них и впоследствии воспроизводить информацию о пользователе, включая ссылки на медицинские данные. Это может иметь последствия для защиты персональной информации. Кроме того, разработчики ИИ-моделей в некоторых случаях обязаны раскрывать данные