Найти тему
РБК Тренды

Медицинские дипфейки: от мошенничества до инноваций

Оглавление

«РБК Тренды» рассказывают, как, добросовестно и не очень, можно использовать технологию дипфейков в медицинской сфере

   Freepik
Freepik

О дипфейках активно заговорили в конце 2017 года, когда в интернете стали появляться поддельные видео с мировыми знаменитостями — в оригиналах видеозаписей звезды не снимались, их лица были добавлены в ролики с помощью искусственного интеллекта. Однако со временем дипфейки вышли за рамки индустрии развлечений — поддельные изображения, видео, аудио стали делать с самыми разными людьми и объектами.

Развлечение или угроза

Дипфейки начали использоваться не только для развлечения, но и для мошенничества, дезинформации, политических манипуляций и кибербуллинга. Технология создания дипфейков, основанная на нейросетях и алгоритмах машинного обучения, позволяет имитировать действия и речь людей с высокой степенью реалистичности.

Постепенно дипфейки стали угрозой даже для судов, страховых компаний, исследовательских институтов, в которых подлинность доказательств и источников особенно важна. Так что же мешает дипфейкам проникнуть в другие сферы, включая медицину? Ничего. С помощью искусственного интеллекта можно создавать дипфейки на медицинскую тематику, например, статистические данные пациентов, медицинские снимки (КТ, МРТ, рентгеновские изображения), видео с врачами, научные публикации и исследования. Это может быть полезно для развития медицины и науки, но несет серьезные риски, если использовать дипфейки со злым умыслом.

ИИ и его возможности в создании дипфейков произвели революцию в различных областях, включая медицину. Дипфейки, основанные на ИИ, позволяют создавать поддельные, но реалистичные изображения, видео и аудиозаписи, которые могут включать медицинские данные пациентов, такие как статистические отчеты, результаты компьютерной томографии (КТ), магнитно-резонансной томографии (МРТ) и рентгеновские снимки. Эти технологии также позволяют моделировать видео с участием врачей, а также подделывать научные публикации и исследования.

Что если злоумышленники начнут создавать дипфейковые снимки с травмами, чтобы получать больничные или страховые выплаты? Или биотехнологические компании с амбициями Theranos (американский стартап, продвигавший поддельную технологию анализа крови) смогут использовать дипфейковые изображения для фальсификации данных с целью привлечения венчурного финансирования? Или фальшивки будут использовать для популяризации непроверенной медицинской информации или продажи нелицензированных лекарств? Это становится реальностью прямо сейчас.

(Дип) фейковые врачи

Хилари Джонс, британский врач и популярный медицинский эксперт, стал жертвой дипфейка. Джонс стал известен благодаря своему многолетнему опыту работы на телевидении, где он давал советы насчет здоровья, разъяснял медицинские термины и развеивал страхи по поводу различных заболеваний. Он приобрел большую репутацию и доверие публики.

В одной из социальных сетей появился рекламный ролик, в котором якобы Джонс рекламировал новый чудо-препарат, утверждая, что он способен эффективно бороться с несколькими серьезными заболеваниями одновременно. Этот ролик выглядел настолько убедительно, что многие поверили в подлинность информации и стали интересоваться препаратом, а также делиться этим видео с другими.

Однако, как выяснилось позже, видео было создано с помощью технологии дипфейк. Это значит, что Джонс не только не снимал этот ролик, но и не имел никакого отношения к рекламируемому препарату. Технология использует алгоритмы ИИ для синтеза реальных человеческих лиц и голосов, создавая очень правдоподобные фальшивые видеоматериалы. Создатели такого контента могут манипулировать изображением и звуком, чтобы создать иллюзию, что человек говорит или делает что-то, чего на самом деле он не делал.

Это происшествие привлекло внимание общественности и вызвало обеспокоенность по поводу возможного вреда от дезинформации в медицинской области. Но использование дипфейков в медицине не ограничивается созданием видео с докторами — использование GAN (генеративных нейросетей наподобие Midjourney, Dall-E и пр.) позволяет создавать даже медицинские снимки.

Поддельные медицинские изображения и данные

В исследовании 2019 года, проведенном в Израиле, эксперты в области кибербезопасности и медицинских наук создали несколько дипфейк КТ-сканов, чтобы продемонстрировать возможность добавления или удаления опухолей из изображений. Эти подделки вводили в заблуждение рентгенологов, заставляя их поверить в подлинность снимков. В ходе исследования рентгенологи, не зная об изменениях, диагностировали 99% КТ-сканов с добавленными опухолями как злокачественные, а 94% КТ-сканов с удаленными опухолями — как снимки здоровых пациентов. Даже после того, как им сообщили о возможности редактирования изображений, они неправильно диагностировали 60% добавленных опухолей и 87% удаленных.

В аналогичном исследовании 2021 года ученые смогли создать реалистичные и убедительные подделки электрокардиограмм. Даже наш самый распространенный инструмент для записи сердцебиения может быть легко фальсифицирован.

nature.com📷Сравнение примеров реальной ЭКГ (слева) и DeepFake ЭКГ (справа)
nature.com📷Сравнение примеров реальной ЭКГ (слева) и DeepFake ЭКГ (справа)

Согласно данным American Journal of Managed Care, на больницы приходится треть всех крупных утечек данных у поставщиков медицинских услуг в США. Хотя многие из этих атак все еще используют фишинг или другие виды мошенничества с электронными письмами для проникновения в систему, все чаще применяются более сложные схемы. Наивно полагать, что дипфейки не станут частью следующего поколения кибератак в медицине, будь то больницы, компании медицинских технологий или государственные департаменты здравоохранения.

Однако, несмотря на все потенциальные угрозы, использование дипфейков в медицине и науке открывает перед исследователями и медицинскими работниками новые горизонты.

Например, поддельные данные могут использоваться для обучения и тренировки медицинского персонала без риска для реальных пациентов, что способствует повышению уровня профессиональной подготовки. Технология Deepfake может использоваться не только для клинических изображений.

В исследовании, опубликованном в Journal of Internet Medical Research учеными из Тайбэйского медицинского университета, система распознавания эмоций, обученная на более чем 28 тыс. азиатских лицах, была использована для создания видеороликов с трансформацией черт лица 327 реальных пациентов. Эти видеоролики предназначены для повышения эмпатии врачей и защиты конфиденциальности пациентов. Система напоминала медикам о необходимости изменить свое поведение в соответствии с эмоциями пациентов. В целом, система достигла уровня обнаружения эмоций более 80% на реальных данных.

jmir.org📷Подмена лиц пациентов на дипфейк
jmir.org📷Подмена лиц пациентов на дипфейк

Также возможно создание симуляций редких или сложных клинических случаев, что помогает медикам лучше подготовиться к реальной практике. Например, обучение цифровой системы распознавать опухоли на изображениях может быть затруднено из-за того, что такие аномалии встречаются редко по сравнению с нормальными образцами. Небольшое количество примеров с опухолями может привести к низкой точности алгоритма ИИ.

Используя синтетические изображения вместе с настоящими в генеративно-состязательных сетях (GAN), можно значительно улучшить точность системы, как показали исследователи из клиники Майо и Центра клинических данных MGH & BWH. В статье авторы рассказали, как использовали нейросети для создания синтетических изображений МРТ мозга с опухолями.

NVIDIA Corporation, MGH & BWH Center for Clinical Data Science, Mayo Clinic📷Примеры сгенерированных изображений. В первом ряду представлены исходные (реальные) изображения, на основе которых были созданы синтетические данные — все остальные снимки
NVIDIA Corporation, MGH & BWH Center for Clinical Data Science, Mayo Clinic📷Примеры сгенерированных изображений. В первом ряду представлены исходные (реальные) изображения, на основе которых были созданы синтетические данные — все остальные снимки

Другая статья показывает, как нейросети могут создавать реалистичные изображения поражений кожи, которые дерматологам трудно отличить от настоящих фотографий.

Computer Aided Medical Procedures, Johns Hopkins University📷Изображения, сгенерированные разными нейросетями
Computer Aided Medical Procedures, Johns Hopkins University📷Изображения, сгенерированные разными нейросетями

Еще одно недавнее исследование рассматривает искусственный интеллект как инструмент для создания примеров поражений печени.

IEEE📷Дипфейковые изображения различных заболеваний печени
IEEE📷Дипфейковые изображения различных заболеваний печени

Дипфейки представляют собой технологию с огромным потенциалом, которая может как улучшить различные аспекты нашей жизни, так и создать серьезные угрозы. В медицине использование дипфейков открывает новые возможности для обучения, исследований и повышения точности диагностических алгоритмов. Однако риски, связанные с фальсификацией медицинских данных, страховыми мошенничествами и кибератаками, требуют пристального внимания и разработки эффективных мер защиты. Например, цифровых водяных знаков, которые позволят однозначно идентифицировать дипфейковый контент.