Искусственно сгенерированные рентгеновские изображения уже достигли такого уровня правдоподобия, что их распознавание вызывает затруднения не только у алгоритмов, но и у врачей-рентгенологов. К такому выводу пришли исследователи из Больницы Маунт-Синай (Mount Sinai Hospital). Авторы показали, что синтетические рентгенограммы могут быть весьма убедительными даже для специалистов, профессионально работающих с медицинскими изображениями. Работа опубликована в журнале Radiology.
Методы исследования
Авторы провели ретроспективное исследование с участием 17 рентгенологов из 12 центров в шести странах — США, Франции, Германии, Турции, Великобритании и Объединённых Арабских Эмиратах. Профессиональный стаж участников варьировал от начального уровня до 40 лет практики. Всего было проанализировано 264 рентгеновских снимка: 132 подлинных и 132 синтетических. В одном наборе использовались изображения разных анатомических областей, часть из которых была создана GPT-4o; во втором наборе оценивались рентгенограммы органов грудной клетки, половина которых была сгенерирована моделью RoentGen, разработанной в Стэнфордской медицине.
Отдельно исследователи сравнили результаты врачей с возможностями мультимодальных больших языковых моделей. В анализ включили GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick, чтобы оценить, насколько хорошо сами ИИ-системы способны отличать синтетические медицинские изображения от реальных.
Результаты исследования
Когда рентгенологи изначально не знали, что в выборке присутствуют искусственно созданные изображения, лишь 41% участников спонтанно заподозрили наличие синтетических рентгенограмм. После того как им сообщили о присутствии подделок, средняя точность различения подлинных и синтетических изображений в наборе GPT-4o составила 75%. Для набора RoentGen показатели рентгенологов находились в диапазоне от 62% до 78%.
Схожие ограничения продемонстрировали и ИИ-модели. Для изображений, созданных GPT-4o, их точность колебалась от 57% до 85%, а для снимков, сгенерированных RoentGen, — от 52% до 89%. При этом даже GPT-4o, использованная для генерации части синтетических изображений, не смогла безошибочно распознать все такие рентгенограммы.
Связи между длительностью профессионального стажа и успешностью распознавания синтетических изображений исследователи не выявили. В то же время специалисты по костно-мышечной радиологии в среднем справлялись с задачей лучше, чем представители других рентгенологических субспециальностей. Это наблюдение выглядит особенно важным: опыт сам по себе, как оказалось, не гарантирует защиты от подобных ошибок.
Какие особенности чаще встречались у синтетических изображений
По словам ведущего автора исследования, Микаэля Торджмана (Mickael Tordjman), научного сотрудника Больницы Маунт-Синай (Mount Sinai Hospital), искусственно созданные рентгенограммы нередко выглядят «слишком правильными». Для них были характерны чрезмерно гладкие костные контуры, неестественно прямой позвоночный столб, чрезмерная симметрия лёгочных полей, слишком однотипный сосудистый рисунок и подозрительно «аккуратные» линии переломов. Именно такая избыточная правильность, а не грубые дефекты, может становиться одним из косвенных признаков синтетического происхождения снимка.
Почему это важно для клинической практики
Авторы подчёркивают, что речь идёт не о сугубо теоретической проблеме. Синтетические рентгенограммы могут использоваться в мошеннических судебных разбирательствах, страховых спорах и, что особенно серьёзно, при кибератаках на медицинские информационные системы. Если такие изображения будут внедрены в цифровую медицинскую документацию, это способно повлиять на диагностику и подорвать доверие к самим данным лучевых исследований.
В качестве возможных мер защиты исследователи предлагают внедрение невидимых цифровых водяных знаков и криптографических подписей, связанных с моментом получения изображения и конкретным специалистом, выполнявшим исследование. По сути, речь идёт о необходимости не только интерпретировать снимок, но и подтверждать его подлинность как цифрового объекта.
Заключение
Работа показывает, что проблема синтетических медицинских изображений уже вышла за пределы футуристических сценариев. Если сегодня такие трудности возникают при анализе обычных рентгенограмм, то следующим этапом, как считают авторы, могут стать искусственно созданные трёхмерные изображения — КТ и МРТ. Поэтому обучение специалистов, создание эталонных наборов данных и разработка инструментов верификации подлинности медицинских изображений становятся не дополнительной опцией, а частью будущей безопасности лучевой диагностики.
Авторы другого исследования показали, что МРТ с использованием искусственного интеллекта демонстрирует потенциал для выявления аномалий в работе мозга, однако новая работа напоминает: чем шире ИИ используется в медицинской визуализации, тем важнее становится контроль подлинности каждого цифрового изображения.
Литература
Tordjman M., Yuce M., Ammar A. et al. The Rise of Deepfake Medical Imaging: Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs // Radiology. 2026. Vol. 318, № 3. Art. e252094. DOI: 10.1148/radiol.252094.