Добавить в корзинуПозвонить
Найти в Дзене
Точка зрения

ИИ уже ставит диагнозы в российских больницах — насколько это безопасно

Пока вы ждёте результатов флюорографии, алгоритм уже мог их проанализировать. Пока врач листает вашу карту, система поддержки решений уже выдала вероятный диагноз. В 84 из 89 регионов России это происходит прямо сейчас — не в экспериментальных лабораториях, а в обычных поликлиниках и больницах. К январю 2025 года внедрение медицинских изделий с технологиями искусственного интеллекта начали 84 субъекта России из 89. На 1 января 2025 года в России было зарегистрировано 39 медицинских изделий с ИИ, благодаря чему суммарно было реализовано 412 региональных проектов внедрения, 83% из которых приходится на анализ изображений, 16% — на анализ электронных медицинских карт. Это не пилотный проект — это уже система. И у неё есть реальные результаты, реальные ограничения и один принципиальный вопрос, на который российское законодательство пока не ответило: что происходит, когда алгоритм ошибается? Важно понять: речь не о роботе-враче, который сидит у кровати и назначает лечение. Речь о конкретных
Оглавление

Пока вы ждёте результатов флюорографии, алгоритм уже мог их проанализировать. Пока врач листает вашу карту, система поддержки решений уже выдала вероятный диагноз. В 84 из 89 регионов России это происходит прямо сейчас — не в экспериментальных лабораториях, а в обычных поликлиниках и больницах.

К январю 2025 года внедрение медицинских изделий с технологиями искусственного интеллекта начали 84 субъекта России из 89. На 1 января 2025 года в России было зарегистрировано 39 медицинских изделий с ИИ, благодаря чему суммарно было реализовано 412 региональных проектов внедрения, 83% из которых приходится на анализ изображений, 16% — на анализ электронных медицинских карт.

Это не пилотный проект — это уже система. И у неё есть реальные результаты, реальные ограничения и один принципиальный вопрос, на который российское законодательство пока не ответило: что происходит, когда алгоритм ошибается?

Что ИИ уже делает в российских больницах

Важно понять: речь не о роботе-враче, который сидит у кровати и назначает лечение. Речь о конкретных инструментах, встроенных в рабочий процесс врача.

Главное направление — анализ медицинских изображений. Медицинские ИИ-системы в России показывают точность распознавания патологий на снимках до 91% по данным НМИЦ радиологии Минздрава РФ за август 2024 года. В больнице имени Боткина ИИ сократил время диагностики с 40 до 10 минут.

В радиологии и дерматологии ИИ достиг точности, сопоставимой с врачами-специалистами. Алгоритмы компьютерного зрения анализируют рентгеновские снимки, МРТ и КТ с точностью до 94%, помогая находить аномалии, которые экономят время на интерпретации результатов.

Конкретный пример — маммография. В Тамбовском областном онкологическом клиническом диспансере ещё на стадии пилотирования решения «Цельс» для маммографии в рамках клинического исследования из более чем 4,8 тысячи снимков система выявила случаи, пропущенные при первичном осмотре.

Второе крупное направление — системы поддержки врачебных решений. Не диагноз напрямую, а подсказка: «у пациента с таким набором симптомов и такими анализами высокая вероятность этого заболевания». Лидер российского рынка медицинского ИИ по итогам 2025 года — карельская компания «К-Скай» с платформой Webiomed, специализирующейся именно на системах поддержки врачебных решений с выручкой 142,4 млн рублей.

Третье направление — рутинная автоматизация. Голосовые боты для заполнения медицинских карт, роботы-операторы для записи на приём — всё это снимает с врача административную нагрузку и позволяет сосредоточиться на пациенте. Московские клиники сети «Медскан» пошли дальше: они начали пользоваться ИИ-агентами, которые разъясняют пациентам результаты анализов на понятном языке.

Деньги и масштаб: что вложено и сколько получено

Масштаб инвестиций впечатляет — но и разрыв между ожиданиями и результатами тоже.

За 2018–2024 годы в создание и развитие различных ИИ-продуктов для здравоохранения было инвестировано 4 миллиарда 712 миллионов рублей, из которых 69% обеспечило государство. Самым крупным инвестором оказалось правительство Москвы: на проведение московского эксперимента по компьютерному зрению в 2020–2024 годах город выделил 1,8 миллиарда рублей.

При этом реальный рынок пока значительно скромнее прогнозов. Весь рынок медицинского ИИ в 2025 году оценён в 1,5 миллиарда рублей при потенциале в 15 миллиардов. Forbes изучил причины десятикратного разрыва ожидаемых и реальных результатов: основная — низкий платёжеспособный спрос, в том числе из-за непонимания плательщиками эффектов от внедрения таких устройств, а также неготовность организаторов здравоохранения и врачей.

Опросы показали, что 89% медицинских руководителей и 85% врачей согласны с утверждением, что внедрение технологий ИИ положительно скажется на эффективности работы. Врачи в целом — за. Но разрыв между «за» в опросе и реальным ежедневным использованием остаётся огромным.

Точность: что значат цифры на практике

91–94% точности распознавания патологий — это впечатляет. Но что скрывается за оставшимися 6–9%?

Если ИИ анализирует 1000 снимков в день с точностью 91% — это 90 ошибок. Часть из них — ложноположительные: система нашла патологию, которой нет. Часть — ложноотрицательные: пропустила то, что есть. В онкологии ложноотрицательный результат — это пропущенный рак.

ИИ способен обнаруживать тонкие изменения в тканях, которые могут быть пропущены человеческим глазом, что критически важно для раннего выявления заболеваний. Это реальное преимущество: усталый радиолог в конце смены, просматривающий сотый снимок, пропустит то, что алгоритм заметит. Но алгоритм, в свою очередь, может ошибиться на нетипичном случае — на редком варианте заболевания, которого в обучающей выборке было мало.

Именно поэтому ИИ в медицине нигде в мире не работает как автономный диагност. Он работает как второе мнение, как система флагов — «обратите внимание на этот участок снимка». Финальное решение остаётся за врачом. Нейросети берут на себя рутину и предоставляют дополнительную информацию, но финальное решение всегда остаётся за человеком.

На практике это означает: если врач принял неправильное решение, опираясь на ошибочный вывод алгоритма — кто несёт ответственность?

Главный вопрос: кто виноват, если ИИ ошибся

Это самая острая точка всей темы — и именно здесь российское регулирование пока не успело за технологией.

В России на 2025 год отсутствует специализированное законодательство, регулирующее использование ИИ в медицине. Неясно, кто несёт ответственность за ошибки, связанные с работой ИИ: разработчики, медицинские учреждения или сами врачи. Такая правовая неопределённость может негативно сказаться на развитии и применении ИИ в медицинской практике.

Врач рассматривается в качестве «последнего рубежа» защиты пациента, и его профессиональной обязанностью является критическая оценка выводов, предлагаемых алгоритмом. Разработчик и производитель программного обеспечения несут обязательства, если продукт оказывается неисправным, небезопасным или имеет скрытые дефекты.

В ситуациях, когда алгоритм не объясняет логику своих выводов в понятной человеку форме, доказать наличие в нём дефекта становится сложной задачей. Законодатели и регуляторы пытаются нивелировать данный дисбаланс, вводя специальные правила доказывания в пользу пострадавших пациентов и законодательную обязанность поставщика раскрывать ключевые ограничения модели.

Проблема в том, что большинство современных ИИ-систем — «чёрные ящики»: они дают ответ, но не объясняют, почему. Рентген проанализирован, патология не выявлена. Но какой именно участок снимка алгоритм счёл нормальным? По какому признаку? Это часто непрозрачно даже для разработчиков.

Что сделано для безопасности — и чего ещё не хватает

Регуляторная система в России строится, но с отставанием от темпов внедрения.

В 2024 году Минздравом при активном участии главных внештатных специалистов разработан отраслевой Кодекс этики применения искусственного интеллекта в сфере охраны здоровья. Этот документ устанавливает этические принципы, обязательные рекомендации на всех этапах жизненного цикла медицинских систем ИИ — от планирования и проектирования до экспертизы и эксплуатации.

Росздравнадзор обязал разработчиков медицинского ИИ сообщать обо всех сбоях и ошибках в работе их продуктов — разработчиков медицинских ИИ-устройств обязали передавать данные об их работе в Росздравнадзор в автоматическом режиме. Это важный шаг: появляется система мониторинга реальных ошибок в реальных условиях.

Разработан и утверждён 21 национальный и предварительный технический стандарт. Подведомственные научные центры Минздрава реализуют 215 исследовательских проектов в данной сфере.

Но ВОЗ в ноябре 2025 года зафиксировала системную проблему, которая касается не только России. В странах Европейского региона ВОЗ стремительное внедрение ИИ в здравоохранении происходит на фоне отсутствия элементарных правовых механизмов, защищающих пациентов и медицинских работников. «Мы стоим на распутье, — отметила директор отдела систем здравоохранения в ЕРБ ВОЗ д-р Натаща Аззопарди Мускат. — ИИ может как использоваться в интересах здоровья и благополучия людей, чтобы облегчить нагрузку на наших измученных медработников и сократить расходы на здравоохранение, так и поставить под угрозу безопасность пациентов».

ЕРБ ВОЗ призывает страны чётко определить ответственность, создать механизмы возмещения ущерба и обеспечить, чтобы системы ИИ в реальных условиях тестировались на предмет безопасности, справедливости и эффективности, прежде чем они станут доступны для пациентов.

Проблема данных: чему учился алгоритм

Качество медицинского ИИ целиком определяется данными, на которых он обучен. И здесь скрыта системная уязвимость.

Роскомнадзор фиксирует утечки медицинских данных в миллионах записей, а целями злоумышленников становятся базы с анализами, снимками и личными данными пациентов. Но это только видимая часть проблемы безопасности данных. Другая, менее обсуждаемая — смещение в обучающих выборках.

Если алгоритм обучался преимущественно на снимках московских пациентов — он хуже работает на снимках пациентов из регионов с другой эпидемиологической картиной. Если в обучающей выборке было мало пожилых пациентов — система хуже справляется с их случаями. Если данные собирались в крупных клиниках — алгоритм хуже адаптирован к снимкам с устаревшим оборудованием в районных больницах.

Отечественный рынок ИИ в медицине составляет менее 1% от мирового при среднегодовом темпе роста в 20%. Это означает, что значительная часть алгоритмов разработана на зарубежных данных — и их применимость к российской популяции требует отдельной валидации.

Разрыв между технологией и реальностью: барьеры, которые не видны

Основная причина, по которой рынок пока не может достичь объёма 15 миллиардов рублей, — это низкий платёжеспособный спрос, в том числе из-за непонимания плательщиками эффектов от внедрения таких устройств, а также неготовность организаторов здравоохранения и врачей.

«Неготовность врачей» — это не консерватизм и не страх нового. Это рациональная реакция на неопределённость. Врач, который принял решение на основании подсказки алгоритма и ошибся, несёт юридическую ответственность. Врач, который проигнорировал подсказку алгоритма и оказался прав, — тоже может оказаться в зоне риска. При отсутствии чёткого правового регулирования любой выбор создаёт риск.

К тому же медицинские нейросети требуют не только технологических знаний, но и глубокого понимания отраслевой специфики. Часто возникает сопротивление со стороны персонала — что вполне естественно при любых изменениях.

Добавьте к этому дефицит врачей — особенно в регионах — и картина становится понятной: технология опережает инфраструктуру, которая должна её поддерживать. В Москве есть специалисты, которые могут контролировать работу алгоритма и критически оценивать его выводы. В районной больнице на 40 000 человек — не всегда.

Что это означает для пациента

Если вас обследуют в московской клинике с современным оборудованием — вы, скорее всего, уже сталкивались с ИИ-диагностикой, просто не знали об этом. Ваш снимок мог быть предварительно проанализирован алгоритмом, который отметил подозрительные зоны для последующей проверки врачом.

Это не страшно — это полезно. Алгоритм не устаёт, не отвлекается, не спешит домой. Он проанализирует тысячный снимок с той же тщательностью, что и первый.

Но у вас как у пациента есть право знать: использовались ли при вашей диагностике системы с ИИ? Какие именно? Как врач учитывал или перепроверял их выводы? Пока эти вопросы остаются в правовой серой зоне — ни обязанности информировать пациента, ни стандартного порядка документирования работы алгоритма в истории болезни не существует.

Российское регулирование развивается в русле общемирового тренда. В 2025 году в стране был утверждён Кодекс этики применения искусственного интеллекта в сфере охраны здоровья, согласующийся с подходами ВОЗ. Акцент сделан на безопасности пациентов, объяснимости принимаемых алгоритмом решений и защите прав человека. Это правильное направление. Но между этическим кодексом и работающим механизмом защиты пациента — дистанция, которую ещё предстоит пройти.

Итог: технология работает — регулирование догоняет

ИИ в российской медицине — не будущее и не эксперимент. Это настоящее, охватившее почти все регионы страны. Результаты реальные: снимки анализируются быстрее, патологии обнаруживаются раньше, нагрузка на врачей снижается.

Безопасность обеспечивается двумя уровнями: технологическим — точностью алгоритма, и человеческим — врачом, который остаётся ответственным за финальное решение. Этот принцип правильный. Но его реализация требует, чтобы врач действительно понимал возможности и ограничения конкретного инструмента — а не просто нажимал «принять» на подсказку системы.

Главный дефицит сегодня — не технологический, а правовой и организационный. Пока нет чёткого ответа на вопрос об ответственности за ошибку алгоритма, пока данные не защищены достаточно надёжно, пока алгоритмы не объясняют логику своих выводов — доверие к системе будет расти медленнее, чем сама система.

А вы доверили бы свою жизнь и здоровье искуственному интеллекту?

Источники

Мурашко М.А. и др. «Внедрение технологий искусственного интеллекта в здравоохранении России: итоги 2024 г.», Национальное здравоохранение, 2025; 6(3): 6–19 (doi: 10.47093/2713-069X.2025.6.3.6-19): 412 региональных проектов, 39 зарегистрированных МИ с ИИ, 4,7 млрд инвестиций, 84 субъекта, Кодекс этики 2024

Digital Russia (d-russia.ru) — «Итоги внедрения ИИ в здравоохранение за 2019–2024 годы», ноябрь 2025: 68 субъектов на платформе МосМедИИ, 87% отечественных разработок, данные опроса врачей

Forbes Healthcare — «Вспомогательный механизм: первый рейтинг ИИ-решений для медицины», декабрь 2025: рейтинг «ЗдравАИ 2025», объём рынка 1,5 млрд при потенциале 15 млрд, анализ десятикратного разрыва

Forbes Healthcare — «Дорого и сложно: что тормозит внедрение ИИ в медицину», июнь 2025: барьеры внедрения, 75 проектов Сколково, рост 35% в год, конкурс MIDRC XAI

РБК — «Как искусственный интеллект помогает решить задачи здравоохранения», октябрь 2024: Тамбовский онкодиспансер, маммография 4800+ снимков, система «Третье мнение»

Flexitech.ai — «Искусственный интеллект в медицине в 2025»: точность до 91% по данным НМИЦ радиологии, больница Боткина −30 минут диагностики

Sber Developers — «ИИ в медицине: от диагностики до персональной терапии»: 94% точность МРТ/КТ, рынок ИИ в медицине 12 млрд → 78 млрд к 2030, дерматология и радиология как лидеры

РБК Компании — «Ответственность за ошибки ИИ в здравоохранении: кто виноват и что делать», октябрь 2025: врач как «последний рубеж», ответственность разработчика, проблема «чёрного ящика», Кодекс этики и ВОЗ

КиберЛенинка — «Правовые риски искусственного интеллекта в медицине: пробелы регулирования и перспективы ответственности», 2025: отсутствие специального законодательства, неопределённость ответственности, сравнительно-правовой анализ Россия — ЕС — США

ВОЗ (ЕВРО) — «Безопасны ли инструменты на базе ИИ, которые использует ваш врач?», 19 ноября 2025: доклад ЕРБ ВОЗ, 64% стран ЕРБ используют ИИ в диагностике, призыв к правовым механизмам защиты пациентов