Найти в Дзене

Кто виноват? ИИ усложняет определение ответственных за медицинские ошибки

Нейросеть не контролируются регулирующими органами власти. Использование искусственного интеллекта (ИИ) в здравоохранении может вызвать серьезные юридические сложности, предупреждают эксперты. По данным Journal of the American Medical Association, проблема заключается в установлении ответственности при врачебных ошибках, если они связаны с алгоритмами ИИ. Об этом сообщает The Guardian. Разработка инструментов ИИ для медицины идет быстрыми темпами: создаются системы для интерпретации медицинских сканирований, постановки диагнозов, а также для управления больницами — от оптимизации коек до решения проблем с цепочками поставок. Несмотря на потенциальную пользу технологий, специалисты отмечают, что есть значительные риски. «Определенно будут случаи, когда возникнет ощущение, что что-то пошло не так, и люди начнут искать виноватых», — отметит профессор Дерек Ангус из Питтсбургского университета отметил. Профессор Гленн Коэн из Гарварда добавил, что пациентам может быть трудно выявить недост

Нейросеть не контролируются регулирующими органами власти.

   Фото: © РИА Новости/Алексей Майшев
Фото: © РИА Новости/Алексей Майшев

Использование искусственного интеллекта (ИИ) в здравоохранении может вызвать серьезные юридические сложности, предупреждают эксперты. По данным Journal of the American Medical Association, проблема заключается в установлении ответственности при врачебных ошибках, если они связаны с алгоритмами ИИ. Об этом сообщает The Guardian.

Разработка инструментов ИИ для медицины идет быстрыми темпами: создаются системы для интерпретации медицинских сканирований, постановки диагнозов, а также для управления больницами — от оптимизации коек до решения проблем с цепочками поставок. Несмотря на потенциальную пользу технологий, специалисты отмечают, что есть значительные риски.

«Определенно будут случаи, когда возникнет ощущение, что что-то пошло не так, и люди начнут искать виноватых», — отметит профессор Дерек Ангус из Питтсбургского университета отметил.

Профессор Гленн Коэн из Гарварда добавил, что пациентам может быть трудно выявить недостатки в работе ИИ, особенно из-за сложности понимания внутренних алгоритмов и возможности доказать, что плохой результат связан именно с системой.

По словам профессора Мишель Мелло из Стэнфорда, суды хорошо подготовлены для решения юридических вопросов, но на это требуется время, а неопределенность увеличивает издержки для всех участников экосистемы.

В отчете также подчеркивается, что многие инструменты ИИ не контролируются регулирующими органами власти, и их эффективность в клинической практике остается трудоемкой для оценки.

Эксперты призывают к финансированию надлежащей оценки ИИ и развитию цифровой инфраструктуры, чтобы технологии приносили пользу, а юридические риски оставались под контролем.

Еще больше новостей — у Пятого канала в мессенджере MAX.

Д
Диана Кулманакова