Работая над своей диссертацией по компьютерным наукам в Массачусетском технологическом институте, Марзие Гассеми написала несколько статей о том, как методы машинного обучения искусственного интеллекта можно применять к клиническим данным для прогнозирования результатов лечения пациентов. «Только в конце моей докторской работы один из членов моего комитета спросил: «Вы когда-нибудь проверяли, насколько хорошо ваша модель работает с разными группами людей?»
Этот вопрос открыл глаза Гассеми, который ранее оценивал эффективность моделей в совокупности для всех пациентов. Присмотревшись повнимательнее, она увидела, что модели часто работают по-разному — особенно хуже — для населения, включая чернокожих женщин, и это открытие застало ее врасплох. «Я заранее не установила связь с тем, что различия в состоянии здоровья приведут непосредственно к модельным различиям», — говорит она. «И учитывая, что я являюсь ученым-компьютерщиком из Массачусетского технологического института, который идентифицирует женщин из меньшинства, я вполне уверен, что многие другие тоже не знали об этом».
В статье, опубликованной 14 января в журнале Patterns, Гассеми, получившая докторскую степень в 2017 году и в настоящее время являющаяся доцентом кафедры электротехники и компьютерных наук и Института медицинской инженерии и науки Массачусетского технологического института (IMES), и ее соавтор, Элейн Оканьене Нсози из Бостонского университета, предостерегает о перспективах использования ИИ в медицине. «При осторожном использовании эта технология может повысить эффективность здравоохранения и потенциально уменьшить неравенство», — говорит Гассеми. «Но если мы не будем на самом деле осторожны, технологии могут ухудшить уход».
Все сводится к данным, учитывая, что рассматриваемые инструменты ИИ обучаются, обрабатывая и анализируя огромные объемы данных. Но данные, которые им предоставляются, производятся людьми, которые подвержены ошибкам и чьи суждения могут быть омрачены тем фактом, что они по-разному взаимодействуют с пациентами в зависимости от их возраста, пола и расы, даже не подозревая об этом.
Кроме того, по-прежнему существует большая неопределенность в отношении самих заболеваний. «Врачи, обучавшиеся в одном и том же медицинском институте в течение 10 лет, могут и часто расходятся во мнениях относительно диагноза пациента», — говорит Гассеми. Это отличается от приложений, в которых преуспевают существующие алгоритмы машинного обучения — например, задачи распознавания объектов — потому что практически все в мире согласятся, что собака — это на самом деле собака.
Алгоритмы машинного обучения также хорошо зарекомендовали себя в таких играх, как шахматы и го, где четко определены как правила, так и «условия победы». Однако врачи не всегда согласны с правилами лечения пациентов, и даже условие победы «быть здоровым» не является общепризнанным. «Врачи знают, что значит быть больным, — объясняет Гассеми, — и у нас есть больше всего данных о людях, когда они наиболее больны. Но мы не получаем много данных от людей, когда они здоровы, потому что тогда они реже обращаются к врачам».
Даже механические устройства могут способствовать искажению данных и различиям в лечении. Пульсоксиметры, например, которые были откалиброваны преимущественно для людей со светлой кожей, не точно измеряют уровень кислорода в крови для людей с более темной кожей. И эти недостатки наиболее остро проявляются, когда уровень кислорода низкий — именно тогда, когда точные показания наиболее важны. Точно так же женщины сталкиваются с повышенным риском при замене тазобедренного сустава «металл на металл», пишут Гассеми и Нсузи, «частично из-за анатомических различий, которые не учитываются при разработке имплантатов». Подобные факты могут быть скрыты в данных, поступающих в компьютерные модели, результаты которых в результате будут подорваны.
По словам Гассеми, исходящий от компьютеров продукт алгоритмов машинного обучения предлагает «блеск объективности». Но это может быть обманчивым и опасным, потому что гораздо труднее отследить ошибочные данные, которые массово поставляются на компьютер, чем игнорировать рекомендации одного, возможно, некомпетентного (и, возможно, даже расистского) врача. «Проблема не в самом машинном обучении, — настаивает она. «Это люди. Люди, ухаживающие за людьми, иногда генерируют неверные данные, потому что они не идеальны».
Тем не менее, она по-прежнему считает, что машинное обучение может принести пользу в здравоохранении с точки зрения более эффективных и справедливых рекомендаций и практик. Одним из ключей к реализации перспектив машинного обучения в здравоохранении является повышение качества данных, что является непростой задачей. «Представьте, если бы мы могли брать данные от врачей, которые показывают лучшие результаты, и делиться ими с другими врачами, у которых меньше подготовки и опыта», — говорит Гассеми. «Нам действительно нужно собрать эти данные и проверить их».
Проблема здесь в том, что сбор данных не поощряется и не вознаграждается, отмечает она. «Нелегко получить на это грант или попросить студентов потратить на это время. И поставщики данных могут сказать: «Почему я должен раздавать свои данные бесплатно, если я могу продать их компании за миллионы?» Но исследователи должны иметь доступ к данным, не задаваясь такими вопросами, как: «Какую бумагу я получу». мое имя в обмен на предоставление вам доступа к данным, хранящимся в моем учреждении?»
«Единственный способ улучшить здравоохранение — это получить более качественные данные, — говорит Гассеми, — а единственный способ получить более качественные данные — это стимулировать их выпуск».
Это не только вопрос сбора данных. Есть еще вопрос, кто будет его собирать и проверять. Гассеми рекомендует собрать различные группы исследователей — клиницистов, статистиков, специалистов по медицинской этике и компьютерных ученых — для того, чтобы сначала собрать разнообразные данные о пациентах, а затем «сосредоточиться на разработке справедливых и равноправных улучшений в здравоохранении, которые могут быть развернуты не только в одном передовом медицинском учреждении, но и в самых разных медицинских учреждениях».
По ее словам, цель документа Patterns не в том, чтобы помешать технологам привнести свой опыт в области машинного обучения в медицинский мир. «Они просто должны знать о пробелах, которые появляются в обработке, и других сложностях, которые следует учитывать, прежде чем давать одобрение конкретной модели компьютера».