Представьте:
алгоритм анализирует ваши медицинские данные и ставит диагноз. Но что,
если он ошибётся из-за того, что «обучался» на историях болезней только
мужчин или жителей определённого региона? А если ваши персональные
данные утекут в сеть? Исследование, охватившее сотни научных работ,
выявило 12 этических проблем, которые возникают при внедрении ИИ в медицину. И некоторые из них могут касаться лично вас. ИИ
учится на данных. Но если в этих данных есть скрытые перекосы
(например, мало информации о женщинах или этнических меньшинствах),
алгоритм начнёт принимать несправедливые решения. Иллюстрация: График с примерами предвзятости — «Как данные влияют на диагнозы ИИ». Медицинские
данные — лакомый кусок для хакеров. Утечка истории болезней или
генетической информации может разрушить карьеру, личную жизнь, а то и
привести к шантажу. Представьте:
алгоритм не распознал опухоль на снимке, пациент потерял время. Кто
виноват? Программист, не учтший редкий случай? Врач, слепо