Медицинские системы на базе искусственного интеллекта демонстрируют предвзятость и дают худшие результаты лечения для женщин и представителей меньшинств, сообщает Financial Times со ссылкой на исследования Массачусетского технологического института (MIT) и Лондонской школы экономики. Одна из причин такого поведения ИИ в том, что многие клинические исследования в прошлом проводили преимущественно на мужчинах европеоидной внешности, это сделало исходные медицинские данные неполными. В результате обученные на них алгоритмы ИИ унаследовали существующие перекосы. Ученые MIT установили, что крупные языковые модели, включая OpenAI GPT-4 и Llama 3 от Meta*, чаще снижали объем помощи женщинам и рекомендовали им «самостоятельное лечение дома». Похожие выводы были сделаны в отношении специализированной медицинской модели Palmyra-Med. Анализ Google Gemma, проведенный Лондонской школой экономики, также показал, что потребности женщин занижались по сравнению с мужчинами. Ранее журнал The Lancet сооб
ИИ в медицине показал худшие результаты для женщин и меньшинств — исследование
24 сентября 202524 сен 2025
~1 мин