Люди все чаще боятся лишиться работы из-за ИИ, но не задумываются о том, что ИИ все еще полон несовершенств и его использование имеет смысл только под контролем человека. Разберем 3 случая, когда ИИ не справился с рабочими задачами. Чат-бот из ада В 2016 году чат-бот Tay, созданный Microsoft с помощью технологий машинного обучения и обработки естественного языка, быстро научился у онлайн-троллей расистским, женоненавистническим и антисемитским высказываниям и начал самостоятельно их транслировать. В результате Microsoft в тот же день приостановила эксперимент. Здравоохранение не для всех В одном из госпиталей США ИИ реже рекомендовал лечение чернокожим пациентам, чем белым. Выяснилось, что он изучал статистику обращений, не учитывая, что у первых из-за финансового неблагополучия реже имеются страховки, чем у вторых. Такие ошибки еще долго будут сопровождать интеллектуальный анализ данных, потому что ИИ не способен мыслить фундаментально. Предвзятое правосудие Возможно, наиболее ярким
ТОП-3 провалов искусственного интеллекта, или почему люди еще нужны
2 апреля 20222 апр 2022
21
1 мин