Найти в Дзене
ИИ и МЫ

ТОП-3 провалов искусственного интеллекта, или почему люди еще нужны

Люди все чаще боятся лишиться работы из-за ИИ, но не задумываются о том, что ИИ все еще полон несовершенств и его использование имеет смысл только под контролем человека. Разберем 3 случая, когда ИИ не справился с рабочими задачами. Чат-бот из ада В 2016 году чат-бот Tay, созданный Microsoft с помощью технологий машинного обучения и обработки естественного языка, быстро научился у онлайн-троллей расистским, женоненавистническим и антисемитским высказываниям и начал самостоятельно их транслировать. В результате Microsoft в тот же день приостановила эксперимент. Здравоохранение не для всех В одном из госпиталей США ИИ реже рекомендовал лечение чернокожим пациентам, чем белым. Выяснилось, что он изучал статистику обращений, не учитывая, что у первых из-за финансового неблагополучия реже имеются страховки, чем у вторых. Такие ошибки еще долго будут сопровождать интеллектуальный анализ данных, потому что ИИ не способен мыслить фундаментально. Предвзятое правосудие Возможно, наиболее ярким
Оглавление

Люди все чаще боятся лишиться работы из-за ИИ, но не задумываются о том, что ИИ все еще полон несовершенств и его использование имеет смысл только под контролем человека. Разберем 3 случая, когда ИИ не справился с рабочими задачами.

Чат-бот из ада

В 2016 году чат-бот Tay, созданный Microsoft с помощью технологий машинного обучения и обработки естественного языка, быстро научился у онлайн-троллей расистским, женоненавистническим и антисемитским высказываниям и начал самостоятельно их транслировать. В результате Microsoft в тот же день приостановила эксперимент.

Здравоохранение не для всех

В одном из госпиталей США ИИ реже рекомендовал лечение чернокожим пациентам, чем белым. Выяснилось, что он изучал статистику обращений, не учитывая, что у первых из-за финансового неблагополучия реже имеются страховки, чем у вторых. Такие ошибки еще долго будут сопровождать интеллектуальный анализ данных, потому что ИИ не способен мыслить фундаментально.

Предвзятое правосудие

Возможно, наиболее ярким примером предвзятости ИИ является алгоритм COMPAS, используемый в судебных системах США для прогнозирования вероятности того, что подсудимый станет рецидивистом. Благодаря использованным данным, выбранной модели и процессу создания алгоритма в целом модель ошибочно предсказала в два раза большую вероятность рецидива для чернокожих правонарушителей (45%), чем для белых правонарушителей (23%).

#искусственный интеллект #ИИ #технологии