Найти тему
Проект +1

Исследователи объяснили, почему искусственный интеллект такой неэтичный

Как выяснилось, учебные программы просто не предусматривают обучение будущих специалистов в области искусственного интеллекта этике.

Фото: iStock.com
Фото: iStock.com

Искусственный интеллект (ИИ) без конца подвергается критике. Камеры с функцией распознавания лиц обвиняют в расизме (ИИ плохо различает темнокожих людей) и сексизме (различает мужчин лучше, чем женщин). Компания Anaconda провела исследование более чем в 100 странах среди 2 360 студентов, преподавателей и специалистов в области анализа и обработки данных, сообщает The Next Web.

Только 15% преподавателей заявили, что они преподают этику искусственного интеллекта, и только 18% студентов указали, что изучают этот предмет. Примечательно, что студенты заинтересованы в изучении социального влияния ИИ и считают его влияние на «стереотипы и приватность важнейшей проблемой в области технологий», но учебная программа этого не учитывает.

Ранее Plus-one.ru сообщал, что Amazon приостановит работу системы распознавания лиц, так как ее признали расистской. Технология Rekognition, которой корпорация Amazon обеспечила департаменты полиции по всей Америке, не различает темнокожих людей и выдает невиновных людей за преступников

Кроме того, технологию распознавания лиц планируют запретить в странах Евросоюза. Члены Еврокомиссии хотят разработать правила, которые не позволят злоупотреблять возможностями искусственного интеллекта.

Системы распознавания лиц в 100 раз чаще ошибаются, когда улавливают изображения темнокожих людей и азиатов. Самый высокий процент ложноположительных результатов зафиксирован во время тестирования технологии на индейцах. Технология также часто ошибается при попытке идентификации женщин.

Подписывайтесь на наш канал в Яндекс.Дзен

Автор Тамара Муллаходжаева