Как выяснилось, учебные программы просто не предусматривают обучение будущих специалистов в области искусственного интеллекта этике.
Искусственный интеллект (ИИ) без конца подвергается критике. Камеры с функцией распознавания лиц обвиняют в расизме (ИИ плохо различает темнокожих людей) и сексизме (различает мужчин лучше, чем женщин). Компания Anaconda провела исследование более чем в 100 странах среди 2 360 студентов, преподавателей и специалистов в области анализа и обработки данных, сообщает The Next Web.
Только 15% преподавателей заявили, что они преподают этику искусственного интеллекта, и только 18% студентов указали, что изучают этот предмет. Примечательно, что студенты заинтересованы в изучении социального влияния ИИ и считают его влияние на «стереотипы и приватность важнейшей проблемой в области технологий», но учебная программа этого не учитывает.
Ранее Plus-one.ru сообщал, что Amazon приостановит работу системы распознавания лиц, так как ее признали расистской. Технология Rekognition, которой корпорация Amazon обеспечила департаменты полиции по всей Америке, не различает темнокожих людей и выдает невиновных людей за преступников
Кроме того, технологию распознавания лиц планируют запретить в странах Евросоюза. Члены Еврокомиссии хотят разработать правила, которые не позволят злоупотреблять возможностями искусственного интеллекта.
Системы распознавания лиц в 100 раз чаще ошибаются, когда улавливают изображения темнокожих людей и азиатов. Самый высокий процент ложноположительных результатов зафиксирован во время тестирования технологии на индейцах. Технология также часто ошибается при попытке идентификации женщин.
Подписывайтесь на наш канал в Яндекс.Дзен
Автор Тамара Муллаходжаева