Тот момент, когда всю малину портит человеческий фактор.
Исследование в Джорджтауне
Исследователи решили проверить гипотезу, названную «мусор в мусоре». Она гласит: не важно, насколько круто сделана система. Если в нее загружать данные плохого качества, то и результаты будут такими.
Можно сказать, что гипотезу подтвердили. Исследование показало, что отдел распознавания лиц (FIS) полиции Нью-Йорка специально неправильно использовал технологию. Сотрудники загружали в базу:
- Фотографии людей, похожих на подозреваемых.
- Рисунки лиц, сгенерированных программой.
- Фотографии с камер видеонаблюдения – они редко бывают в хорошем качестве.
Что из этого следует
«Мусор в мусоре» – если использовать некачественные фотографии, программа возьмет их за основу и не найдет настоящего преступника. Зато поймает дюжину человек, которые на него похожи.
Да, арестовать кого-то по определению ИИ не выйдет, но остановить, отнять время, смутить – запросто. Искусственный интеллект создавали не для этого.
Но везде есть исключения.
Неизвестный, я тебя знаю
В 2017 году некто украл пиво в продуктовом магазине. Момент кражи попал на видеокамеры. Но картинка была такой размытой, что полицейские не смогли толком разглядеть лицо. Казалось бы, преступнику повезло.
Но один из сотрудников FIS заметил, что очертания чем-то напоминают Вуди Харрельсона, голливудского актера. Далее специалист нашел и загрузил в программу фотографию Вуди. И каким-то образом личность преступника установили.