Найти тему
СОВЕТНИК

Искусственный интеллект следил за каждым жителем города

В Америке на деньги ЦРУ создали технологию, позволяющую прогнозировать, где и когда случится преступление. Программа имела доступ к личным данным миллионов людей, она отслеживала и соотносила данные о гражданах, машинах, адресах, оружии.

Проект под названием Palantir ("Палантир") был основан в 2012 году и действовал в Новом Орлеане вплоть до февраля 2018 года. Сейчас нет достоверной информации о статусе разработки, так что остается вероятность, что контракт продлили (в компании на запрос не ответили). Система владела огромным массивом данных о всех жителях города. Внутри программы можно было проследить за любым человеком: узнать, с кем он общается, на какой машине ездит, кого добавляет в друзья в соцсети. Полицейский мог просто ввести имя человека в систему и узнать о нем все, а иногда и имя было не обязательно, достаточно номера машины или даже клички преступника.

"Палантир" составлял электронную "паутину" из всех людей и их контактов, а затем анализировал ее и пытался предположить, какой человек совершит или, наоборот, рискует стать жертвой преступления.

При этом местные жители не знали о программе абсолютно ничего. "Палантир" был секретным заказом ЦРУ, проходил по документам как благотворительная программа, и доступ к нему имели только полицейские.

Как ни странно, преступность сначала снизилась. В течение первых двух лет работы "Палантира" в городе произошло резкое падение убийств и насилия с применением оружия, но это было ненадолго. По мере того, как все больше городов и компаний начали экспериментировать с предсказаниями преступности, исследования, финансируемые правительством, ставят под сомнение его эффективность. 

Однако, при дальнейшем изучении деятельности этой программы, выяснилось что она позволила предотвратить менее двух убийств в год, что составляет меньше 1% от общего уровня

Чтобы добиться снижения уровня убийства в городе хотя бы на 5%, необходимы огромные скачки как в прогнозировании, так и в эффективности вмешательства. Ни один алгоритм не может предсказать с абсолютной уверенностью, что там-то и тогда-то будет преступление. Программа может примерно показать, кто может быть замешан, но в чем конкретно, она не знает. 

"Короче говоря, это не сработало", – заключают эксперты. Чикагская полиция выявила 426 человек, которые подвержены наибольшему риску насилия с применением оружия. В многомиллионном городе это управляемое количество людей, на которых нужно сосредоточиться. Однако Чикагская полиция не предоставила им никаких услуг или программ. 

Так что недостаточно просто поставить программу и положиться на нее. Необходимо, чтобы полиция работала: тщательно проверяла тех, кого система называет преступником, и предупреждала тех, кто рискует стать жертвой.