Южнокорейские ученые создали модель искусственного интеллекта, способную предсказывать преступления. Пока точность прогнозов составляет 82%, но система еще учится. К чему приведет развитие ИИ в этой области, какова цена их ошибки и как нейросети следят за общественным порядком в России, расскажет ОТР.
ИИ-провидец из Южной Кореи
Модель ИИ Dejaview разработали ученые из Южнокорейского научно-исследовательского института электроники и телекоммуникаций. Она обучается на основе видео с преступлениями, поведенческих факторов и статистики, передали «Известия».
Нейросеть может анализировать картинку с камер наблюдения в реальном времени и оценивать риски совершения преступлений. Еще ИИ умеет прогнозировать рост уровня преступности, оценивая одновременно множество факторов. Искусственный интеллект различает разные виды проступков и нарушений правопорядка. По словам разработчиков, во время испытаний он показал точность в 82%. Нейросеть глубоко анализирует поведение конкретного человека и может удерживать его от повторных преступлений. Коммерческая версия Dejaview появится в конце следующего года.
Эта система сможет взять на себя рутинные действия, которые пока выполняют правоохранители, отметила разработчик технологий машинного обучения R-Vision Анастасия Перкова. Например, ее можно использовать для оперативного наблюдения за бывшими заключенными. Это, по мнению эксперта, снизит количество рецидивов.
Как будут предупреждать преступления с помощью ИИ
Ключевая идея таких технологий в том, чтобы предупредить преступление, а не наказать человека. К подозрительному лицу могут, например, подойти и узнать, с какой целью он пришел в то или иное место.
«Он ответит, что не при делах, и уйдет. Тем самым мы предотвратим преступление. Если такой сценарий рассмотреть, наверное, это будет уже хорошо, это большое подспорье. В этом основная идея состоит, а не в том, что мы подозреваем, что сейчас состоится преступление, ждем, когда оно свершится, а иначе не можем схватить человека и предъявить ему претензии», — заявил в беседе с ОТР руководитель аналитического центра Zecurion Владимир Ульянов.
Однако точность в 82% — это не особо высокая цифра в таком деле. Показатель нужно увеличивать. Ведь он не означает, что правоохранители смогут предотвратить 82% преступлений. Цифра говорит о том, что в 18% случаев под подозрение попадут обычные люди или реальные преступники останутся нераспознанными, обратил внимание эксперт.
«Это так или иначе будет нервировать граждан и породит негативное восприятие этого явления в обществе. Поэтому очень аккуратно такие вещи нужно внедрять. Нужно работать над повышением точности до 99,9%», — продолжил Ульянов.
Важно также выработать алгоритмы действий: что именно нужно предпринять, когда ИИ сообщила о скором преступлении. Такие ситуации необходимо разрешать мягко и деликатно, чтобы не нервировать людей и не сеять панику. Но еще система может оказать профилактическое действие.
«Злоумышленники будут понимать, что их могут задетектировать еще до того, как они совершили преступление. Если раз-другой господин полицейский подошел, они будут понимать, что он не просто так подходит. Может, это позволит со временем снизить количество преступлений. Это будет хорошая, полезная работа», — высказался Владимир Ульянов.
ИИ и общественный порядок в России
В нашей стране тоже есть пилотные проекты, подобные южнокорейской модели. А некоторые ИИ уже помогают правоохранителям обеспечивать общественный порядок, обратил внимание собеседник ОТР.
«Есть такой класс решений, как интеллектуальное видеонаблюдение. То есть это не просто камера, которая тупо пишет картинку, это программно-аппаратный комплекс. В нем есть само видеонаблюдение и программная часть, которая обрабатывает картинку, выявляя ситуации, которые могут быть интересны», — рассказал Ульянов.
Например, такая система заметит, что на остановке скопилось слишком много людей. Для нее это будет означать, что что-то пошло не так, раз транспорт долго не приходит. Такая же система контролирует вывоз мусора, обращая внимание на его скопление в определенных местах. Комплекс автоматически фиксирует уличные драки и другие конфликты.
«Понятное дело, что при этом нужно участие человека. Камера сняла, передала информацию, сервер обработал, был сигнал. Но после этого должен или наряд полиции выехать, или оператор, который занимается контролем ситуации на объекте, вмешаться и решить [проблему]», — продолжил собеседник ОТР.
Эти системы уже работают в России, но пока они не очень популярны. Чтобы распространить их шире, нужно подтвердить высокую эффективность систем. Ведь внедрение таких технологий требует больших финансовых и человеческих вложений. Поддержка и реагирование должны происходить по определенному регламенту, который пока тоже корректируют. Но эти системы все плотнее входят в нашу жизнь, отметил Ульянов.
Чем опасна борьба ИИ с преступностью
Будущее за искусственным интеллектом, и системы на его основе станут все глубже внедрять в разные сферы жизни. Безусловно, это касается и борьбы с преступностью во всем мире. Избежать этого сценария практически невозможно, считает эксперт.
«Конечно, в некоторых областях у нас есть завышенные ожидания, что мы сможем опереться на искусственный интеллект и он за нас все сделает. Но это не совсем так», — уточнил он.
Сейчас идет некоторая переоценка возможностей ИИ. Технологии опробовали, но разработчики стараются опускать информацию о недостатках. Ведь им нужно финансирование для перспективных систем.