Найти тему
Южный федеральный

Эксперт Ермаков пояснил, чем привлекательна система биометрии

Искусственный интеллект (ИИ) очень часто критикуют. Совершенствование системы ИИ может оборачиваться неоднозначными инцидентами. Известны случаи, когда цифровой разум самостоятельно принимал решения, что приводило к печальным последствиям.

Эксперт кафедры киберспорта университета «Синергия»Алексей Ермаков рассказал ИА RuNews24.ru, какая система биометрии используется в нашей стране и чем она привлекательна.

По словам специалиста в России система стандартизации биометрии (в соответствии с международными стандартами) работает уже давно. В ГОСТ Р ИСО/МЭК19795-1-2007 «Автоматическая идентификация. Идентификация биометрическая» прописаны все требования к ней.

Ермаков отметил, что привлекательность биометрии заключена в том, что биометрические идентификаторы привязаны к человеку. Их нельзя украсть или потерять, правда, если исключить совершенно ужасные случаи травмирования, когда речь идет о распознавании значительно поврежденной лицевой части черепа. При этом создание двойника будет настолько сложным, что не следует задумываться об этом.

Эксперт подчеркнул, что больших скандалов с распознаванием лиц не было. Однако случаи сбоя с другими областями компьютерного зрения, когда требовалось распознать объекты и движение, были. В подтверждение своих слов он напомнил о нескольких таких случаях.

Например, в Японии и Корее 4 робота, контролируемых ИИ, совершили убийство 29 ученых. Но здесь не было однозначного подтверждения сбоя или ошибки.

Подробности других инцидентов многие компании стараются скрывать. Например, такое было на заводе Tesla в Штатах, когда робот напал на одного из сотрудников. В других случаях известны подробности. Например, убийство рабочего в Корее, которого ИИ идентифицировал как коробку.

Можно вспомнить о некорректной работе ИИ и а России. Такое произошло, когда робот-шахматист нанес травмы ребенку.

Наиболее резонансным случаем, по словам Алексея Ермакова, стал инцидент с турецким боевым роботом, который самостоятельно, без подтверждения оператора, принял решение атаковать и уничтожил несколько бойцов противника в Ливии.

«Это не было ошибкой. Но сам факт того, что искусственный интеллект сам принял решение и убил людей, вызвало большой резонанс. Ведь не исключено, что в случае сбоя или ошибки боевое оружие может привести к гораздо более печальным последствиям», – сказал в заключение Алексей Ермаков.