Искусственный интеллект (ИИ) очень часто критикуют. Совершенствование системы ИИ может оборачиваться неоднозначными инцидентами. Известны случаи, когда цифровой разум самостоятельно принимал решения, что приводило к печальным последствиям.
Эксперт кафедры киберспорта университета «Синергия»Алексей Ермаков рассказал ИА RuNews24.ru, какая система биометрии используется в нашей стране и чем она привлекательна.
По словам специалиста в России система стандартизации биометрии (в соответствии с международными стандартами) работает уже давно. В ГОСТ Р ИСО/МЭК19795-1-2007 «Автоматическая идентификация. Идентификация биометрическая» прописаны все требования к ней.
Ермаков отметил, что привлекательность биометрии заключена в том, что биометрические идентификаторы привязаны к человеку. Их нельзя украсть или потерять, правда, если исключить совершенно ужасные случаи травмирования, когда речь идет о распознавании значительно поврежденной лицевой части черепа. При этом создание двойника будет настолько сложным, что не следует задумываться об этом.
Эксперт подчеркнул, что больших скандалов с распознаванием лиц не было. Однако случаи сбоя с другими областями компьютерного зрения, когда требовалось распознать объекты и движение, были. В подтверждение своих слов он напомнил о нескольких таких случаях.
Например, в Японии и Корее 4 робота, контролируемых ИИ, совершили убийство 29 ученых. Но здесь не было однозначного подтверждения сбоя или ошибки.
Подробности других инцидентов многие компании стараются скрывать. Например, такое было на заводе Tesla в Штатах, когда робот напал на одного из сотрудников. В других случаях известны подробности. Например, убийство рабочего в Корее, которого ИИ идентифицировал как коробку.
Можно вспомнить о некорректной работе ИИ и а России. Такое произошло, когда робот-шахматист нанес травмы ребенку.
Наиболее резонансным случаем, по словам Алексея Ермакова, стал инцидент с турецким боевым роботом, который самостоятельно, без подтверждения оператора, принял решение атаковать и уничтожил несколько бойцов противника в Ливии.
«Это не было ошибкой. Но сам факт того, что искусственный интеллект сам принял решение и убил людей, вызвало большой резонанс. Ведь не исключено, что в случае сбоя или ошибки боевое оружие может привести к гораздо более печальным последствиям», – сказал в заключение Алексей Ермаков.