Разбойные государства и террористы могут использовать технологию для вредных средств, говорят эксперты.
Искусственный интеллект может быть использован для превращения беспилотных летательных аппаратов в оружие, распространения пропаганды или запуска крупномасштабной кибер-атаки, предупреждал новый отчет .
По словам исследователей, преступники и террористы могут использовать эту технологию, опубликованную сегодня широким кругом экспертов.
В отчете «Злоупотребление искусством интеллекта» рассматривается ИИ, который в настоящее время или почти доступен, а не технологии «далек от будущего».
AI - это компьютерные системы и машины, которые могут выполнять задачи, которые традиционно требуют человеческого интеллекта.
Примеры включают автомобили без водителя, онлайн-поддержку клиентов или автоматическое распознавание речи.
«Вредные концы»
По мнению Центра изучения экзистенциального риска Университета Кембриджа, атакующие могут использовать «распространение беспилотных летательных аппаратов» и повторно использовать их для «вредных целей» , которые помогли собрать отчет вместе.
Он сказал, что мы можем увидеть «сбой флотов автономных транспортных средств, превращение коммерческих беспилотных летательных аппаратов в ракеты или наличие критической инфраструктуры для выкупа».
AI также может предвещать новые кибератаки, такие как автоматическое взломание и производство правдоподобных фальшивых видео, которые будут использоваться в качестве «мощных инструментов для управления общественным мнением на ранее невообразимых масштабах».
«Искусственный интеллект - это игровой чейнджер, и этот отчет вообразил, как может выглядеть мир в ближайшие пять-десять лет», - сказал д-р Сиан Ойгеартай, один из соавторов отчета.
«Мы живем в мире, который может стать чреватым изо дня в день опасностью из-за неправильного использования ИИ, и нам нужно взять на себя ответственность за проблемы, потому что риски реальны. Есть выбор, который нам нужно сделать сейчас, и наш отчет представляет собой призыв к действию для правительств, учреждений и отдельных лиц по всему миру.
«На протяжении многих десятилетий реклама обходилась с точки зрения ИИ и машинного обучения. Больше никогда. В этом отчете рассматривается практика, которая больше не работает, и предлагает широкие подходы, которые могут помочь: например, как разрабатывать программное обеспечение и аппаратные средства, чтобы сделать его менее взломанным - и какие законы и международные правила могут работать в тандеме с это."
Майлз Брандэйдж, научный сотрудник Института будущего человечества Оксфордского университета, сказал: «AI изменит ландшафт риска для граждан, организаций и штатов - будь то преступные тренировочные машины для взлома или« фиш »на человеческом уровне производительности или неприкосновенности частной жизни наблюдение, профилирование и репрессии - полный спектр воздействия на безопасность огромен.