Группа экспертов в области искусственного интеллекта спрогнозировала главные угрозы, которые новые технологии несут человечеству. Авторы исследования предупредили — катастрофические сценарии могут реализоваться намного быстрее, чем кажется.
Согласно опубликованному отчету "Вредоносное использование искусственного интеллекта", ИИ вполне может использоваться странами-изгоями, преступниками и террористами. Те, кто производят робототехнику и системы искусственного интеллекта, должны прикладывать больше усилий к тому, чтобы их технология не была применена во вред, предупреждают авторы доклада и призывают правительства подумать о принятии новых законов.
Над отчетом работало порядка 26 футурологов, экспертов по ИИ и правозащитников. Среди них представители Института будущего человечества, Центра изучения экзистенциальных рисков, Фонда электронных рубежей и лаборатории OpenAI, которую спонсирует один из главных сторонников регулирования ИИ Илон Маск.
Большинство угроз, описанных в исследовании, связано со слежкой, нарушением приватности и искажением реальности. Алгоритмы на основе машинного обучения станут более дешевыми и доступными, и злоумышленники смогут автоматизировать многие задачи, которые раньше приходилось выполнять вручную.
Особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет при этом ни примеров для подражания, ни руководства на человеческом уровне.
Исследователи считают, что вероятен сценарий, когда автоматизация упростит фишинг, который и сейчас является одним из наиболее эффективных технологий взлома и проникновения в компьютерные системы. Чатботы научатся имитировать манеру речи друга или родственника, а большие данные помогут втереться в доверие от имени банка или сервиса госуслуг. В исследовании эксперты также описывают применение ИИ для генерации фальшивого аудио- и видеоконтента.
Авторы отчета допускают, что преступники используют существующие сегодня программы для своих целей. Например, алгоритм AlphaGo от DeepMind теоретически способен не только придумывать ходы в игре го, но и генерировать новые попытки взлома системы. Мощные хакерские атаки могут охватить тысячи компьютеров, а избавиться от вредоносного ПО можно будет только с помощью выкупа.
Другая возможная угроза - слежка на основе технологий распознавания лиц. Кроме того, исследователи допускают ситуацию, когда некий отдельно взятый злоумышленник может купить дрон, оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека.
Масштабируемость — одна из главных проблем ИИ, пишут футурологи. Злоумышленники могут один раз потратиться на разработку или покупку ПО — и в дальнейшем его можно будет использовать тысячи раз без каких-либо затрат.
Отдельный пункт исследования посвящен рекомендациям. Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить. Ученые и разработчики должны упреждать возможное злонамеренное использование ИИ, разработать предохранительные меры против подобных рисков.