А люди наивно полагают, что это проблема будущего
Скарлетт О’Хара — один из наиболее известных женских персонажей. Ее умению жить реальностью и не задумываться о последствиях своих решений можно только позавидовать.
«Я не буду думать об этом сегодня, я подумаю об этом завтра» —
стала самой знаменитой фразой легендарного романа.
Поразительно, но человечество ведет себя ровно так же, как Скарлетт О’Хара. И сказанное в заголовке пока не осознается ни обывателями, ни ЛПРами госуровня, ни даже военными. Все продолжают считать, что война машин — это пусть и очень важный элемент картины мира, но он относится к миру будущего, и, следовательно, у нас еще будет время подумать, как минимизировать связанные с этим риски.
На самом деле, уже поздно пить Боржоми. И либо мы, наконец осознав высший приоритет этой мега-проблемы, срочно начнем курс ее лечения с помощью интенсивной «фарма-терапии», либо через 3–5 лет потребуется уже «химиотерапия или хирургия», с неопределенными шансами на успех.
Под войной машин понимается полная передача ответственности за решение проблемы «снаряда и брони» (технологий защиты и нападения) на компьютерные ИИ технологии.
Вот конкретный живой и 100%но актуальный пример из невоенной области (про военную писать, сами понимаете, себе дороже) — война с визуальными фейками.
В этой войне
- у нападающей стороны стоит задача средствами ИИ сварганить такую визуальную обманку (например, человека, похожего на Трампа в абсолютно компрометирующей обстановке или компании), чтоб подавляющее число ее увидевших поверили в нее;
- у защищающейся стороны задача средствами ИИ максимально быстро раскусить обманку и доказать, что это обман;
- тогда у нападающей стороны стоит задача средствами ИИ обмануть средства ИИ защиты;
- тогда у стороны защиты стоит задача не дать средствам ИИ нападения обмануть свои ИИ средства защиты;
И т.д. и т.п.
Ситуация на сегодняшний день в войне с визуальными фейками такова.
- Подобно играм в шахматы и го, человек уже отдыхает (как на стороне защиты, так и на стороне нападения). На обеих сторонах работают исключительно ИИ.
Люди даже на HD видео и большом экране физически не способны распознать 30% визуальных феков, произведенных средствами ИИ нападения (а для обычного фото и видео на смартфонах и планшетах — более 40%).
Как нетрудно догадаться, ИИ защита распознаёт все 100%. - В связи с войной машин,
— успех ИИ защиты теперь на 100% зависит от «использования дополнительных знаний о предметной области»;
— а успех ИИ нападения — от «использования дополнительных знаний о дополнительных знаниях ИИ защиты о предметной области».
Все. Приехали. В области борьбы с визуальными фейками война машин уже идет.
А теперь перенесите по аналогии, например, на самоуправляемые авто.
- В роли нападения мошенники, требующие от автопроизводителя $10 млрд, иначе они подсунут самоуправляемым авто этого производителя фейковые образы, снижающие распознавательные возможности дорожных знаков на 40%.
- В роли защиты — ИИ автопроизводитель.
Ну а теперь перенесите пример на войну машин у военных.
Так что, — продолжаем жить по принципу Скарлетт О’Хара
— «I’ll think about it tomorrow»?
Информация к размышлению: «FaceForensics++: Learning to Detect Manipulated Facial Images»
Новая база данных «лицевых фейков», позволяющая ИИ защите побеждать ИИ нападение, если последнее использует 3 методики создания фейков: Face2Face, FaceSwap, DeepFakes.
Как вы, наверняка, сами понимаете, ИИ нападение уже вовсю разрабатывает несколько новых методов, про которые ИИ защита еще не знает (пока не знает).
________________________________
Если вам понравился этот пост — не забудьте:
- нажать “палец вверх”;
- подписаться на обновления канала на платформе Яндекс Дзен;
- оставить комментарий.
Еще больше материалов на моем Телеграм канале «Малоизвестное интересное». Подпишитесь