Это перевод материала, опубликованного на сайте Medium. Что такое атака оптическими иллюзиями? В начале 2014 года Szegedy et al. (2014) смогли продемонстрировать, что минимальные изменения входных данных для систем, работающих с машинным обучением, могут стать причиной неправильного восприятия этих данных. Изменённые входные данные называются «соперничающими примерами» — они были специально разработаны и служат для того, чтобы обмануть модель. Именно эта картинка дала старт «гонке вооружений», в которой разработчики мерились силами в том, кто кого круче обманет...