С развитием искусственного интеллекта злоумышленники получают все более совершенные инструменты для манипуляции информацией. Одной из самых опасных технологий стали дипфейки – поддельные видео- и аудиозаписи, которые могут использоваться для мошенничества, шантажа и дезинформации. На международной конференции по искусственному интеллекту МТС Power Day в Минске руководитель направления исследования данных «Лаборатории Касперского» Дмитрий Аникин рассказал о новых вызовах цифровой безопасности и дал практические советы, как распознавать фейковый контент. По словам эксперта, видеодипфейки отличаются высокой детализацией. Для их создания требуется много исходных данных – фотографий, видео и других записей. Однако чем сложнее подделка, тем выше вероятность найти в ней ошибки. Как распознать видеодипфейк? Если видеоподделки требуют значительных ресурсов, то для создания аудиодипфейка достаточно всего нескольких секунд оригинальной записи. Качество звука при этом хуже, но этого хватает, чтоб