Искусственный интеллект на службе аферистов Возможности искусственного интеллекта, к сожалению, используют не только во благо. Например, технология дипфейка применяется для имитации голоса или создания фальсифицированного аватара. А дальше мошенники могут пройти голосовую идентификацию в вашем личном кабинете, сымитировать манеру и алгоритмы общения сотрудников банка. В последнее время имитация голоса используется для звонков от якобы руководителя, который просит перевести деньги или совершить другую финансовую операцию в интересах мошенников. Как заподозрить, что перед вами поддельное фото или видео? -Видео прерывается, идет с помехами и паузами. -У человека на видео неестественные движения или поведение. Например, он не моргает. -На фото контуры изображения нечеткие. -Неравномерная окраска кожи человека. -Как заподозрить, что вы слышите синтезированный голос? -Помехи. -Отсутствие фоновых звуков. -Паузы вместо междометий. -Очень стройная и правильная речь. В целом надо обращать вним