Эксперты в области кибербезопасности бьют тревогу: с развитием технологий искусственного интеллекта (ИИ) наблюдается резкий рост случаев его использования в преступных целях. Особую обеспокоенность вызывает технология клонирования голоса, которая становится излюбленным инструментом мошенников в социальных сетях и мессенджерах. Специалист по информационным технологиям Эльвин Аббасов предупреждает о нарастающей угрозе. «Если мы просто чем-то делимся с близким другом, и он со стороны отправляет нам голосовое сообщение, видео с просьбой оказать материальную помощь или предоставить персональные данные, мы должны заподозрить неладное, ведь у нас нет таких отношений с этим товарищем, а даже если бы и были, или например, вы сотрудник какой-то компании, и HR или кто-то из финансового отдела связывается с вами с просьбой: «отправь мне номер своей карты», - отметил он. По словам эксперта, современные нейросети достигли такого уровня развития, что могут создавать практически неотличимые от оригина
Голосовые клоны и дипфейки: как искусственный интеллект помогает обманывать людей.
11 июня 202511 июн 2025
11
1 мин