Каждому из нас знакома ситуация, когда звонок с незнакомого номера вызывает волнение. Но что, если голос на другом конце провода – это не просто незнакомец, а тщательно созданная подделка, у которой есть одна цель – манипулировать и обмануть? Эта проблема стала особенно актуальной в свете развития технологий, связанных с ИИ-дипфейками. Мошенничество с нейросетевыми голосами становится всё более распространённым, и, что особенно тревожно, дети оказываются в числе самых уязвимых жертв. ИИ-дипфейки, то есть технологии, использующие искусственный интеллект для подделки голосов и лиц, создают реальную угроза. Злоумышленники могут записать голос одного человека и при помощи специализированных программ с лёгкостью воспроизвести его интонации и манеру речи. Так, например, в 2024 году в России зарегистрирован случай, когда мошенник использовал голос матери, чтобы обмануть её 12-летнего сына. Он представился «родителем», попросил перевести деньги за несуществующий долг, и мальчик, не заподозрив