В последние месяцы мошенники стали активно использовать всё более реалистичные видео- и аудиоконтенты с подделанными голосами известных CEO, знаменитостей и даже государственных деятелей, чтобы выманивать у инвесторов крипту. Традиционные централизованные детекторы глубинных фейков (deepfake) не справляются с этой напастью: по последним данным, они распознают едва ли 10–15 % новых подделок. Отличия между подлинным и сгенерированным AI-контентом стираются на глазах, а статичные модели распознавания слишком медлительны в обновлении и уязвимы для обхода. Наступает эпоха децентрализованных детекционных сетей на блокчейне — именно они предлагают по-настоящему масштабируемую и надёжную защиту от AI-мошенничества. Как это работает? Сеть объединяет разрознённых валидаторов, которые получают токены за проверку видеороликов и аудиозаписей на признаки подделки. Все результаты фиксируются в неизменяемом реестре: любая попытка сфальсифицировать вывод или «подкупить» отдельного участника немедленно
В последние месяцы мошенники стали активно использовать всё более реалистичные видео- и аудиоконтенты с подделанными голосами известных CEO
24 сентября 202524 сен 2025
2 мин