Искусственный интеллект привносит новые возможности в мир мошенничества, обеспечивая создание поддельных аудио и видео записей, в которых часто «участвуют» известные персоны или близкие родственники. Об этом сообщает Bizmedia.kz. Представители отделения Агентства РК по регулированию и развитию финансового рынка подтверждают, что данные технологии способны «воплощать в жизнь» нереальных людей, вносить изменения в голоса и мимику, а также добавлять вымышленные высказывания, создавая искусственные и убедительные обманные ситуации. Специалисты в области кибербезопасности подчеркивают, что дипфейки могут стать инструментом для фишинга, хищения личных данных и финансовых махинаций. Кроме того, нейронные сети могут клонировать голоса на основе коротких аудиозаписей, что усиливает угрозу использования этих технологий в незаконных целях. Повышенное тревожность вызывает возможность использования данных технологий мошенниками для прохождения собеседований под чужим именем с целью получения доступ
В Павлодаре мошенники начали применять технологию дипфейков для киберпреступлений
29 ноября 202329 ноя 2023
1 мин