Мошенники с помощью ИИ все чаще создают deepfake-видео, используют автодозвон, а публичные чаты с искусственным интеллектом (ИИ) создают риск утечек конфиденциальных данных. Об этом Агентству городских новостей «Москва» сообщил заведующий лабораторией доверенного искусственного интеллекта МИРЭА – Российского технологического университета Юрий Силаев. «ИИ-мошенничество вышло на новый уровень: теперь преступники создают реалистичные deepfake-видео с копиями руководителей, клонируют голоса близких и генерируют персонализированные фишинговые атаки «под заказ». Чтобы клонировать голос жертвы, мошенникам хватает 3–15 секунд записи. Они инсценируют аварии или ЧП, давят на срочность, а автодозвон помогает атаковать сотни номеров за вечер. Паника мешает жертвам мыслить здраво – и деньги уходят преступникам. При этом недооцененный риск – утечки данных через публичные ИИ-чаты: исследования показывают, что каждое 80 обращение к ИИ может случайно раскрыть конфиденциальную информацию, а 7,5% запросо
Эксперт Силаев рассказал об утечках конфиденциальных данных через ИИ
25 июля 202525 июл 2025
12
1 мин