Представьте: звонок от вашей мамы, но голос синтезирован ИИ мошенниками. Видео с вами, которое вы никогда не снимали. Это не сюжет фантастического фильма - это реальные угрозы ИИ в 2025 году. Дипфейки стали настолько качественными, что различить их может только специальное ПО. Мошенники клонируют голоса за 3 секунды записи и создают убедительные видео за минуты. Недавно в Гонконге украли 25 миллионов долларов, используя deepfake-видеозвонок "руководителя". Но есть и другая сторона медали. ИИ может "случайно" выдать конфиденциальную информацию, на которой обучался. ChatGPT иногда воспроизводит реальные номера телефонов и адреса из тренировочных данных! Как защититься: 1. Проверяйте видеозвонки через альтернативные каналы связи 2. Не доверяйте аудио/видео сообщениям с просьбами о деньгах 3. Используйте кодовые слова с близкими 4. Будьте осторожны с персональными данными в ИИ-чатах 5. Следите за обновлениями детекторов deepfake Хорошая новость: появляются мощные инструменты защиты. I
Представьте: звонок от вашей мамы, но голос синтезирован ИИ мошенниками
14 августа 202514 авг 2025
1 мин
