Добавить в корзинуПозвонить
Найти в Дзене

✅ Мошенники научились оживлять фотографии, чтобы выманивать деньги

В нашей области зафиксированы попытки использовать дипфейки в преступных целях. 🌐 О новой волне интернет-мошенничества предупреждают в департаменте полиции и Telegram-канале Aqparat saqshysy (@aqparatsaqsysy). 🤖 Современные аферисты используют возможности искусственного интеллекта, чтобы создавать поддельные видео якобы от имени родственников и друзей своих жертв. На роликах близкие вам люди просят занять деньги. На самом деле это подделка. 📲 Подобные видео выглядят правдоподобно: на них человек с фотографии двигается, говорит, выражает эмоции и жестами просит о помощи, создается иллюзия, что запись реальна. 👮 Полицейские призывают быть особенно осторожными и не верить таким обращениям без проверки. — Не переводите деньги по видеообращению, даже если там ваш родственник. Перезвоните и уточните, действительно ли человек просит помощь. Проведите разъяснительную беседу с пожилыми родными, которые могут не знать о таких технологиях, — советует оперуполномоченный управления по про

В нашей области зафиксированы попытки использовать дипфейки в преступных целях.

🌐 О новой волне интернет-мошенничества предупреждают в департаменте полиции и Telegram-канале Aqparat saqshysy (@aqparatsaqsysy).

🤖 Современные аферисты используют возможности искусственного интеллекта, чтобы создавать поддельные видео якобы от имени родственников и друзей своих жертв. На роликах близкие вам люди просят занять деньги. На самом деле это подделка.

📲 Подобные видео выглядят правдоподобно: на них человек с фотографии двигается, говорит, выражает эмоции и жестами просит о помощи, создается иллюзия, что запись реальна.

👮 Полицейские призывают быть особенно осторожными и не верить таким обращениям без проверки.

— Не переводите деньги по видеообращению, даже если там ваш родственник. Перезвоните и уточните, действительно ли человек просит помощь. Проведите разъяснительную беседу с пожилыми родными, которые могут не знать о таких технологиях, — советует оперуполномоченный управления по противодействию киберпреступности капитан полиции Жанибек Шагиров.

Он отметил, что пока к ним не поступали заявления именно по фактам дипфейков с родственниками. Однако случаи использования ИИ уже были.

— Преступники через искусственный интеллект меняли свое лицо, облачались в форму следователей, имитировали сотрудников антикоррупционного ведомства, — сообщил он.

⚠️ Как предупредил Жанибек Шагиров, мошенники применяли дипфейки для оформления кредитов на других людей, подделывая их внешний вид и голос. Теперь они перешли к более психологически давящей схеме — используют доверие между близкими.

— Сохраняйте бдительность. За оживленной картинкой может скрываться преступник, — резюмировал Жанибек Шангиров.

✍️ Татьяна ТОКАРЬ

📸 Иллюстрированное фото из открытых интернет-источников

📖 Читайте авторскую статью на сайте 🌐avestnik.kz

#мошенники #киберпреступность #дипфейки #Актобе #безопасность