Законодатели планируют внести изменения в ст. 63 УК РФ, чтобы использование искусственного интеллекта в преступных целях стало отягчающим обстоятельством. Эта инициатива связана с ростом высокотехнологичных мошеннических схем, наносящих значительный ущерб гражданам и бизнесу. ❗️Новые угрозы: голосовые дипфейки и социальная инженерия. В 2024 году участились случаи, когда злоумышленники с помощью нейросетей имитируют голоса близких, коллег или руководителей, чтобы выманить деньги. Как это работает? 🔺Мошенники собирают открытые данные жертвы из соцсетей: имена родственников, круг общения, место работы. 🔺На основе аудио- и видеозаписей (например, из публичных Stories или прямых эфиров) создают поддельный голос или даже видео (дипфейк). 🔺Звонят жертве, представляясь знакомым, и просят срочно перевести деньги под предлогом экстренной ситуации. Как распознать подделку? 🔺Неестественная мимика или задержки в речи. 🔺Редкое моргание на видео. 🔺Нелогичные просьбы («переведи день
Депутаты Госдумы предложили ужесточить наказание за преступления с использованием ИИ
10 апреля 202510 апр 2025
48
1 мин