Найти в Дзене

Депутаты Госдумы предложили ужесточить наказание за преступления с использованием ИИ

Законодатели планируют внести изменения в ст. 63 УК РФ, чтобы использование искусственного интеллекта в преступных целях стало отягчающим обстоятельством. Эта инициатива связана с ростом высокотехнологичных мошеннических схем, наносящих значительный ущерб гражданам и бизнесу.   ❗️Новые угрозы: голосовые дипфейки и социальная инженерия.  В 2024 году участились случаи, когда злоумышленники с помощью нейросетей имитируют голоса близких, коллег или руководителей, чтобы выманить деньги.   Как это работает? 🔺Мошенники собирают открытые данные жертвы из соцсетей: имена родственников, круг общения, место работы.   🔺На основе аудио- и видеозаписей (например, из публичных Stories или прямых эфиров) создают поддельный голос или даже видео (дипфейк). 🔺Звонят жертве, представляясь знакомым, и просят срочно перевести деньги под предлогом экстренной ситуации.   Как распознать подделку? 🔺Неестественная мимика или задержки в речи.   🔺Редкое моргание на видео.   🔺Нелогичные просьбы («переведи день

Законодатели планируют внести изменения в ст. 63 УК РФ, чтобы использование искусственного интеллекта в преступных целях стало отягчающим обстоятельством. Эта инициатива связана с ростом высокотехнологичных мошеннических схем, наносящих значительный ущерб гражданам и бизнесу.  

❗️Новые угрозы: голосовые дипфейки и социальная инженерия. 

В 2024 году участились случаи, когда злоумышленники с помощью нейросетей имитируют голоса близких, коллег или руководителей, чтобы выманить деньги.  

Как это работает?

🔺Мошенники собирают открытые данные жертвы из соцсетей: имена родственников, круг общения, место работы.  

🔺На основе аудио- и видеозаписей (например, из публичных Stories или прямых эфиров) создают поддельный голос или даже видео (дипфейк).

🔺Звонят жертве, представляясь знакомым, и просят срочно перевести деньги под предлогом экстренной ситуации.  

Как распознать подделку?

🔺Неестественная мимика или задержки в речи.  

🔺Редкое моргание на видео.  

🔺Нелогичные просьбы («переведи деньги на непонятный счет»).  

Как защититься?

🔺Минимизируйте свой цифровой след: не публикуйте личные фото/видео в открытом доступе.  

🔺Не используйте слова «Да», «Подтверждаю»

в разговорах с незнакомцами — это может стать образцом для голосового клонирования.  

🔺Проверяйте неожиданные просьбы через альтернативные каналы связи (например, перезвоните знакомому на его настоящий номер).  

Масштаб проблемы 😲

По данным правоохранительных органов, в 2024 году ущерб от кибермошенничества в России достиг 200 млрд рублей (+36% к 2023 году). Особую тревогу вызывают дипфейки, которые применяют для:  

✔ Финансового мошенничества,  

✔ Шантажа,  

✔ Дискредитации людей.  

Что планируют изменить?

5 апреля на совещании с правительством было решено:  

🔺Ввести уголовную ответственность за создание и распространение дипфейков в преступных целях.  

🔺Обязать соцсети и мессенджеры оперативно блокировать подобный контент.  

🔺Усилить регулирование биометрических данных (голос, лицо) для предотвращения их несанкционированного использования.

🤔Эксперты сомневаются, успеет ли законодательство за технологиями мошенников, но первые шаги уже делаются. 🙏

#борьбасмошенниками #Законодательство #искуственныйинтеллект #дипфейк 

#адвокатВишнева