Мошенники научились применять нейросети, активно используя технологию дипфейков. Об этом рассказал ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов.
— Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, — дипфейков. И они вполне могут использоваться в мошенничестве, например. Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров — это использование образа Илона Маска, — объяснил эксперт.
Он также добавил, что злоумышленники изучают новые способы обмана, в связи с тем, что многие люди уже не доверяют картинкам. Поэтому мошенники начали генерировать дипфейковые видео, которые отличить уже гораздо сложнее, передает РИА Новости.
При этом Тушканов отметил, что запрещать такую технологию точно не стоит. По его словам, нужно лишь научиться правильно ее применять.
Однако Италия, например, в этом плане пошла на более радикальные методы. Так, в марте этого года итальянское управление по защите персональных данных ограничило пользование чат-ботом с искусственным интеллектом ChatGPT из-за несоблюдения правил конфиденциальности.
Эксклюзивы "Вечерней Москвы"
Индийская карта: зачем России нужен «разворот на Восток» и чем он может быть полезен
«Заработок 200+»: кто такой фрилансер, чем занимается и как им стать