В России обсуждают сразу несколько законодательных инициатив, связанных с регулированием дипфейков. Эта технология на основе искусственного интеллекта, позволяющая подменять голос и изображение человека, набирает популярность у мошенников. Они используют ее, чтобы получить деньги, персональную информацию или добиться определенной реакции жертвы. Как рассказали в Ассоциации развития финансовой грамотности, от бизнесменов в российских регионах уже поступают сигналы о случаях использования дипфейков для кражи денег. Например, показательный случай произошел в Нижнем Новгороде: бухгалтеру местной компании позвонила ее начальница и попросила передать миллион рублей наличными из сейфа в руки курьера. Курьер тут же подъехал, все забрал. И только потом выяснилось, что звонила не директор фирмы, а мошенники, которым удалось подделать голос и интонации человека. Начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд отмечает: для России дипфейки пока не очень распространенное явл
Однажды из-за дипфейка инвестор потерял 35 млн долларов. Как это можно было предотвратить?
27 февраля 202427 фев 2024
26
3 мин