Консультант по информационной безопасности и юрист Марсель Каренович Габриелов убежден, что развитие технологий AI идет по пути визуализации и симуляции реальности, и скоро многие преступления будут совершать при помощи «аватаров»
Глобальный бизнес по удаленному хищению средств с банковских счетов граждан – это не проделки нескольких банд талантливых жуликов, а серьезный бизнес с прибылью, измеряемой миллиардами долларов в год. Так получилось, что именно граждане нашей страны первыми в мире столкнулись с массированной атакой телефонных мошенников, удаленно и под разными предлогами похищающих их деньги с банковских счетов.
Сейчас мошенникам, помогает излишняя доверчивость людей и относительно слабая защита персональных данных и цифровых активов, но эти дыры в защите пусть и медленно, но устраняются. Преступники тоже не сидят сложа руки, в ближайшем будущем совершенствование нейросетей и мощь искусственного интеллекта (AI) станет не только двигателем технического прогресса, но и могущественным инструментом в руках злоумышленников, возможности которого будут несоизмеримо больше телефонных звонков фальшивых «сотрудников Центробанка».
«Развитие цифровых технологий не только обогнало существующие законы во всех странах мира, но и само представление людей о том, что возможно, а что нет. Говорю совершенно серьезно: сегодня даже разработчики и программисты не знают, где пределы его развития. ИИ обучается быстрее, чем предсказано математическими моделями, и он способен на больше, чем от него ждали, - утверждает президент компании «Габриелов Консалтинг» Марсель Габриелов. - Например, 200 лет назад 99,9% людей не подозревали, что может быть транспорт быстрее лошади или парусного корабля, так и сейчас, мы уверены, «этого не может быть», а оказывается – такие технологии уже есть и преступники уже думают, как можно их использовать в своих схемах».
И главная из таких технологий будущего – дипфейки. Пока они не слишком распространены среди «цифровых мошенников», потому что им пока хватает обычного телефона, но столкнувшись с блокировкой звонков, они начнут активнее использовать мессенджеры, WP и Telegram, а также обязательно обратят внимание на использование дипфейков.
По мнению президента «ГК» Марселя Кареновича Габриелова, «именно эта технология максимально реалистичного синтезированного изображения и голоса человека, назовем ее «аватар» или deepfake, станет основным инструментом цифровых преступников в ближайшем будущем@.
Почему deepfake?
Дипфейки (от англ. deepfake -глубокая, качественная подделка) представляют собой технологию синтеза изображений и видео с использованием искусственного интеллекта, говоря проще, видео и звукозапись, обработанные компьютерной программой. Термин появился в 2017 году на платформе Reddit для описания фейковых порновидео с участием знаменитостей. Откровенно говоря, даже сегодня более 90% дипфейков в Сети – это сексуальный видеоконтент.
Данная технология позволяет создавать волне реалистичное видео, в котором можно менять лицо и фигуру человека, подделывать голос или изображение с кем-либо. Хотя традиционно больше говорят о видео, манипуляции с голосом так же относятся к deepfake.
Принципиально нового в подделке изображения и голоса ничего нет. Двести лет назад преступники гримировались, использовали парики, печатали фальшивые паспорта, потом был фотомонтаж, затем его сменили компьютерные спецэффекты. Раньше компьютерные технологии изменения видео были доступны лишь в фантастических фильмах Голливуда и стоили миллионы долларов, теперь – технологии доступны очень многим, и в том числе жуликам.
Также дипфейки получили широкое распространение в качестве безобидной шутки – всего пять лет назад мир охватила эпидемия бесплатных приложений для смартфона, с помощью которых любой мог состарить на 50 лет свое фото или стилизовать его под любимый сериал. Так разработчики и программисты бесплатно получали контент для совершенствования алгоритмов AI по работе с изображениями.
Технологии не стоят на месте и в настоящее время дипфейки уже не столько безобидны. Их используют, чтобы искусственно манипулировать данными реально существующей личности, в том числе, известной – политика, актера, бизнесмена. Нейросети на базе искусственного интеллекта (ИИ) могут достоверно имитировать голос позвонившего знакомого или родственника.
Разумеется, сейчас можно найти и скачать несколько приложений-видеосканеров на базе технологий искусственного интеллекта: сканер Deepware, алгоритм Analy, приложение Avatarify и др. Но их заключение о «вероятности дипфейка» во-первых, не имеет никакой юридической силы, считайте, таким образом вы просто удовлетворили свое любопытство, а во-вторых, компании, вкладывающие миллиарды долларов в год в нейросети по генерации и симуляции видео и аудио контента, всегда будут на шаг впереди разработчиков сканеров для обнаружения дипфейков.
Почему за дипфейками будущее цифровых преступлений?
Можно сходу назвать несколько причин.
1. Именно на генерацию реалистичных изображений, голоса и видео, а не на генерацию текстов и написание стихов сейчас направлено большинство вычислительных мощностей компаний, занимающихся развитием ИИ.
2. Мозг человека устроен так, что его проще убедить в чем-то, что он видел своими глазами, а если еще дополнить звуком знакомого голоса, то эффект будет еще сильнее. Пример - телевидение. Но я бы смотрел на эту проблему в более отдаленной перспективе: целое поколение, которое мало читает, зато постоянно смотрит видео. Умеет читать, но не имеет навыка и, как следствие – верит видеоконтенту, также как их бабушки и дедушки, которые верили документам с печатью и бумажным газетам.
3. Мы зависим от своих привычек, а привычки людей, родившихся и живущих в цифровом обществе, очень облегчают работу мошенникам. Привычка решать вопросы удаленно, ставить галочки в веб-версиях документов не читая, знакомиться, общаться с людьми в Сети, которых ни разу не видел в реальной жизни. Переводить деньги и совершать покупки товаров, которые видели только на экране смартфона.
4. Сейчас «искусственный интеллект», «дипфейк» - понятия не юридическое, а журналистское, «народная терминология». Поэтому никакой ответственности за их производство и использование в законе не предусмотрено, причем не только в РФ, но остальных стран мира, за редкими исключениями. Более того, судя по недавним словам Дмитрия Пескова, российские власти пока не планируют устанавливать какие-то законодательные ограничения на дипфейки.
5. Нужно понимать простой факт про хищение персональных данных - они уже похищены много раз и больше не тайна. И скорее всего, больше никогда не будут тайной. Пока существует последний рубеж – биометрические данные – их не могут подделать, но технологии не стоят на месте и часть из них уже скоро можно будет подделать жуликам, например - слепок голоса.
6. Снижение стоимости при повышении качества дипфейков, как следствие – их распространенность. Сейчас дипфейк используется как сложная технология под заказное преступление, чтобы обмануть конкретного очень богатого человека или организацию, через несколько лет дипфейк станет «на поток». Чем это опасно - обладая данными на несколько миллионов людей с доходами выше среднего (пусть будет $2 миллиона долларов год ) их фото, фото и видео друзей и родственников, владея другой конфиденциальной информацией, СНИЛС, паспортными данными, можно работать не на удачу, как при телефонном звонке, а адресно, учитывая индивидуальные психологические особенности и даже расписание дня жертвы.
Как мошенники могут это использовать?
Если мы говорим о хищении денег с банковских счетов, и разного рода мошенничество, то можно назвать четыре направления для противоправной активности.
1. Это манипуляции с целью хищения персональных данных, паролей, денег с банковского счета, важной конфиденциальной информации.
2. Шантаж и провокации.
3. Различного рода «разводки»: собеседования на работу, консультации с известными юристами, экономистами по инвестициям.
4. Подделка некоторых биометрических данных. Хотя сейчас нас активно убеждают, что это невозможно, и это на самом деле так. Но кто знает, что будет через 4 года? Насколько возрастут мощности и возможности ИИ, ведь системы защиты не развиваются такими быстрыми темпами. В настоящее время одну из наибольших угроз для биометрических сервисов представляют спуфинг-атаки с виртуальной подменой видео, когда мошенник пытается обмануть систему верификации и выдать себя за другого человека.
Юридическое содержание «борьбы с дипфейками» в России
- Почему я считаю, что мошенники будут все активнее использовать дипфейки в РФ, во-первых, статистика об этом неумолимо свидетельствует статистика МВД, во-вторых, помимо технологических и психологических причин, о которых было сказано выше, есть еще позиция по отношению использования дипфейков в преступных целях со стороны властей РФ. «Я бы охарактеризовал на сегодняшний момент как нейтральную», —говорит Марсель Каренович.
В чем ее суть? Мошенников и цифровые преступления с помощью дипфейков всячески порицают, но на деле ничего не предпринимают для решения этого вопроса на законодательном уровне с помощью специальных правовых актов. В правительстве РФ считается, что дипфейк – это незаконное распространение персональных данных граждан, в том числе с помощью ИИ, и поэтому и так подпадает под статью УК РФ о нарушении неприкосновенности частной жизни.
«Говоря объективно, в этом власти России ничем не отличаются от правительств подавляющего большинства государств мира, например, США. На данный момент, насколько я могу сделать вывод, лишь в Китае и Евросоюзе предпринимаются серьезные попытки на законодательном уровне ограничить использование искусственного интеллекта в целом и технологии deepfake в частности», – считает господин Габриелов Марсель.
По большей части все прежние заявления отечественных чиновников и депутатов о регулировании сферы искусственного интеллекта напоминают личный пиар и не имеют каких-либо реальных последствий.
Например, в мае 2021 г. пресс-секретарь президента РФ Дмитрий Песков заявлял, что угроза дипфейков является «более страшной», чем фейкньюс.
В октябре 2021 г. о дипфейках внезапно заговорил вице-премьер РФ Дмитрий Чернышенко. Он подчеркнул, что использование дипфейков без согласия самих людей недопустимо, и добавил, что технологии, помогающие распознать подмену, существуют.
В октябре 2022 года председатель комитета Государственной Думы по информационной политике, информационным технологиям и связи, депутат от партии "Единая Россия" Александр Хинштейн сообщил журналистам, что Комитет по информполитике «уже готовит соответствующие законодательные инициативы».
Однако в июне 2023 года правительство РФ не поддержали законопроект о введении отдельной уголовной ответственности за распространение дипфейков, автором которого выступил депутат от ЛДПР Сергей Леонов. Причина отказа дословно звучит так: «создание с помощью искусственного интеллекта материалов, содержащих сведения о частной жизни лица, без цели их последующего распространения не обладает достаточной степенью общественной опасности, свойственной преступлению».
Наконец в мае 2024 года о дипфейках снова вспомнил пресс-секретарь президента России: «С дипфейками невозможно бороться полностью», заявил он. Примечательно, что таким образом Дмитрий Песков отреагировал на дипфейк его аудио комментария касательно интервью основателя Telegram Павла Дурова американскому журналисту Такеру Карлсону.
«Главное – понимать, что это дипфейк», – подчеркнул пресс-секретарь президента. Песков уточнил, что так или иначе с дипфейками придется сталкиваться и нужно «оставаться начеку».
Словно не услышав голос из Кремля, в сентябре 2024 года депутаты Госдумы РФ предоставили сразу два законопроекта.
Первый законопроект от партии ЛДПР предлагает внести изменения в УК РФ. За клевету с использованием изображения, голоса (в том числе фальсифицированных или искусственно созданных) или с использованием биометрических персональных данных, предлагается ввести штраф в размере до 1,5 млн. руб., или в размере заработной платы, или другого дохода за период до 18 мес., или назначить лишение свободы до 2-х лет и другие меры. За мошенничество с использованием deepfake предлагают наказывать штрафом в размере до 400 тыс. руб. или в размере зарплаты или другого дохода за период до двух лет, либо лишением свободы на срок до 6 лет с возможным ограничением свободы на срок до полутора лет и другие меры.
Второй законопроект создали депутаты «Единой России», предлагающие внести изменения в ГК РФ и дополнить его статьей 152.3 ("Охрана голоса гражданина"). Законопроект предполагает, что запись голоса человека можно использовать только с его согласия. То же касается и записей, в которых содержится воссозданный с помощью специальных технологий голос гражданина - речь идет о технологиях синтеза речи, дипфейках. В пояснительной записке сказано, что законопроект разработан при участии Альянса в сфере искусственного интеллекта (ИИ) и Национальной федерации музыкальной индустрии.
В случае смерти человека его голос можно использовать только с согласия ближайших родственников. Однако под регулирование попадает не любая запись: если она была записана на публичных мероприятиях, за плату или публикуется в государственных и иных интересах, согласие не нужно. При нарушении материальные носители, содержащие запись голоса, на основании судебного решения должны быть изъяты из оборота и уничтожены. Если голос распространяется в интернете, можно потребовать удалить запись и запретить ее использование в будущем.
Впрочем, несмотря на эти законодательные инициативы сфера искусственного интеллекта и созданных на ее основе технологий дипфейков, в юридическом смысле остается в России совершенной terra incognita. В законодательстве нет определения дипфейка, также совершенно законодательно не определена взаимосвязь сущностей дипфейков и биометрических персональных данных. А раз так, то эта развивающаяся небывалыми темпами технология симуляции реальности будет с каждым годом все активнее использоваться для совершения разнообразных преступлений.