592,1 тыс подписчиков
💬💬💬💬💬
Технология будущего не в тех руках. Как в России хотят наказывать за дипфейки?
Изображения реальных людей, сгенерированные нейросетями, начали активно использовать мошенники. Они делают с помощью ИИ порнографические материалы для шантажа жертвы или другие материалы для обмана и выманивания у людей денег. Помимо аферистов, дипфейки используют блогеры, которые создают забавные ролики с лицами знаменитостей в нехарактерных для них ситуациях и обстановке. Голосовые дипфейки остаются не менее популярными у злоумышленников.
Эксперт по кибербезопасности Павел Мясоедов рассказал нам, как распознать дипфейк. По его словам, на видео или аудио присутствуют искажения изображения либо звука. Возможно, дилетант это не сразу поймет, но специалист точно отметит.
Поиск создателя дипфейка — более сложный процесс. Есть специалисты, отслеживающие программы, с помощью которых сделаны дипфейки. По виду искажения они могут определить, какой продукт потребовался для создания обманки. Потом эксперты выясняют, откуда искаженный файл появился.
Определять дипфейки будет какой-либо институт, например, при ФСБ или МВД, который наделят такого рода компетенциями, рассказал зампред комитета Госдумы по информационной политике, информационным технологиям и связи Андрей Свинцов.
🔹Он предположил, что этой деятельностью сможет заниматься и сообщество крупных компаний, таких как «Сбер», «Яндекс», «Ростелеком», «Ростех» и других. Структура должна получить серьезные мощности и соответствующих экспертов, заявил народный избранник.
🔹По словам Свинцова, если к осенней сессии депутаты разработают законопроект, то его могут принять в течение года.
Принятие подобного закона было неизбежно, я полностью разделяю инициативу. Сейчас есть множество платных и бесплатных компьютерных программ, которые подделывают изображение, голос. Мошенники всех мастей активно ими пользуются.
А вы как считаете? Пишите в комментариях ⤵️
1 минута
28 мая 2024