Реальную угрозу информационному веку в России решили взять под контроль. Речь идёт о введении обязательной маркировки для созданного с помощью дипфейков контента. В России уже несколько месяцев обсуждают ограничения на распространение дипфейков – видеоролик, в котором лицо одного человека подменяется другим при помощи алгоритмов машинного обучения. Например, на видео с дипфейком можно сделать так, чтобы человек говорил или делал что-то, чего на самом деле в реальной жизни не было. Технология появилась в 2014-м, создал ее студент Стэнфордского университета Ян Гудфеллоу. В основе дипфейка — нейросеть, которая детально изучает лицо человека, а затем подставляет к исходному файлу лицо «реципиента». Новый импульс обсуждению придал фейк с президентом Владимиром Путиным, который будто бы заявил о прекращении спецоперации на Украине. На видео было заметно, что звук наложен сверху, а произнесенные слова не соответствуют мимике и движению губ. Отчетливо видно, что авторы ролика использовали нал
В России готовят закон против дипфейков
27 января 202327 янв 2023
25
1 мин