Недавно фраза «это есть на видео» означала конец спора. Камера считалась объективным свидетелем. Сегодня технологии deepfake позволяют создавать убедительные синтетические видео и аудио — с участием политиков, публичных фигур и обычных людей. И главный вопрос уже не только технологический, а юридический: что с этим делать и как защищаться? К счастью в нашей команде работает отличный юрист, Сергей Мадыкин, который разложил всё по полочкам По действующему законодательству создание и распространение дипфейков может квалифицироваться сразу по нескольким основаниям. Во-первых, это нарушение права на изображение (статья 152.1 Гражданского кодекса РФ). Технологии используют биометрические признаки лица для создания синтетического контента без согласия человека — а это незаконно. Судебная практика уже подтверждает, что даже сгенерированные нейросетью изображения могут быть объектом правовой охраны. Во-вторых, возможна уголовная ответственность за клевету, если дипфейк содержит ложную информац