Ты просто пошутил не с тем человеком. Или кому-то не понравилось твоё лицо. А на следующий день по школе и соцсетям разлетается видео, где ты делаешь то, чего никогда не делал. Или фото, где ты в неприличном виде. Поздравляю. Ты стал жертвой дипфейка — подделки, созданной нейросетью. Школьники всё чаще используют ИИ для травли сверстников. И это уже не «просто шутка». Это уголовное преступление. Дипфейк (deepfake) — это видео, фото или аудиозапись, созданные искусственным интеллектом, где изображение или голос человека изменены так, что выглядят как настоящие. Особенно страшный вид — порнографические дипфейки, когда лицо жертвы монтируют в интимное видео. По данным на 2025 год, 98% дипфейков — это порнография, а 99% жертв — женщины. Результат: репутация разрушена за один день, а доказать, что это не ты — почти невозможно. Отдельной статьи за дипфейки в УК РФ пока нет. Но это не значит, что создателей не накажут. Их действия подпадают сразу под несколько статей. Статья 137 УК РФ — Нару