В последние годы нейросети ворвались в повседневную жизнь, меняя способы работы с текстами, изображениями и даже видео. Они дарят нам потрясающие возможности — от создания креативных произведений до медицинских открытий. Но вместе с этим возникает и другая сторона медали: технологии используются не только во благо, но и для создания дипфейков — искусственно сгенерированных изображений, аудио или видео, которые сложно отличить от настоящих. Эти “подделки” могут выглядеть настолько правдоподобно, что даже экспертам бывает непросто их распознать. Термин “дипфейк” (от англ. deepfake — глубокая подделка) появился с развитием генеративных нейросетей. С их помощью можно заменять лица на видео, создавать “говорящие головы”, имитировать голоса и мимику настоящих людей. Изначально такие технологии разрабатывались для развлечения и киноиндустрии — например, чтобы “омолодить” актёра или воссоздать ушедших звёзд. Однако дипфейки быстро нашли применение в менее этичных целях. Легко вообразить послед
Обратная сторона нейросетей: опасности дипфейков и как с ними бороться
17 марта17 мар
9
3 мин