Найти в Дзене
27 подписчиков

Эксперты выявили опасность дипфейков и сложности их обнаружения


Искусственный интеллект становится всё более опасным: эксперт рассказал, как дипфейки могут навредить людям. Сейчас любой человек может стать героем поддельного видео, которое можно создать за считанные секунды. Отличить реальность от подделки становится всё сложнее.

Адам Пилтон, консультант по кибербезопасности компании CyberSmart и бывший детектив, который специализировался на расследовании киберпреступлений, рассказал в интервью изданию The Sun о быстром развитии технологий искусственного интеллекта и связанных с этим рисках. В частности, он говорил о дипфейках — видео и аудио, созданных с помощью искусственного интеллекта.

Дипфейки используют нейросети для создания убедительных видеороликов. Они могут копировать движения, речь и даже пение человека. Нейросети способны легко клонировать голос любого человека, используя лишь несколько секунд записи.

«ИИ…

Эксперты выявили опасность дипфейков и сложности их обнаружения  Искусственный интеллект становится всё более опасным: эксперт рассказал, как дипфейки могут навредить людям.
Около минуты