Найти тему
130,9 тыс подписчиков

Когда в марте американская компания презентовала приложение для быстрого создания любым пользователям дипфейков, я написала, что это будет употреблено главным образом для мошенничества. И вот уже первые результаты. Так, в Китае мошенники выманили у человека более 600 тыс. долларов, позвонив ему от имени друга, который просил в долг для вложения в инвестиции. Китаец подробно обговорил с другом и перевод денег, и гарантии, и сроки возврата. Перевел. Оказалось - дипфейку.

Кстати, помню, что впервые я обстоятельно писала об этом несколько лет назад, когда Сбербанк, кажется, запустил рекламу с дипфейком Куравлева. Впереди нас ждут отчаянные времена и такие проблемы, что нынешние покажутся ерундой. Человечество, конечно, научится с ними справляться. Ведь научились мы жить в условиях, когда любой мог написать нам в интернете от любого имени, когда появилась возможность подменять телефонные номера. И здесь научимся, но времени потребуется больше.
Слово "дипфейк" я, кстати, не люблю, очень неприятное. Но синонимов емких нет
Анастасия Миронова
21 марта 2023
Американская компания разработала сервис для массового создания дипфейков. Достаточно загрузить фрагмент своего видео и нужный текст - искусственный интеллект сделает остальное и вы получите видеооткрытку, в которой произносите совсем не тот текст, что был у вас изначально записан. Удобно, можно делать десятки открыток. Написала для портала "Альтернативная литература" о том, чем вообще может нам грозить появление в массах таких технологий. О восстании ИИ говорят сегодня исключительно в контексте технического сбоя, который может развернуть машины против человека. Но куда вероятней сценарий, при...
Около минуты
8541 читали