Найти тему
BFM.ru

Генератор видео от OpenAI может угрожать выборам в США

Фальшивые видео могут сеять путаницу и хаос, пишет Bloomberg. Например, Sora можно использовать как инструмент, чтобы показать длинные очереди в плохую погоду и тем самым убедить людей, что не стоит принимать участие в выборах. Но опасность сервиса этим не ограничивается

   Dado Ruvic/Reuters
Dado Ruvic/Reuters

В середине февраля OpenAI представила новую нейросеть Sora для создания видео на основе текстовых инструкций. Разработка может повлиять на президентские выборы США. По крайней мере, такие опасения по поводу возможностей сервиса высказывает Bloomberg.

На прошлой неделе презентация платформы впечатлила специалистов и простых пользователей. Если верить OpenAI, Sora по короткому запросу способна рисовать гиперреалистичные ролики с любым содержанием — от космонавта в вязаном скафандре до собак-подкастеров.

Пока компания проводит тестирование модели на предмет уязвимостей и возможных злоупотреблений, но Bloomberg уже бьет тревогу. Как пишет агентство, никакие ограничения на насилие или изображения знаменитостей не сделают инструмент абсолютно безопасным. Например, в день голосования злоумышленники могут создать огромное число видео с очередями или беспорядками на участках и тем самым подавить явку. В связи с этим агентство предлагает OpenAI «серьезно подумать» над тем, чтобы не выводить Sora до ноябрьских выборов.

Продолжает ведущая Firstpost Палки Шарма:

«Это очень продвинутая технология. Сложно представить все области применения. Можно делать стоковые видео, можно использовать кадры в сторителлинге, проводить рекламные кампании, даже применять в новостях. Все это делает Sora крайне значимым инструментом. Есть и ограничения. Сервис делает видео не длиннее одной минуты, а сексуализированный контент, насилие и изображения знаменитостей полностью запрещены. Но достаточно ли этого? Это уже не смешной чат-бот или генератор картинок — Sora преобразует реальность. Пользователи соцсетей научились распознавать обычные фейки, но что если дезинформация будет подкреплена видеозаписью? Может быть, политика нарисуют берущим взятки. Может быть, покажут несуществующие бунты и беспорядки. Или поставят в неудобное положение какую-то знаменитость. Или даже нарисуют приземление инопланетного корабля. Все это может завируситься. Да, конкретно Sora это запрещает, но в Сети появится масса других сервисов, которые не будут регулироваться. Мы уже видели массу примеров. В том числе фейковые звонки голосом Джо Байдена или дипфейк-порно с Тейлор Свифт».

На данный момент Sora доступна только закрытому кругу тестировщиков. В OpenAI сообщили, что защищенность сервиса также проверяют методом «красных команд», когда специалисты по безопасности выступают в роли хакеров и проводят атаки на инфраструктуру.

Сроки релиза Sora для широкой публики не называются. По оценкам Bloomberg, платформа может быть открыта уже будущим летом.