Что произошло
- OpenAI объявила о сотрудничестве с американскими профсоюзами и агентствами представления интересов актёров — SAG-AFTRA, UTA, ATA, CAA — чтобы предотвратить deepfake‑контент на базе видео‑генератора Sora. В центре внимания — защита голоса и внешности исполнителей.
- Поводом стали инциденты после релиза Sora 2 (конец сентября): пользователи сгенерировали видео, имитирующие голос и образ Брайана Крэнстона без разрешения. Также на прошлой неделе OpenAI заблокировала ролики с неуважительным изображением Мартина Лютера Кинга по запросу наследственного фонда.
Какие меры вводит OpenAI
- От opt‑out к более точному контролю: 3 октября Сэм Альтман обновил политику — правообладатели получают более «гранулярное» управление ролями/персонами в генерации. Ранее действовала логика «можно, пока не запретили» (opt‑out); теперь фокус смещён на тонкую настройку запретов по образам/ролям.
- Голос и образ — только по opt‑in: использование персонального голоса/внешности по умолчанию запрещено и требует явного согласия. Компания обещает оперативно обрабатывать жалобы на нарушения.
- Публичная поддержка законопроекта против deepfake: OpenAI подтверждает поддержку американского «No Fakes Act», направленного на запрет несанкционированного использования голоса/образа в ИИ‑контенте.
- Совместная разработка защитных практик: работа с профсоюзами и агентствами предполагает создание процедур уведомлений, эскалации жалоб, технических фильтров и правовых «стоп‑листов» персон.
Почему это важно
- Стандарты отрасли: участие SAG‑AFTRA, CAA, UTA формирует де‑факто стандарты согласия, верификации и модерации для генеративного видео. Это повышает правовую определённость и снижает риск массовых исков.
- Сдвиг в сторону «безопасной по умолчанию» генерации: переход от «реактивного opt‑out» к «превентивному контролю» и более точным правам на персонажей/образы.
- Баланс инноваций и прав: кейсы с известными личностями показывают, что без чётких фильтров Sora может быстро стать источником репутационных и юридических рисков.
Что это меняет для пользователей и студий
- Для креаторов:
- Нужны явные разрешения на использование конкретных голосов/внешности (opt‑in).
- Растёт вероятность срабатываний фильтров при попытке имитации узнаваемых персон.
- Стоит хранить «дорожные карты прав»: кто дал согласие, на какой срок, для каких сцен/ролей.
- Для брендов и продакшена:
- Внедряйте процессы clearance: проверка прав, журнал согласий, юридические шаблоны для цифровых двойников.
- Готовьте альтернативные «синтетические» голоса/образы с уникальными метаданными, чтобы не пересекаться с реальными лицами.
- Для платформ и агентств:
- Создавайте реестры защищённых персон (в т.ч. умерших публичных фигур) и API‑интерфейсы запрета использования.
- Развивайте watermarking/traceability, чтобы ускорять разбор жалоб и блокировки.
Открытые вопросы
- Техническая валидность «схожести»: где порог сходства, при котором контент признаётся нарушающим права на образ/голос?
- Ретроактивность и архив: как поступать с уже сгенерированным контентом до новых правил; обязательна ли регенерация?
- Международное право: согласование правил Sora для юрисдикций с разной охраной имидж‑прав и посмертной охраной.
Вывод
OpenAI переводит Sora в режим «регулируемой генерации» с опорой на профсоюзы и агентства. Тренд ясен: «разрешение прежде генерации», тонкая настройка ролей и быстрый «redress» по жалобам. На практике это означает более надёжные рамки для студий и брендов — и меньше рисков для платформы. Следующим шагом станут отраслевые реестры согласий, автоматические фильтры сходства и юридически верифицируемая трассировка происхождения контента.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru