Может ли генеративный ИИ использовать ваш голос или его производные без вашего согласия? Представьте: вы просыпаетесь и вдруг узнаете, что ваш голос, или его точная копия, используется ИИ без вашего ведома. Именно в такую ситуацию попала Скарлетт Йоханссон, когда OpenAI представила Sky — новый голос для ChatGPT, напоминающий Саманту из фильма «Она», озвученного актрисой.
Йоханссон отказалась разрешить OpenAI использовать её голос, но была шокирована, когда узнала, что похожий голос всё же использовали. В ответ на её жалобу OpenAI временно отключила этот голос и заверила, что он принадлежал не Йоханссон, а другой актрисе, использующей свой естественный голос. Этот случай поднял важный вопрос: насколько законно использовать чей-то голос, даже если он немного изменён?
Клонирование голосов и права на образ
Очевидно, что клонирование голосов подчиняется ряду юридических требований, и вы не можете просто так использовать чей-либо голос, будь то настоящая запись или её «клон». Каждый из нас имеет права на свою личность, включая так называемые «права на образ». Эти права защищают элементы вашей уникальной идентичности, такие как внешность, силуэт, имя и, конечно, голос.
Именно права на образ находятся в центре этого спора. Это право, на основе которого каждый из нас может контролировать использование своей личности (в том числе в коммерческих целях). Хотя права на образ в разных странах признаны по-разному и их объем зависит от контекста и известности человека (известные люди чаще сталкиваются с использованием их изображений, имен или голосов), они играют ключевую роль в защите от незаконной эксплуатации и тесно связаны с правом на частную жизнь.
Ситуация с Йоханссон показывает, как клонирование голосов может нарушать права на образ. Несмотря на утверждения OpenAI, что использованный голос не принадлежал Йоханссон, общественный резонанс поднял множество вопросов о согласии и этическом использовании голосов, подчеркивая важность защиты индивидуальной идентичности в эпоху ИИ. Не говоря уже о глубоких этических и психологических вопросах, связанных с клонированием голосов умерших близких.
Технологии против законов: кто кого?
Случай с Йоханссон — это яркий пример того, как технологии иногда обгоняют законы. С развитием ИИ создание синтетических голосов, которые могут точно имитировать реальные, стало проще, а значит, и риски злоупотреблений выросли. Эти технологии позволяют подделывать идентичности для мошенничества, распространения дезинформации и создания «глубоких фейков».
Интересно, что в новом Законе об ИИ, принятом в ЕС, глубокие фейки классифицируются как «низкорисковые» технологии, которые не запрещены. Но это не значит, что другие законы, такие как права на образ, авторские права или GDPR, не могут ограничить их использование.
Позитивные стороны синтетических голосов
Конечно, ИИ-голоса могут принести и много пользы. Они, например, являются важной составляющей для выполнения обязательств, предусмотренных Европейским актом о доступности, который нацелен на обеспечение доступности товаров и услуг для людей с ограниченными возможностями по всему ЕС. Однако конфликты, подобные случаю с Йоханссон, подчёркивают необходимость чётких правовых рамок и осознанного использования ИИ.