Найти тему
OVERCLOCKERS.RU

HarrisX: люди не могут отличить созданные нейросетью OpenAI Sora видео от настоящих

Как сообщает Variety со ссылкой на данные исследования компании HarrisX, люди часто не могут отличить сгенерированные нейросетью OpenAI Sora видеоролики от настоящих, снятых на камеру. В соответствующем опросе приняли участие более 1000 американцев, и, как выяснилось, большинство из них неверно оценили 5 из 8 роликов, отобранных авторами эксперимента.

По мнению специалистов, результаты данного исследования в очередной раз свидетельствуют, что контент, создаваемый генеративными нейросетями становится все более реалистичным, и со временем может стать неотличимым от реального даже при использовании специальных инструментов. Во многих странах эту проблему предлагают решать при помощи законодательного регулирования с обязательным требованием помечать сгенерированный нейросетями контент, чтобы он не вводил пользователей в заблуждение. Тем не менее, мошенники и пранкеры в любом случае могут использовать возможности искусственного интеллекта в незаконных или сомнительных целях – например, для создания фальшивых видеороликов с участием политиков и знаменитостей.