Как сообщает Variety со ссылкой на данные исследования компании HarrisX, люди часто не могут отличить сгенерированные нейросетью OpenAI Sora видеоролики от настоящих, снятых на камеру. В соответствующем опросе приняли участие более 1000 американцев, и, как выяснилось, большинство из них неверно оценили 5 из 8 роликов, отобранных авторами эксперимента.
По мнению специалистов, результаты данного исследования в очередной раз свидетельствуют, что контент, создаваемый генеративными нейросетями становится все более реалистичным, и со временем может стать неотличимым от реального даже при использовании специальных инструментов. Во многих странах эту проблему предлагают решать при помощи законодательного регулирования с обязательным требованием помечать сгенерированный нейросетями контент, чтобы он не вводил пользователей в заблуждение. Тем не менее, мошенники и пранкеры в любом случае могут использовать возможности искусственного интеллекта в незаконных или сомнительных целях – например, для создания фальшивых видеороликов с участием политиков и знаменитостей.