Мир генеративного ИИ уже научился писать тексты, рисовать картины и сочинять музыку. Но сейчас главный фокус сместился на видео: все соцсети кипят реалистичными видеороликами от нейросетей. Две модели лидируют в этой гонке – Sora 2 от OpenAI и Kling AI от китайской компании Kuaishou. Обе умеют превращать слова в движущиеся сцены, но делают это по-разному и с разным настроением. OpenAI пошла ва-банк, потому что Sora 2 не просто делает видео, а создаёт целые микрофильмы. Достаточно одного промта с коротким описанием сюжета и за несколько секунд нейросеть выдаст реалистичный клип. В дополнение можно указать нужный формат, стиль и атмосферу картинки. Реализм этой модели выделяет её среди остальных, а всё потому, что Sora старается думать «как физика». Нейросеть учитывает внешние силы, действующие на объект, свет и тень, и в итоге мы видим естественное движение. В комментариях под видео, сгенерированных Sora 2, многие признаются, что не могут отличить их от настоящих роликов, снятых людьм