Иногда достаточно одного кадра, чтобы почувствовать момент заново.
А что если этот кадр — оживить? Сегодня я решила провести небольшой эксперимент: взять одно фото ребёнка и оживить его сразу в двух нейросетях — Яндекс.Алиса и AI Grok.
Обе умеют «оживлять лица», но делают это по-разному.
И разница оказалась интересной. Я использовала два промпта: Это позволило увидеть, как каждая нейросеть работает с разной степенью детализации. 1 = Простой промпт - 2 = Расширенный промпт 1 = Простой промпт - 2 = Расширенный промпт Есть ещё одна деталь, которая сильно меняет восприятие результата. Лёгкие эффекты, ритмичные хлопки, фоновая атмосфера — всё это делает ролик более «законченным», как маленький монтаж.
Видео воспринимается эмоциональнее и динамичнее, потому что звук усиливает действие. Только движение — чистое, спокойное, аккуратное.
Это создаёт эффект реализма: кажется, что видео снято в тишине, как бы в естественной среде. В итоге: Ещё одно важное отличие — сколько длится оживлённое ви