OpenAI представила свою новейшую систему искусственного интеллекта — программу под названием Sora, которая может преобразовывать текстовые описания в фотореалистичные видеоролики. Работает по тому же принципу, что и генератор Midjourney. Модель создания видео вызывает ажиотаж по поводу развития технологий искусственного интеллекта.
С точки зрения продолжительности и реализма, Sora представляет собой новейшее видео, созданное с помощью искусственного интеллекта. «Мои коллеги и я очень удивлены, увидев уровень качества, продемонстрированный Sora», — говорит Чон Джун Пак, доцент кафедры электротехники и информатики в Мичиганском университете. Парк разрабатывает методы генеративного трехмерного моделирования с использованием методов машинного обучения. Семь месяцев назад Пак сказал, что, по его мнению, модели искусственного интеллекта, способные создавать фотореалистичное видео только из текста, еще очень далеки и требуют серьезного технологического скачка. «Я не ожидал, что видеогенераторы улучшатся так быстро, а качество Sora полностью превзошло мои ожидания», — говорит он сейчас.
Появление Sora сигнализирует о том, насколько быстро достигаются определенные достижения в области искусственного интеллекта, подпитываемые миллиардами долларов инвестиций – и этот головокружительный темп также усиливает обеспокоенность по поводу социальных последствий. Sora и подобные инструменты угрожают средствам существования миллионов людей во многих творческих областях. И они выглядят как вероятные усилители цифровой дезинформации.
OpenAI воздерживается от обнародования Sora, пока проводит учения «красной команды», где эксперты пытаются нарушить защиту модели ИИ, чтобы оценить ее потенциал для неправомерного использования. Избранная группа людей, которые в настоящее время тестируют Sora, — это «эксперты в таких областях, как дезинформация, разжигающий ненависть контент и предвзятость», говорит представитель OpenAI.
Это тестирование жизненно важно, поскольку искусственные видеоролики могут позволить злоумышленникам создавать ложные кадры, чтобы, например, преследовать кого-то или повлиять на политические выборы. Дезинформация и дезинформация, подпитываемые дипфейками, созданными ИИ, являются серьезной проблемой для лидеров научных кругов, бизнеса, правительства и других секторов, а также для экспертов в области ИИ.
«Sora абсолютно способен создавать видеоролики, которые могут обмануть обычных людей», — говорит Тобак. «Видео не обязательно должно быть идеальным, чтобы быть правдоподобным, поскольку многие люди до сих пор не осознают, что видео можно манипулировать так же легко, как и изображениями».