OpenAI только что закрыла Sora, свой амбициозный инструмент генерации видео, спустя всего шесть месяцев после запуска. Внезапное закрытие произошло без предупреждения на прошлой неделе, оставив пользователей в затруднительном положении, и вызвало множество вопросов. Тайминг выглядит особенно плохим — Sora активно собирала данные лиц пользователей через функции загрузки, что вызвало немедленные спекуляции о том, было ли это всегда операцией по сбору данных, замаскированной под запуск продукта.
OpenAI фактически убила Sora, и компания не говорит много о причинах. Инструмент генерации видео, который запустился с большой помпой в сентябре прошлого года, исчез из общественного доступа на прошлой неделе, что застало даже опытных пользователей врасплох. Ни периода завершения, ни возможности миграции — просто внезапное закрытие, которое заставляет технологическое сообщество задаваться трудными вопросами.
Обстоятельства, связанные с гибелью Sora, выглядят особенно подозрительно. В отличие от ChatGPT или DALL-E, Sora представила функцию, которая активно побуждала пользователей загружать фотографии своих лиц для генерации персонализированного видео контента. Тысячи пользователей согласились, обеспечив систему именно тем типом биометрических данных, который стал золотом для обучения ИИ. Теперь, когда OpenAI отключила платформу, эти пользователи хотят знать, что происходит с их данными.
Согласно источникам, знакомым с ситуацией, shutdown не был вызван техническими сбоями или недостатком интереса. Sora, как сообщается, привлекла преданную базу пользователей, экспериментирующих с разными форматами, от маркетингового контента до экспериментального кинематографа. Внезапное исчезновение приложения наводит на мысли о чем-то большем — возможных регулирующих давлениях или стратегическом повороте к интеграции возможностей Sora в существующие продукты OpenAI вместо того, чтобы поддерживать его как отдельное предложение.
Конкуренция на Рынке Генерации Видео
Пространство генерации видео становится все более конкурентным и сложным. Meta запустила свои собственные инструменты ИИ для видео в последнем квартале, в то время как Google тихо внедряет видеовыводы в свою экосистему Gemini. Runway, независимый стартап, который работает в этой области дольше, чем технологические гиганты, продолжает быстро развивать свою платформу Gen-3. OpenAI могла посчитать, что Sora не сможет конкурировать как отдельный продукт, когда конкуренты объединяют генерацию видео в более крупные платформы.
Проблема Данных
Но вопрос данных стоит на первом плане. Условия использования OpenAI всегда оставляли широкие права на использование загруженного контента для обучения моделей, хотя компания под давлением общественности ослабила некоторые из этих положений. Данные лиц находятся в совершенно другой категории — это биометрическая информация, подлежащая строгим регулированиям в юрисдикциях, таких как ЕС в рамках GDPR и штат Иллинойс по закону о защите биометрической информации. Если OpenAI собрала фотографии лиц без надлежащих рамок согласия, это может открыть компанию для юридической ответственности.
К правозащитникам уже начинают поступать сигналы тревоги. Схема выглядит знакомо — запустить потребительский продукт, собрать ценные данные для обучения, а затем закрыть публичный инструмент, сохранив данные для внутреннего использования.
Проблема конфиденциальности уже вызывает серьезные опасения. Модель, хоть и кажется проверенной, теперь подверглась анализа с другой стороны, поскольку биометрическая информация может быть использована неправомерно.
Что Будет Дальше?
Наблюдатели отрасли отмечают, что OpenAI сосредоточивается на консолидации продуктов, а не на расширении своего потребительского приложения. Фокус компании явно сместился в сторону корпоративного развертывания и доступа к API, где и находится основной доход. Потребительские эксперименты, такие как Sora, могли выполнять свою функцию исследовательских средств и механизмов сбора данных, делая их ненужными после выполнения своих основных задач.
Ситуация на конкурентном рынке также резко изменилась в ходе краткой жизни Sora. Когда OpenAI впервые продемонстрировала технологию в начале 2024 года, она выглядела значительно впереди конкурентов. К моменту, когда Sora была выпущена в сентябре 2025 года, Adobe уже интегрировала генерацию видео в Firefly, Stability AI запустила Stable Video Diffusion, и разрыв значительно сократился. Поддержка отдельного продукта в такой среде требует постоянных инвестиций, которые могут не соответствовать более широкой стратегии OpenAI.
Проблема Конфиденциальности
Что произойдет дальше, имеет колоссальное значение. Если OpenAI объявит, что возможности Sora будут интегрированы в ChatGPT или новый продукт, это подтвердит теорию консолидации. Если функции распознавания лиц или персонализации появятся в будущих выпусках OpenAI, вопросы о повторном использовании данных только возрастут. И если регуляторы начнут задавать вопросы о данных лиц, собранных Sora, OpenAI может столкнуться с самым серьезным кризисом конфиденциальности.
На данный момент бывшие пользователи Sora оставлены в подвешенном состоянии, их загруженные данные лиц, предположительно, хранятся на серверах OpenAI без четкого пути к удалению или прозрачности по поводу будущего использования. Компания, которая настаивала на необходимости регулирования ИИ, внезапно выглядит так, будто ей нужно применение самих правил.
Внезапное закрытие Sora со стороны OpenAI поднимает некомфортное напряжение между потребностью ИИ-компаний в данных для обучения и правами пользователей на конфиденциальность. Будет ли это всегда игрой по сбору данных или просто продуктом, который не вписался в эволюционную стратегию компании, неопределенность вокруг того, что произойдет с загруженными пользователями лицами, создает тревожный прецедент. По мере того как инструменты ИИ всё чаще требуют биометрические данные для предоставления персонализированных услуг, отрасли нужны более четкие правила о хранении данных, их использовании и удалении — прежде чем еще больше продуктов таинственным образом исчезнет с самыми чувствительными данными пользователей на руках.