Найти тему
КОСМОС

Что, черт возьми, происходит в OpenAI?

Обьявление о новой волне ключевых уходов из руководства OpenAI, включая технического директора Миру Муратти, главного научного сотрудника Боба МакГрю и главу отдела пост-обучения Баррета Зофа, вызвало дальнейшие потрясения, породив спекуляции о будущем одной из самых влиятельных компаний мира под руководством Сэма Альтмана.

Уход этих ключевых фигур дополняет список покинувших компанию, среди которых Илья Суцкевер и Ян Лейке из команды по выравниванию и безопасности, Гретхен Крюгер из отдела политических исследований, Дэниел Кокотайло и Уильям Сондерс из отдела безопасности, Джон Шульман, соучредитель компании и архитектор ChatGPT, и Грег Брокман, соучредитель и президент. Некоторые из них ушли, чтобы создать свои собственные инициативы, другие присоединились к конкурентам, таким как Anthropic, а некоторые пока не объявили о своих дальнейших шагах. Очевидно, что работа в такой компании, как OpenAI, открывает все двери и позволяет людям уходить без опасений за свое будущее.

Постоянный уход старших сотрудников OpenAI, по-видимому, вызван сочетанием внутренних и внешних факторов, отражающих напряжение внутри компании по мере ее расширения. Очевидно, одной из главных проблем является переход от ее первоначальной модели работы как некоммерческой исследовательской организации к более коммерчески ориентированной. Этот сдвиг в сторону получения прибыли вызвал трения между менеджерами, сосредоточенными на этическом развитии ИИ, и теми, кто настаивает на быстром росте и увеличении доходов.

Несколько человек, включая соучредителя Илью Суцкевера и эксперта по безопасности Яна Лейке, покинули компанию из-за обеспокоенности тем, что OpenAI отдает предпочтение «блестящим продуктам» в ущерб важным исследованиям в области безопасности, особенно в том, что касается выравнивания развития так называемого искусственного общего интеллекта (AGI).

Кроме того, финансовые давления на компанию значительно возросли. Несмотря на значительные доходы, OpenAI, как известно, тратит гораздо больше, чем зарабатывает, что привело к обсуждению возможных новых раундов инвестиций и дальнейшей коммерциализации для увеличения доходов в ближайшей перспективе. Это напряжение между этическим развитием ИИ и стремлением к прибыльности многие считают ключевым фактором, который привел к уходу Муратти и Шульмана.

Последняя волна уходов может рассматриваться как часть продолжающейся борьбы за лидерство, которая привела к краткосрочному отстранению Сэма Альтмана с поста генерального директора в начале этого года, дестабилизировав организацию. Эти факторы способствуют сложному периоду для OpenAI, которая пытается найти хрупкий баланс между инновациями, безопасностью и коммерческим успехом.

Уход топ-менеджеров представляет собой несколько угроз, как в краткосрочной, так и в долгосрочной перспективе, как для OpenAI, так и для ее генерального директора и центральной публичной фигуры — Сэма Альтмана, включая внутренние проблемы, репутационные риски и конкурентное давление.

Уход Шульмана и Муратти вызывает опасения по поводу преемственности в руководстве и удержания талантов. Это люди, сыгравшие ключевые роли в создании некоторых из основных технологий OpenAI, таких как обучение с подкреплением и ChatGPT как продукта. В результате OpenAI может столкнуться с трудностями в поддержании текущей траектории и сохранении темпов инноваций на фоне быстро развивающегося ландшафта ИИ. Изменения в руководстве могут повлиять на моральный дух сотрудников, так как они могут утратить уверенность в стабильности компании и ее долгосрочном видении.

OpenAI всегда стремилась позиционировать себя как лидера в ответственном развитии ИИ. Но уход экспертов по безопасности и выравниванию, таких как Суцкевер и Лейке, указывает на растущие внутренние противоречия в отношении приоритета коммерциализации над безопасностью. Эти уходы, а также критические комментарии некоторых бывших руководителей по этому поводу могут подорвать репутацию OpenAI как организации, занимающейся этическими и ответственными исследованиями ИИ, что может привести к общественной критике или даже возможному вмешательству регулирующих органов. Более того, потеря доверия может даже затруднить сотрудничество с исследователями и учреждениями, которые придают первостепенное значение безопасному развитию ИИ.

Эволюция OpenAI в сторону коммерческой, прибыльной бизнес-модели уже привела к внутренним и внешним конфликтам. По мере того как компания ищет новые раунды финансирования и пытается увеличить свою оценку, возможно, до 150 миллиардов долларов, ей предстоит найти хрупкий баланс между прибыльностью и этическим развитием ИИ. Конкуренты, такие как Anthropic, основанные бывшими сотрудниками OpenAI, привлекают лучших специалистов и позиционируют себя как сильные альтернативы, ориентированные на безопасность, что еще больше усиливает уже и без того высокую конкуренцию.

Кроме того, несмотря на коммерческие успехи OpenAI и рост числа подписчиков, очевидно, что компания тратит гораздо больше, чем зарабатывает: расходы в размере 7 миллиардов долларов в год являются неустойчивыми. Такой уровень расходов оказывает давление на OpenAI, заставляя ее быстрее коммерциализировать свои технологии и привлекать дополнительное финансирование, что может привести к поспешным решениям, ставящим краткосрочные финансовые цели выше долгосрочной безопасности и инноваций. Финансовые проблемы также могут ограничить способность привлекать и удерживать лучших специалистов, особенно если финансовое будущее компании становится неопределенным, а они видят угрозу для оценки своих опционов на акции.

Все это, очевидно, угрожает лидерству Альтмана: его кратковременное смещение могло вызвать резкие разногласия внутри компании. Исход топ-менеджеров может теперь усилить сомнения в его способности вести компанию в направлении, которое балансирует инновации, безопасность и прибыльность. Если также нарастают сомнения по поводу показателей OpenAI, растет общественная критика по этическим вопросам, или компания оказывается в поле зрения регуляторов, Альтман может легко оказаться под новым пристальным вниманием как со стороны совета директоров, так и могущественных инвесторов, обладающих значительным влиянием.

Запустив нынешнюю эру генеративного ИИ с запуском Dall-E и ChatGPT в 2022 году, OpenAI по-прежнему имеет возможность формировать будущее. Но ее способность делать это будет зависеть от стабильности, последовательности и способности продолжать восприниматься как надежный ориентир. Если это окажется под угрозой, то будет поставлено под угрозу гораздо больше, чем просто инвестиции нескольких человек: последствия могут быть геополитическими. Придется наблюдать, как будут развиваться события в ближайшие месяцы.

С подпиской рекламы не будет

Подключите Дзен Про за 159 ₽ в месяц