Найти тему
КОСМОС

OpenAI продалось. И мы все проиграли.

OpenAI должно было спасти человечество от опасного ИИ. Теперь оно гонится за миллиардами прибыли для инвесторов. Кто же позаботится о нас?

OpenAI, возможно, самое известное имя в области исследований и разработки искусственного интеллекта, стоит на перепутье.

Компания, подарившая нам ChatGPT, готовится к радикальной смене курса — от своих некоммерческих корней к полноценной коммерческой деятельности, что изменит саму природу коммерциализации искусственного интеллекта.

Говоря прямо, OpenAI готово к бизнесу, и бизнес процветает.

Сложная структура OpenAI

Сказать, что структура OpenAI сложная, все равно что сказать, что Сэм Альтман «немного поляризующий».

Основанная в 2015 году как некоммерческая лаборатория для разработки этичного и прозрачного ИИ, OpenAI позиционировала себя как организация с миссией: гарантировать, что искусственный общий интеллект (AGI) принесет пользу всему человечеству. Это была возвышенная, хотя и невероятно претенциозная цель, привлекшая некоторых из лучших умов в этой области, всех объединенных под знаменем ответственной разработки ИИ.

Но благородные намерения редко остаются таковыми, когда сталкиваются с реальностью финансовой выгоды. В 2019 году OpenAI представила дочернюю компанию с «ограниченной прибылью», созданную для привлечения инвестиций, при этом формально сохраняя приверженность общему благу. Лимит на доходность инвесторов был установлен на уровне в 100 раз больше их вложений — цифра настолько астрономическая, что The Observer саркастически заметил, что «это все равно, что его и не существует».

Приближается изменение

В основе текущей структуры OpenAI лежит якобы (читай: формально) независимый некоммерческий совет, который должен направлять этический компас компании. Этот совет не владеет акциями и существует исключительно для обеспечения того, чтобы OpenAI придерживалась своих изначальных принципов. Это придает компании видимость того, что путь к AGI управляется альтруистическими руками.

Но недавние события — скажем так — бросили длинную тень. Попытка совета отстранить генерального директора Сэма Альтмана в 2023 году, за которой последовала чистка его собственных членов, выявила глубокие разногласия в структуре управления OpenAI и вызвала неудобные вопросы о том, кто на самом деле держит бразды правления.

Переход OpenAI к коммерческой модели делает эти вопросы еще более актуальными. По данным Reuters, план заключается в том, чтобы реструктурировать основной бизнес OpenAI в прибыльную корпорацию, при этом некоммерческий совет откажется от контроля над коммерческим подразделением.

Наибольшее внимание привлекает выгода, которую это обещает для генерального директора Сэма Альтмана. Впервые Альтман получит долю в капитале коммерческой компании — что резко контрастирует с его предыдущими заявлениями о том, что ему «достаточно денег» и он работает исключительно ради любви к миссии.

Убирая ограничение на доходность инвесторов, OpenAI открывает шлюзы для вливания капитала. Эта стратегия уже приносит плоды, и оценка компании возросла с 14 миллиардов долларов в 2021 году до потенциальных 150 миллиардов сегодня.

Предлагаемая новая структура поставит OpenAI в один ряд с конкурентами, такими как Anthropic и xAI Илона Маска, которые зарегистрированы как корпорации, ориентированные на общественную пользу. Это модель, которая пытается сбалансировать стремление к прибыли с социальной ответственностью, но ее эффективность еще не доказана.

Эти перестановки происходят не в вакууме. OpenAI явно «проходит через что-то», как показывают недавние отставки ключевых лидеров, таких как технический директор Мира Муратти, и отсутствие президента Грега Брокмана. Эти изменения, вместе с драматическим переворотом в зале заседаний и восстановлением Альтмана в должности в ноябре прошлого года, показывают, что компания находится в опасно нестабильном состоянии.

По их пиар-заявлениям (вздор), OpenAI не полностью отказывается от своих некоммерческих корней. Первоначальная некоммерческая организация продолжит существовать, сохраняя миноритарную долю в новой коммерческой структуре.

Это дань уважения истокам компании, но едва заметная.

Этика OpenAI

Ранее в этом году роспуск команды OpenAI по «супервыравниванию», которая занималась смягчением долгосрочных рисков ИИ, вызвал беспокойство в сообществе по безопасности ИИ. Теперь, с предлагаемой реструктуризацией, эти опасения усиливаются.

Бывшие сотрудники выступили с критикой, описав компанию как все более сосредоточенную на прибыли в ущерб соображениям безопасности. Двое бывших членов совета директоров, Хелен Тонер и Таша Маколи, призвали к государственному регулированию, намекнув, что саморегулирование больше не достаточно для сдерживания амбиций OpenAI.

Эти голоса из сообщества ИИ должны стать тревожным сигналом для растущей обеспокоенности по поводу направления развития OpenAI и, следовательно, всей сферы разработки ИИ. Гонка за достижением AGI усиливается, и одна ошибка в погоне за прибылью может иметь катастрофические последствия для человечества. К сожалению, OpenAI, похоже, решительно бежит с ножницами в руках.

Пробелы в управлении

Как бы оптимистично вы ни смотрели на эпоху ИИ, существует вопиющий пробел в нашем нынешнем подходе к управлению искусственным интеллектом. Многомиллиардные компании расширяют границы возможного, а наши регуляторные структуры не успевают за ними — и это катастрофа. Общественные интересы требуют жесткого контроля и мер подотчетности, но OpenAI, кажется, намерено двигаться в противоположном направлении.

Правда в том, что OpenAI несет огромную ответственность за приоритет безопасности и этики. Как лидер в индустрии ИИ, их действия повлияют на стратегии бесчисленных других компаний в этой сфере. Если максимизация прибыли станет нормой, нас ждет индустрия ИИ, где этические соображения будут полностью игнорированы в пользу квартальных доходов.

Мы должны взвесить: готовы ли мы просто наблюдать, как OpenAI рискует будущим человечества ради прибыли акционеров? Или мы потребуем более вдумчивого и ответственного подхода к разработке ИИ?

Избежать этого невозможно; время для действий пришло. Нам нужны общественные рамки управления ИИ, которые обеспечат прозрачность и подотчетность. Компании, такие как OpenAI, должны брать на себя юридические обязательства отдавать приоритет общественным интересам над прибылью. И сообщество ИИ должно поднимать тревогу еще громче, требуя ответственного развития и жестких мер безопасности.

Полумеры и пустые обещания уже не подходят.