Здравствуй, читатель! Недавно стало известно о серьёзных проблемах внутри OpenAI — одной из ведущих компаний в области искусственного интеллекта. Несколько ключевых членов команды Superalignment, ответственной за разработку методов контроля над потенциально опасными «сверхразумными» ИИ-системами, подали в отставку. Причина — недостаток ресурсов и поддержки со стороны руководства компании.
Как сообщил источник внутри OpenAI, команде Superalignment было обещано 20% вычислительных мощностей компании для их важнейшей работы. Однако на деле запросы на эти ресурсы часто отклонялись, что мешало команде эффективно выполнять свои задачи. Похоже, блестящие продукты вроде нашумевшего чат-бота ChatGPT стали для OpenAI более приоритетными, чем фундаментальные исследования безопасности ИИ.
«Создание машин умнее человека по своей сути опасно, — написал в своём заявлении об отставке Ян Лейке, один из руководителей команды Superalignment. — Но в последние годы культура безопасности в OpenAI отошла на второй план по сравнению с гонкой за хайпом».
Внутренние распри в руководстве
Ситуацию усугубил и конфликт между CEO OpenAI Сэмом Альтманом и сооснователем компании Ильёй Суцкевером. В прошлом году Суцкевер вместе со старым советом директоров попытался уволить Альтмана, обвинив его в недостаточной откровенности. Однако под давлением инвесторов и сотрудников Альтман был восстановлен в должности, а большая часть совета директоров ушла в отставку. Сам же Суцкевер после этого конфликта фактически самоустранился от дел компании.
А ведь именно Суцкевер играл ключевую роль в команде Superalignment, обеспечивая взаимодействие с другими подразделениями и подчёркивая важность их работы для руководства OpenAI. Без него будущее этого направления в компании оказалось под вопросом.
Безопасность ИИ под угрозой?
«Я очень благодарен Яну Лейке за его вклад в исследования безопасности ИИ и культуру безопасности в OpenAI. Мне очень грустно видеть его уход, — написал Сэм Альтман в своём твиттере. — Ян прав, нам ещё многое предстоит сделать. Мы полны решимости это сделать».
Однако после ухода ключевых лидеров выделенной команды Superalignment в OpenAI больше не будет. Вместо неё останется лишь слабо связанная группа исследователей, распределённых по разным подразделениям компании. Многие эксперты опасаются, что в результате разработка ИИ в OpenAI будет в меньшей степени ориентирована на безопасность, чем могла бы.
Учитывая, какую огромную ответственность взяла на себя OpenAI, обещая создать безопасный сверхразумный ИИ на благо всего человечества, подобные новости не могут не вызывать тревогу. Будем надеяться, что компания сумеет преодолеть внутренние противоречия и сдержит свои обещания. Ведь цена ошибки в этом вопросе может быть слишком высока для всех нас.