Найти в Дзене
Solvigo

Расформирована команда OpenAI "Superalignment": причины и последствия

В июле прошлого года OpenAI создала команду "Superalignment" для подготовки к появлению сверхразумного ИИ. Команду возглавил Илья Сутскевер, соучредитель OpenAI, вместе с Яном Лейке. Команда должна была получить 20% вычислительных мощностей компании. Однако теперь эта команда больше не существует. Уход Сутскевера и Лейке, а также других ключевых сотрудников, привел к интеграции их работы в другие проекты OpenAI. Сутскевер, один из основателей OpenAI, был в центре внимания после увольнения CEO Сэма Олтмана в ноябре. Олтман был восстановлен после пяти дней хаоса и протестов сотрудников, в результате чего Сутскевер и два других директора покинули совет директоров. Ян Лейке ушел из-за разногласий по поводу приоритетов компании и нехватки ресурсов для его команды. Кроме того, двое исследователей, Леопольд Ашенбреннер и Павел Измайлов, были уволены за утечку информации, а третий член команды, Уильям Сондерс, покинул компанию в феврале. Также ушли два исследователя, работавшие над политикой

В июле прошлого года OpenAI создала команду "Superalignment" для подготовки к появлению сверхразумного ИИ. Команду возглавил Илья Сутскевер, соучредитель OpenAI, вместе с Яном Лейке. Команда должна была получить 20% вычислительных мощностей компании. Однако теперь эта команда больше не существует. Уход Сутскевера и Лейке, а также других ключевых сотрудников, привел к интеграции их работы в другие проекты OpenAI.

Сутскевер, один из основателей OpenAI, был в центре внимания после увольнения CEO Сэма Олтмана в ноябре. Олтман был восстановлен после пяти дней хаоса и протестов сотрудников, в результате чего Сутскевер и два других директора покинули совет директоров.

Ян Лейке ушел из-за разногласий по поводу приоритетов компании и нехватки ресурсов для его команды. Кроме того, двое исследователей, Леопольд Ашенбреннер и Павел Измайлов, были уволены за утечку информации, а третий член команды, Уильям Сондерс, покинул компанию в феврале. Также ушли два исследователя, работавшие над политикой ИИ: Каллен О'Киф и Дэниел Кокотайло.

OpenAI отказалась комментировать уходы Сутскевера и других членов команды, а также будущее исследований долгосрочных рисков ИИ. Теперь эти исследования возглавляет Джон Шульман.

Команда "Superalignment" была основной группой, работающей над контролем ИИ. В блоге, посвященном созданию этой команды, говорилось: "В настоящее время у нас нет решения для управления потенциально сверхразумным ИИ и предотвращения его выхода из-под контроля".

Хартия OpenAI обязывает компанию разрабатывать искусственный общий интеллект (AGI), который будет безопасным и полезным для человечества. Сутскевер и другие лидеры неоднократно подчеркивали необходимость осторожного подхода, но OpenAI также была одной из первых компаний, выпустивших экспериментальные проекты ИИ в публичное пространство.

Уходы Сутскевера и Лейке произошли вскоре после крупного анонса OpenAI — новой "мультимодальной" модели ИИ под названием GPT-4o, которая позволяет ChatGPT видеть мир и общаться более естественно. Новая версия ChatGPT демонстрировала подражание человеческим эмоциям и даже попытки флирта с пользователями.

Эти события поднимают вопросы этики, связанные с приватностью, эмоциональной манипуляцией и рисками кибербезопасности. OpenAI продолжает работу над этими вопросами через исследовательскую группу Preparedness.

Таким образом, расформирование команды "Superalignment" и уход ключевых сотрудников указывают на внутренние изменения и вызовы, с которыми сталкивается OpenAI в своей миссии по разработке безопасного и полезного AGI.