В последние годы разработка общего искусственного интеллекта (AGI) вызывает большой интерес и одновременно тревогу. По мере развития этой области возрастают риски и потенциальные негативные последствия её неправильного использования.
В недавнем подкасте Франсуа Шоле, инженер-программист из Google, выразил опасения относительно текущего состояния исследований в области AGI. В частности, он подверг критике OpenAI за то, что они, по его мнению, замедляют прогресс в этой сфере.
ВЛИЯНИЕ OPENAI НА ИССЛЕДОВАНИЯ AGI
Шолле объясняет, почему исследования и сотрудничество стали менее открытыми. Он связывает это с влиянием компании OpenAI. По мнению Шолле, акцент OpenAI на разработке больших языковых моделей отвлёк ресурсы и внимание от других перспективных областей исследований в области искусственного интеллекта общего назначения (AGI). В результате прогресс в этих областях был отброшен на несколько лет назад.
Этот сдвиг привёл к тому, что исследования стали более однородными: все работают над различными вариантами одного и того же направления, а не исследуют разные области.
ВЛИЯНИЕ НА ИССЛЕДОВАНИЯ AGI
Влияние этого изменения очевидно в отсутствии прогресса в развитии систем искусственного общего интеллекта (AGI).
В 2019 году Шолэй и Майк Нооп провели конкурс ARC-AGI, призовой фонд которого составил 1 миллион долларов. Этот конкурс оценивал способность AGI приобретать новые навыки и эффективно решать новые задачи.
Кнопп отметил, что, несмотря на то что в прошлом году 300 команд участвовали в конкурсе ARC-AGI, показатели лучших систем (SOTA) выросли только с 20% до 34%. В то же время человеческие показатели варьируются от 85% до 100%.
Эта стагнация подчёркивает необходимость более широкого подхода к исследованиям AGI, чем просто сосредоточение внимания на больших языковых моделях.
ВАЖНОСТЬ ДИВЕРСИФИЦИРОВАННЫХ ИССЛЕДОВАНИЙ
Шолле отмечает, что для развития AGI важно проводить разнообразные исследования. По его мнению, первые дни развития искусственного интеллекта были наиболее продуктивными благодаря широкому спектру изучаемых направлений. Это разнообразие способствовало более быстрому прогрессу и более глубокому пониманию этой области.
РОЛЬ OPENAI В ЗАМЕДЛЕНИИ ИССЛЕДОВАНИЙ AGI
В настоящее время OpenAI сосредоточила свои усилия на разработке больших языковых моделей. По мнению Шолле, это замедлило прогресс в создании общего искусственного интеллекта (AGI) и вызвало необоснованный ажиотаж вокруг этих моделей.
Кроме того, он утверждает, что подход OpenAI привёл к закрытию издательства frontier research publishing, что затрудняет исследователям поиск новых идей.
Роль OpenAI в замедлении исследований AGI неоднозначна. С одной стороны, компания была создана как некоммерческая организация для разработки AGI с приоритетом безопасности и избегания рисков, связанных с неконтролируемым сверхразумом. Однако недавние события вызвали опасения относительно приоритетов OpenAI.
Генеральный директор компании объявил о планах замедлить разработку искусственного интеллекта, что некоторые эксперты рассматривают как позитивный шаг к обеспечению безопасности AGI. Однако другие сомневаются в эффективности и осуществимости такого подхода, поскольку он может позволить конкурентам опередить OpenAI и потенциально привести к потере конкурентного преимущества.
Дебаты о замедлении исследований AGI продолжаются. Некоторые эксперты утверждают, что это необходимо для обеспечения безопасности, в то время как другие считают такой подход неосуществимым и нежелательным. Проблемы, связанные с разработкой AGI, который соответствует человеческим ценностям и предотвращает его неправильное использование, значительны, и роль OpenAI в решении этих проблем остаётся неопределённой.
НЕОБХОДИМОСТЬ ПЕРЕМЕН
В своей критике OpenAI Шолле отмечает, что необходимо изменить подход к исследованиям в области AGI. Он полагает, что нынешнее сосредоточение на больших языковых моделях не только замедляет прогресс, но и ограничивает возможности AGI.
Цель конкурса ARC-AGI, который предусматривает приз в размере 1 миллиона долларов, — привлечь больше исследователей, которые будут заниматься передовыми исследованиями в области AGI, а не только работой с большими языковыми моделями.
ОТВЕТ OPENAI НА ОБВИНЕНИЯ
OpenAI отвечает на обвинения в замедлении исследований AGI. Компания утверждает, что она активно работает над созданием безопасного и полезного искусственного общего интеллекта (AGI).
OpenAI подчёркивает важность осторожности и согласованности в разработке AGI, особенно в плане обеспечения безопасности и предотвращения неправильного использования. Соучредитель компании Джон Шульман заявил, что AGI быстро развивается и компаниям следует подготовиться к безопасной разработке и согласованным усилиям.
Соучредитель и президент OpenAI Грег Брокман также отметил важность соображений безопасности и подчеркнул необходимость баланса между получением потенциальных преимуществ и управлением рисками. Это свидетельствует о том, что компания осознаёт потенциальные риски и активно работает над их устранением.
Однако расформирование команды superalignment и интеграция её работы в исследовательские подразделения вызвали опасения по поводу приоритизации соображений безопасности. Соруководители команды Илья Суцкевер и Ян Лейке раскритиковали OpenAI за недостаточные инвестиции в понимание того, как управлять системами искусственного интеллекта, которые намного умнее людей. Они предположили, что компания, возможно, отдаёт приоритет разработке продукта, а не безопасности.
В целом реакция OpenAI на обвинения в замедлении исследований AGI сложна и может быть истолкована по-разному. Хотя компания признала важность соображений безопасности, её действия также вызывают обеспокоенность. Будущее направление компании и её приверженность долгосрочным соображениям безопасности остаются неопределёнными.
ЗАКЛЮЧЕНИЕ
Создание AGI — сложная и многогранная задача, которая требует комплексного подхода. Критика в адрес OpenAI от Франсуа Шоле напоминает нам о важности разнообразных исследований и необходимости выйти за рамки существующих больших языковых моделей.
Однако OpenAI утверждает, что активно работает над созданием безопасного и полезного общего искусственного интеллекта (AGI). По мере развития этой области исследователи и разработчики должны уделять особое внимание прогрессу в области AGI, одновременно обеспечивая безопасность и ответственное развитие этой технологии.
Как вы относитесь к текущему пути OpenAI? Считаете ли вы, что признание важности безопасности достаточно для устранения критики? Поделитесь своими мыслями в разделе комментариев ниже.