В июле OpenAI создала команду под названием Superalignment, чтобы изучить возможности регулирования и управления "сверхразумными" системами искусственного интеллекта, то есть системами, интеллект которых значительно превышает человеческий.
"В настоящее время мы можем в основном управлять моделями, которые менее развиты, чем мы, или, в лучшем случае, равны нам по уровню развития", — отметил Бернс. "Однако управлять моделью, которая действительно умнее нас, намного сложнее — как мы вообще можем это сделать?"
В то время как Альтман предложил провести аналогию между OpenAI и проектом Манхэттен, собрав команду для изучения моделей ИИ с целью защиты от "катастрофических рисков", включая химические и ядерные угрозы, некоторые эксперты выражают сомнения относительно того, что технологии стартапа станут действительно мировыми или когда-либо смогут перехитрить людей. Согласно этим экспертам, заявления о неизбежности появления "сверхразума" просто отвлекают внимание от актуальных проблем регулирования ИИ, таких как алгоритмическая предвзятость и склонность ИИ к токсичному поведению.
Тем не менее, Суцкевер, кажется, настоятельно верит в то, что ИИ в будущем может представлять экзистенциальную угрозу. Он проявил приверженность предотвращению вреда, причиняемого искуственным инеллектом человечеству, заказав и сжег деревянную фигуру за пределами компании.
"Прогресс в области ИИ в последние годы был чрезвычайно быстрым, и я могу вас уверить, что он не замедляется", — сказал Ашенбреннер. "Я думаю, что мы вскоре достигнем уровня развития систем, сравнимого с человеческим, но мы не остановимся на этом — мы собираемся двигаться дальше, к системам, превосходящим человеческий разум... Как нам управлять "сверхчеловеческими" системами ИИ и обеспечить их безопасность? Это действительно является проблемой для всего человечества и, возможно, самой важной нерешенной технической проблемой нашего времени".
На данный момент команда Superalignment стремится разработать структуры управления и контроля, применимые к будущим мощным системам искусственного интеллекта. Это непростая задача, учитывая, что определение "сверхразума" и определение достижения определенной системой ИИ этого уровня является предметом оживленного обсуждения. Принятый командой подход включает использование менее сложных моделей ИИ (например, GPT-2) для направления более развитых и сложных моделей (GPT-4) в желаемом направлении, предотвращая нежелательные последствия.
"Основная задача заключается в том, чтобы дать модели понять, что необходимо делать, и гарантировать, что она это сделает", — пояснил Бернс. "Как заставить модель следовать инструкциям и помочь только в том, что является правдой, а не вымыслом? Как заставить модель сообщать нам, является ли сгенерированный ей код безопасным или представляет опасность? Эти цели мы хотим достичь с помощью наших исследований".