Мы у развилки на пути к AGI
Директор по исследованиям DeepMind и профессор Оксфорда Нандо де Фрейтас взорвал мировое сообщество исследователей и разработчиков ИИ.
Мы близки к достижению ИИ человеческого уровня (AGI). Теперь все дело в масштабе! Игра окончена!
— написал он в Твиттере, комментируя создание его компанией мультимодальной нейросети Gato, способной выполнять задачи разного типа, включая создание описаний к изображениям, ведение диалога, укладку блоков с помощью роборуки и аркадные игры. Уже сейчас Gato умеет выполнять 604 типа задач и более половины из них — лучше среднего человека.
С Нандо де Фрейтасом не согласились многие авторитеты в области ИИ.
Ян ЛеКун спокойно и рассудительно констатировал 6 очевидных фактов в пользу того, что никакой близости к AGI в обозримом будущем не наблюдается.
А Гэри Маркус ответил Нандо куда более развернуто и эмоционально.
- Ставка на безграничное масштабирование (Scaling-Über-Alles) пока не является окончательно согласованным путем построения AGI даже внутри самой DeepMind.
- И вообще, пора кончать пудрить мозги общественности, будто замена человеческого интеллекта на альтернативный — машинный (Alt Intelligence) имеет отношение к созданию человекоподобного интеллекта.
В этой словесной баталии, как ни удивительно, у каждой из сторон есть свои крепкие аргументы. Кому интересно, прочтет сам.
Я же лишь продемонстрирую несколькими конкретными примерами, насколько могут оказаться правильными оба противоположных взгляда на перспективы AGI.
Взгляд с позиции Нандо де Фрейтаса
✔️ AGI уже близко, ибо скорость развития мультимодальных моделей огромна и нарастает.
Примеры определения места съемки по мелким деталям, увязки деталей в общем контексте фото и прогнозирования на основе контекста приведены на рисунке.
Взгляд с усредненных позиций Яна ЛеКуна и Гэри Маркуса
✔️ Нынешний путь не ведет к AGI. Потребуются иные пути — весьма не простые, пока не очень ясные и, уж точно, совсем не быстрые.
Вот пара примеров, подтверждающих и иллюстрирующих такую позицию.
Пример 1
Взгляните мой недавний пост, в котором приведен поразительно рассудительный (на первый взгляд) диалог человека и визуально-языковой модели Flamingo.
Однако, предположение о рассудительности модели мгновенно испарится, стоит лишь взглянуть на другой (куда более короткий) диалог с той же моделью о той же фотографии. Иллюзия наличия у модели здравого смысла мгновенно исчезает после простого вопроса к ней: «Сколько на фото жирафов?». «Два» — отвечает модель. Ибо ей, — что Обама, что жираф — все одно.
Т.е. это означает, что иллюзия наличия здравого смысла у модели возникает исключительно в результате искусства человека задавать серию наводящих вопросов. Без них степень умственной отсталости модели примерна та же, что у людей в состоянии глубокой идиотии.
Пример 2 продолжает эту иллюстрацию
Модель видит вот что.
После чего происходит такой диалог.
1. Flamingo: Это светофор. На нем красный свет.
2. Человек: Ты видишь три круга?
- Flamingo: Да, я вижу три круга.
3. Какого они цвета?
- Красный, синий и зеленый.
4. Где зеленый круг?
- Зеленый круг справа.
5. Действительно? Справа от чего?
- Зеленый круг справа от синего круга.
Можно опускать занавес, ибо все ясно. Даже 0.001% человекоподобного интеллекта у Flamingo нет и в помине. А есть лишь способность статистически обоснованно подстраивать свои ответы под серию вопросов человека.
Мой вердикт — Фрейтас прав в том, что ИИ развивается фантастически быстро. Но Маркус ближе к истине.
#AGI
________________________
Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях