Найти тему
малоизвестное интересное

Alt Intelligence - это машинная Deep Idiocy

Мы у развилки на пути к AGI

Директор по исследованиям DeepMind и профессор Оксфорда Нандо де Фрейтас взорвал мировое сообщество исследователей и разработчиков ИИ.

Мы близки к достижению ИИ человеческого уровня (AGI). Теперь все дело в масштабе! Игра окончена!

— написал он в Твиттере, комментируя создание его компанией мультимодальной нейросети Gato, способной выполнять задачи разного типа, включая создание описаний к изображениям, ведение диалога, укладку блоков с помощью роборуки и аркадные игры. Уже сейчас Gato умеет выполнять 604 типа задач и более половины из них — лучше среднего человека.

С Нандо де Фрейтасом не согласились многие авторитеты в области ИИ.

Ян ЛеКун спокойно и рассудительно констатировал 6 очевидных фактов в пользу того, что никакой близости к AGI в обозримом будущем не наблюдается.

А Гэри Маркус ответил Нандо куда более развернуто и эмоционально.

  • Ставка на безграничное масштабирование (Scaling-Über-Alles) пока не является окончательно согласованным путем построения AGI даже внутри самой DeepMind.
  • И вообще, пора кончать пудрить мозги общественности, будто замена человеческого интеллекта на альтернативный — машинный (Alt Intelligence) имеет отношение к созданию человекоподобного интеллекта.

В этой словесной баталии, как ни удивительно, у каждой из сторон есть свои крепкие аргументы. Кому интересно, прочтет сам.

Я же лишь продемонстрирую несколькими конкретными примерами, насколько могут оказаться правильными оба противоположных взгляда на перспективы AGI.

Взгляд с позиции Нандо де Фрейтаса

✔️ AGI уже близко, ибо скорость развития мультимодальных моделей огромна и нарастает.

Примеры определения места съемки по мелким деталям, увязки деталей в общем контексте фото и прогнозирования на основе контекста приведены на рисунке.

-2

Взгляд с усредненных позиций Яна ЛеКуна и Гэри Маркуса

✔️ Нынешний путь не ведет к AGI. Потребуются иные пути — весьма не простые, пока не очень ясные и, уж точно, совсем не быстрые.

Вот пара примеров, подтверждающих и иллюстрирующих такую позицию.

Пример 1

Взгляните мой недавний пост, в котором приведен поразительно рассудительный (на первый взгляд) диалог человека и визуально-языковой модели Flamingo.

-3

Однако, предположение о рассудительности модели мгновенно испарится, стоит лишь взглянуть на другой (куда более короткий) диалог с той же моделью о той же фотографии. Иллюзия наличия у модели здравого смысла мгновенно исчезает после простого вопроса к ней: «Сколько на фото жирафов?». «Два» — отвечает модель. Ибо ей, — что Обама, что жираф — все одно.

-4

Т.е. это означает, что иллюзия наличия здравого смысла у модели возникает исключительно в результате искусства человека задавать серию наводящих вопросов. Без них степень умственной отсталости модели примерна та же, что у людей в состоянии глубокой идиотии.

Пример 2 продолжает эту иллюстрацию

Модель видит вот что.

-5

После чего происходит такой диалог.

1. Flamingo: Это светофор. На нем красный свет.

2. Человек: Ты видишь три круга?

- Flamingo: Да, я вижу три круга.

3. Какого они цвета?

- Красный, синий и зеленый.

4. Где зеленый круг?

- Зеленый круг справа.

5. Действительно? Справа от чего?

- Зеленый круг справа от синего круга.

Можно опускать занавес, ибо все ясно. Даже 0.001% человекоподобного интеллекта у Flamingo нет и в помине. А есть лишь способность статистически обоснованно подстраивать свои ответы под серию вопросов человека.

Мой вердикт — Фрейтас прав в том, что ИИ развивается фантастически быстро. Но Маркус ближе к истине.

#AGI

________________________

Ваши шансы увидеть мои новые посты быстро уменьшатся до нуля, если вы не лайкаете, не комментируете и не делитесь в соцсетях

С подпиской рекламы не будет

Подключите Дзен Про за 159 ₽ в месяц