До робота-кошки — далеко. А пока ИИ останутся умными, но бесплотными «духами».
Искусственный интеллект умеет писать эссе, генерировать код, создавать изображения. Но попробуйте запустить его в реальный мир — и он быстро окажется беспомощнее котёнка. Новое исследование показало фундаментальный разрыв между человеческим и машинным пониманием мира. И этот разрыв нельзя закрыть простым увеличением размера модели.
Эксперимент: люди против ИИ в реальных задачах
Новое исследование «Benchmarking World-Model Learning» сравнило людей и передовые модели ИИ в специфической задаче: сначала свободно изучи незнакомую среду, потом реши новую, но родственную задачу в этой же среде.
Представьте, что вас поместили в незнакомую комнату с различными предметами и механизмами. Вам дали время исследовать, как всё работает. А затем попросили решить конкретную задачу, используя полученные знания.
Итог эксперимента прост и беспощаден: люди несравнимо лучше строят модель мира. Они целенаправленно экспериментируют, гибко пересматривают гипотезы, переносят знания из одной ситуации в другую.
Модели искусственного интеллекта часто «застревают» в первой попавшейся догадке. Они собирают данные хаотично, не формируют связной картины мира, не умеют переносить понимание из одного контекста в другой.
Почему такая разница? Главная причина — у ИИ нет врождённых приоров и социальной стаевой педагогики.
Что такое приоры и почему они критичны
Приоры (Priors) — это встроенные ожидания о том, как устроен мир. У животных, включая людей, это результат миллионов лет эволюции плюс ранний детский опыт.
Ребёнок с рождения «знает»:
- Объекты продолжают существовать, даже когда их не видно
- Вещи падают вниз, а не вверх
- Действия имеют причины и последствия
- Лица людей важны и содержат информацию
- Боль — это сигнал опасности, которой нужно избегать
Эти знания не выучены из книг. Они прошиты на уровне архитектуры мозга, отточены естественным отбором.
У современных ИИ приоры в основном статистические и книжные. Модель «знает» о гравитации из текстов, но не чувствует её интуитивно. Она читала про боль, но не испытывала страха.
Такие ожидания плохо работают в живой, изменчивой среде. Текстовое знание «огонь горячий» не эквивалентно инстинктивной реакции отдёрнуть руку.
Можно ли «вложить» это одним трюком?
Очевидный вопрос: может, просто добавить эти приоры в модель? Прописать базовые законы физики, социальные правила, инстинкты самосохранения?
Увы, но ответ «нет». На сегодняшнем уровне технологий у нас нет волшебной кнопки, которая сразу даст инстинкты, безопасное исследование, долговременную память и поведенческие нормы стаи.
Проблема не в том, что мы не знаем, какие приоры нужны. Проблема в том, что приоры — это не просто список правил. Это глубоко интегрированная система восприятия и реакций.
Когда вы видите, что объект падает, вы автоматически экстраполируете его траекторию. Не думаете «так, гравитация 9.8 м/с², начальная скорость такая-то». Вы просто знаете, где он окажется.
Эта интуитивная физика встроена на низком уровне обработки информации. Она работает быстро, параллельно, автоматически. Именно поэтому она эффективна в реальном времени.
Реалистичная дорожная карта
Но есть реалистичная дорожная карта того, как постепенно приблизиться к этой цели. Она включает несколько ключевых компонентов:
Объектные и причинные приоры
Научить модель видеть мир как набор устойчивых вещей и причинно-следственных связей, а не просто как поток пикселей или слов.
Это значит, что система должна понимать: стол остаётся столом, даже если его частично загораживает стул. Мяч, который закатился под диван, не исчез из реальности. Если толкнуть чашку, она упадёт.
Внутренние мировые модели с планированием
Умение «прокручивать» будущие сценарии в уме перед тем, как действовать в реальности.
Кошка перед прыжком смотрит на расстояние, оценивает траекторию, моделирует движение в голове. Только потом прыгает. Если модель показывает, что прыжок неудачен — кошка не прыгает.
Современные ИИ в основном учатся методом проб и ошибок в реальной среде. Это работает в симуляциях, где можно перезапустить миллион раз. В реальном мире одна ошибка может быть фатальной.
Популяционное обучение с эмерджентной коммуникацией
Задачи и награды за точное моделирование убеждений и намерений других агентов — Theory of Mind.
Люди учатся не изолированно. Мы наблюдаем за другими, подражаем, получаем прямые инструкции, понимаем намерения окружающих.
Ребёнок видит, что мама избегает горячей плиты, и учится избегать её тоже, не обжигаясь лично. Это социальное обучение на порядки эффективнее индивидуального метода проб и ошибок.
Нормативная надстройка
Система вроде RLHF или «конституции», задающая социальные запреты и предпочтения.
Это не просто «не делай плохое». Это сложная система норм: когда уместно просить помощи, когда настаивать, когда отступить. Как вести себя в разных социальных контекстах.
Почему мы ещё не там
Так почему же мы ещё не реализовали эту дорожную карту, если все компоненты известны?
Потому что самое трудное — сшить всё вместе в единую работающую систему.
Нужно обеспечить:
- Онлайн-обновление убеждений без «катастрофического забывания»
- Долговременную память, которая не деградирует
- Телесную сенсомоторику — реальную связь восприятия и действия
- Безопасное обучение новому — аккуратно пробуя действия, заранее оценивая риск, останавливаясь до катастрофы
Каждый из этих пунктов — открытая научная проблема. А нужны они все одновременно.
Проблема катастрофического забывания
Когда человек учит что-то новое, старые знания не стираются. Вы можете научиться играть в шахматы, не забыв при этом, как играть в карты.
Современные нейросети страдают от «катастрофического забывания». Когда модель учится на новых данных, она переписывает старые паттерны. Дообучите GPT на медицинских текстах — и она хуже справится с кодом.
Есть методы борьбы с этим, но они либо ограничены масштабом, либо требуют огромных ресурсов. Идеального решения пока нет.
Проблема долговременной памяти
Животные накапливают опыт всю жизнь. Кошка помнит, где живут агрессивные собаки, даже если не встречала их месяцами. Человек помнит обжегшую руку плиту спустя годы.
У современных ИИ память либо ограничена контекстным окном (забыл, что было 100 тысяч токенов назад), либо реализована через внешние базы данных (работает медленно и неэффективно).
Биологическая память интегрирована с процессом мышления. Воспоминания всплывают автоматически, когда релевантны. Такого уровня интеграции у ИИ пока нет.
Проблема телесного воплощения
Интеллект неотделим от тела. Мы понимаем «тяжёлый», потому что поднимали тяжести. Понимаем «далеко», потому что ходили на расстояния. Понимаем «горячо», потому что испытывали жжение.
Языковые модели знают эти слова статистически, но не феноменологически. Они читали тексты про «тяжёлый», но никогда не испытывали мышечного усилия.
Это не просто философская проблема. Это ограничивает способность ИИ предсказывать и планировать действия в физическом мире.
Проблема безопасного обучения
Котёнок учится прыгать постепенно. Сначала маленькие высоты, потом больше. Если высота кажется опасной — не прыгает, пока не подрастёт.
Система обучения с подкреплением не имеет такого встроенного чувства безопасности. Она будет пробовать действия случайно, пока не найдёт работающее. Даже если по пути сломает себя или окружение.
В симуляциях это не проблема — перезапусти среду. В реальном мире это катастрофа.
Нужны механизмы, которые оценивают риск действия до его выполнения. Но для этого нужна точная модель мира. А для точной модели нужен опыт. Замкнутый круг.
Умные, но бесплотные духи
Поэтому в обозримом будущем ИИ останутся очень умными, но по сути бесплотными «духами».
Они могут анализировать тексты на уровне, недоступном человеку. Генерировать контент, решать логические задачи, играть в сложные игры.
Но выпустите их в реальный мир — и они окажутся беспомощны. Даже лев с мозгами современного ИИ не выжил бы в саванне.
Лев знает инстинктивно, как охотиться, как избегать опасности, как взаимодействовать с прайдом. Это знание прошито эволюцией и обучением в первые месяцы жизни.
ИИ со всеми знаниями льва из википедии, но без инстинктов, умер бы с голоду, не понимая, как применить теоретические знания о охоте.
До робота-кошки — далеко
До робота-кошки, сопоставимого с настоящей кошкой — мечта, близкая к цели Яна ЛеКуна — нам действительно далеко.
Настоящая кошка:
- Исследует новую среду безопасно и эффективно
- Быстро учится на единичных примерах
- Моделирует намерения других существ
- Адаптируется к неожиданным изменениям
- Координирует сложные движения в реальном времени
- Помнит важный опыт годами
- Принимает решения за миллисекунды
Всё это одновременно, в компактном мозге весом 30 грамм, потребляющем несколько ватт энергии.
Современные роботы требуют огромных вычислительных ресурсов, работают медленно, не адаптируются к неожиданностям, забывают опыт при обновлении.
Что мы получим вместо этого
Роботов, конечно, будет всё больше. Но без врождённых приоров и безопасного онлайн-обучения это будут в основном хорошо дрессированные исполнители в контролируемых декорациях.
Промышленные роботы на заводах — да. Роботы-доставщики на специально подготовленных маршрутах — да. Роботы-уборщики в знакомых помещениях — да.
Но не «кошки», которые учатся жить в мире, а не только выполнять заранее прописанные сценарии.
Не роботы, которые могут:
- Спонтанно исследовать незнакомую территорию
- Безопасно экспериментировать с новыми действиями
- Адаптироваться к радикально новым ситуациям
- Учиться на единичных примерах от других агентов
- Формировать долговременные стратегии
Заключение: длинный путь к воплощённому интеллекту
Разрыв между текстовым интеллектом и воплощённым интеллектом огромен. Это не просто техническая проблема масштаба. Это фундаментальная разница в архитектуре.
Языковые модели превосходят людей в задачах, связанных с обработкой текста. Но уступают кошке в задачах, связанных с навигацией в реальном мире.
Это не значит, что проблема неразрешима. Но это значит, что решение займёт десятилетия, а не годы.
Нужны прорывы в нескольких направлениях одновременно:
- Архитектуры с встроенными физическими приорами
- Методы безопасного обучения в реальной среде
- Механизмы непрерывного обучения без забывания
- Интеграция восприятия, действия и планирования
- Социальное обучение между агентами
Каждый из этих пунктов — открытая научная проблема. А нужны они все вместе.
Так что пока готовьтесь взаимодействовать с умными, но бесплотными духами. Робот-кошка подождёт.