В научном сообществе, да и среди широкой публики, сегодня широко распространено мнение, что создание искусственного общего интеллекта (AGI) неизбежно. Однако новейшие исследования бросают вызов этому оптимизму и предлагают доказательство того, что AGI не просто далёк — он принципиально невозможен.
📌 Что такое AGI?
Прежде всего, стоит напомнить, что AGI — это не просто ещё один алгоритм, который прекрасно решает конкретные задачи (шахматы, перевод, распознавание лиц). Это система, способная решать любые интеллектуальные задачи, доступные человеку, и делать это автономно и качественно, не требуя перепрограммирования.
Однако, согласно последним исследованиям Макса М. Шлерета, именно эти амбициозные цели сталкиваются с фундаментальными математическими барьерами.
🔥 Проблема бесконечного выбора (Infinite Choice Barrier)
Центральным понятием, предложенным Шлеретом, является так называемый барьер бесконечного выбора (Infinite Choice Barrier, ICB). Эта концепция подразумевает, что существуют задачи, количество решений которых не просто велико, но принципиально неисчерпаемо. В таких ситуациях алгоритмические системы не могут достигнуть стабильного решения, так как для анализа требуются бесконечные вычислительные ресурсы или бесконечное время.
🔍 Как это проявляется на практике?
Приведём несколько примеров, показывающих, почему бесконечный выбор становится препятствием для AGI:
💬 Эмоциональный вопрос: «Дорогой, я поправилась?»
На первый взгляд вопрос простой, однако, он запускает цепочку бесконечно ветвящихся решений, каждое из которых меняет контекст и порождает новые сценарии. Машина будет бесконечно перебирать ответы, пытаясь учесть микромимику, историю отношений, контекст и тон. Энтропия (неопределённость) в таких задачах не уменьшается, а напротив — растёт.
🌌 От Ньютона к Эйнштейну
Когда физики XIX века столкнулись с загадкой постоянства скорости света, они пытались придумать всё новые «эфирные» теории. Для алгоритма, работающего в рамках ньютоновской физики, идея относительности времени просто невозможна — эта концепция не существует в его исходном словаре понятий. Алгоритм будет бесконечно генерировать теории, но никогда не совершит «квантовый скачок» к теории относительности.
📺 Странная сделка: покупка убыточной телестанции
Владелец компании решает купить убыточную телестанцию, вопреки негативным прогнозам и аналитике. Но внезапно оказывается, что купленное вместе с ней здание идеально подходит под недвижимость, а сама сделка превращается в крупный успех. Алгоритм же никогда не додумался бы рассмотреть недвижимость в контексте медиа-бизнеса, так как это за пределами его исходных категорий.
🔑 Почему AGI не справляется?
Причина того, что алгоритмические системы упираются в этот барьер, в следующем:
- ❌ Они не способны создать совершенно новые концепты, которые отсутствуют в их «словаре».
- ❌ Не могут спонтанно изменить исходную структуру восприятия задачи («фрейм»).
- ❌ В бесконечных пространствах решений они застревают в бесконечном переборе возможностей без гарантии успеха.
🌪️ Энтропия и информация: почему новые данные иногда мешают?
В информационной теории Шеннона считается, что каждая новая информация уменьшает неопределённость (энтропию). Однако Шлерет показывает, что существуют ситуации (так называемые тяжёлохвостые распределения), когда новые данные, наоборот, открывают больше вариантов и увеличивают неопределённость. Это явление он назвал IOpenER (Information Opens, Entropy Rises) — «информация открывает, энтропия растёт».
Таким образом, вместо того, чтобы уточнять решение, алгоритм начинает ещё больше «тонуть» в вариантах.
📉 Структурная нестабильность глубоких моделей
Ещё один важный вывод — чем глубже (сложнее) модель, тем более она уязвима перед такой неопределённостью. Глубокие нейросети в таких ситуациях не становятся умнее, а, наоборот, быстрее впадают в состояние хаоса и бессмысленных ответов («галлюцинации»).
🛑 Последствия для практики и исследований
- 🔸 Энтропийный мониторинг: можно заранее отслеживать моменты, когда модель близка к «галлюцинациям».
- 🔸 Переосмысление alignment: так называемая «выравнивание» (alignment) моделей превращается в задачу управления неопределённостью (энтропией), а не просто в моральную настройку ИИ.
- 🔸 Пределы оптимизации: становится ясным, что никакое количество вычислительной мощности не решит принципиально неопределённые задачи.
🎓 Философская перспектива: Кантианская критика
Интересно, что Шлерет возвращается к кантианской философии и её идее о том, что разум неизбежно упирается в парадоксы, пытаясь выйти за собственные пределы. AGI пытается выйти за пределы своего формального «фрейма», но каждый раз терпит неудачу.
🌌 Вывод: Барьер бесконечного выбора — это не просто инженерная проблема
Итог прост и одновременно драматичен: AGI не просто труден — он математически невозможен. Никакие будущие мощности и ресурсы не смогут преодолеть фундаментальную неопределённость, возникающую на определённых типах задач.
Однако признание границ — это не отказ от прогресса, а его важнейшая предпосылка. Как показывает история науки, осознание невозможного всегда открывало путь к новому пониманию возможного.
🔗 Источники и полезные материалы:
🔥 Возможно, AGI никогда не будет создан, но именно понимание этих границ сделает искусственный интеллект по-настоящему полезным инструментом, а не утопической иллюзией.