2,5K подписчиков

Классика жанра. Гёдель, неполнота и вот это всё

2,2K прочитали
В непрофессиональных околоматематических сообществах любят обсуждать теорему Гёделя о неполноте, вопросы разрешимости, проблему остановки, природу динамического хаоса и всевозможные математические...

В непрофессиональных околоматематических сообществах любят обсуждать теорему Гёделя о неполноте, вопросы разрешимости, проблему остановки, природу динамического хаоса и всевозможные математические парадоксы. При этом участники дискуссии, иной раз увлекшись, подвергают сомнению математику в целом, поскольку «она несостоятельна в своих основах», допускает незнание, как корректный ответ и, вообще, формально доказать можно «что угодно», вот, хоть что 1 + 2 + 3 + ... = –1/12. Короче, ерундой математики занимаются, нет чтобы научиться погоду предсказывать, или стоимость акций.

Надо сказать, что в среде профессионалов эти темы не столь горячи. И не потому что профессионалам всё равно или они смирились с несовершенством математики. Дело в том, что на глубоком уровне эти эпистемологические проблемы согласуются с принципами человеческого мышления так, что они не только не мешают работать и получать ценные, практически значимые, интересные и красивые результаты, но и являются основой самого мыслительного процесса.

Математика строит мысленные модели мира. Хорошая модель изоморфна исследуемой природной системе, так что свойства модели, еë динамика и поведение находятся в соответствии с наблюдениями. И вот, к концу XIX века конструкторы мысленных моделей стали присматриваться к моделированию как самого мышления, так и мыслителя.

XX век подарил точным наукам очень важное знание: существуют неразрешимые задачи. Уже известно было, что задача, имеющая корректную формулировку, может не иметь явного решения. Например, Нильс Абель, а потом Эварист Галуа показали, что алгебраические уравнения выше четвёртой степени невозможно решить традиционными алгебраическими методами, получив ответ в явном виде так, чтобы они выражался в конечной алгебраической форме. Однако, можно воспользоваться простым алгоритмом (например, методом Ньютона) который позволяет приблизиться к решению как угодно близко. То есть решение остаётся вычислимым. Задачу трёх тел или течения ньютоновских жидкостей, тоже можно решить численно, получив хорошие приближения к неким недостижимым истинным решениям, однако, аналитических решений у этих задач нет.

В дальнейшем, работы Давида Гильберта, Бертрана Рассела, Анри Пуанкаре, а позже Алонзо Чёрча, Алана Тьюринга и, наконец, Курта Гёделя, привели к фундаментальному осознанию: существуют задачи принципиально неразрешимые алгоритмически. Это привело к появлению теории вычислимости. Поначалу примеры таких задач формулировались исключительно в рамках самой теории вычислимости, что вызывало понятный скепсис и даже иронию, но очень быстро выяснилось, что неразрешимыми могут быть корректные задачи и в теории чисел, и в геометрии, и даже в изученной вдоль и поперёк линейной алгебре. По времени это осознание совпало с развитием квантовой механики, поместившей неопределённость в фундамент модели микромира.

Однако, паники и уныния это открытие не вызвало. Напротив, принятие квантовомеханических концепций привело к созданию микроэлектроники, работы Петра Анохина, Норберта Винера, Джона Фон Неймана, а также Алексея Ляпунова и Андрея Ершова привели к появлению и развитию кибернетики и мощной вычислительной техники, а теоретические результаты, полученные Чёрчем и Тюрингом, были развиты Джоном Бэкусом и Джоном Маккарти для создания языков программирования высокого уровня, пригодных для конструктивного "общения" с машиной.

Одновременно с этим, Бенуа Мандельброт, Эдвард Лоренц, Рене Том, Владимир Арнольд, Андрей Колмогоров, и многие другие математики, опираясь на работы Пуанкаре и используя вычислительные машины, открывают явление динамического хаоса и развивают теорию катастроф, бифуркаций и хаоса. Так становится понятным, что даже очень простые нелинейные динамические системы могут демонстрировать принципиально вычислительно непредсказуемое поведение. Ко второй половине XX века появилась теория самоорганизующейся критичности, которая позволила понять почему не поддаются предсказаниям погодные, социальные, сейсмические и биологические процессы.

Но и эти открытия не вызвали уныния среди профессионалов. В этот же период создаётся и активно работает группа Бурбаки, продолжающая формализацию математики, возникает теория категорий и успешно разрабатывается программа Ленглендса, призванная объединить разнообразные области математического знания, возникают системы автоматизированного вывода и верификации доказательств теорем, создаются первые нейросети и бурно развиваются методы многомерной оптимизации.

В общем, не страшны оказались математикам ни хаос, ни неполнота аксиоматического подхода, ни неразрешимость ряда задач. Почему же это так?

В 1956 году американский матлингвист, философ и публицист Ноам Хомски опубликовал серию работ в которой описал иерархию формальных языков. В ней описывается соответствие между формальными языками (точнее, порождающими грамматиками) различного уровня и вычислителями, способными разбирать (интерпретировать, "понимать") выражения этого языка. Хомски выделил 4 уровня в своей иерархии.

В непрофессиональных околоматематических сообществах любят обсуждать теорему Гёделя о неполноте, вопросы разрешимости, проблему остановки, природу динамического хаоса и всевозможные математические...-2

Языки 3-го уровня, наименее выразительные, описываются регулярными грамматиками. С их интерпретацией может справиться примитивнейший вычислитель с заранее известным и фиксированным объёмом памяти или состояний: конечный автомат. При этом, все программы (выражения языка) либо обязательно завершаются, либо попадают в очевидный цикл из заранее известных состояний, то есть, они тотальны. Но даже простое арифметическое выражение, понятное школьнику, такие языки описать уже не могут.

Следующими в иерархии идут языки 2-го уровня, которые описываются контекстно-свободными грамматиками. Их способны интерпретировать простые автоматы с конечной магазинной памятью (стеком). Именно ни трудятся в большинстве современных специализированных автоматических систем, типа принтеров, контроллеров движения и т.п. Выразительная способность этих языков уже выше, чем у регулярных, и при этом сохраняется тотальность, в том смысле, что любое конечное выражение может быть разобрано за конечное число шагов. Такие грамматики широко применяются для описания синтаксиса компьютерных языков.

Тотальность выражений сохраняется и при переходе к языкам 1-го уровня в иерархии Хомского. Для их описания нужны контекстно-зависимые грамматики, а для интерпретации — упрощëнный аналог машины Тьюринга с линейно ограниченной памятью. К таким языкам относятся развитые высокоуровневые языки программирования (C++, Wolfram) и специальные подмножества естественных языков.

Наконец к 0-му уровню Хомский отнёс языки с неограниченными или свободными грамматиками, с интерпретацией которых формальный вычислитель, эквивалентный машине Тьюринга, справится, но только если в его распоряжении будет физически неограниченные вычислительные ресурсы, а также, мы должны смириться с возможной неопределённостью синтаксического разбора, существенным усложненим формализации языка. Именно на таких языках мы с вами разговариваем и думаем, естественные языки относятся к свободным грамматикам.

И тут мы попадаем в область неразрешимых задач: мы способны сформулировать конечную программу, такую, что невозможно будет, даже запустив её на машине, определить завершится она или нет, выдаст она корректный результат или нет. Но именно эта возможность, согласно тезису Чёрча-Тьюринга, и даёт языку способность формулировать любую алгоритмически вычислимую задачу (наряду с алгоритмически невычислимыми). То есть, не давая возможность вычислителю ответить "не знаю", мы существенно ограничиваем спектр решаемых задач.

Как мы с вами видим сейчас, с разбором и генерацией таких языков оказались способны справляться большие нейросетевые лингвистические модели (LLM), типа GPT-4, не известные во времена Хомского. Однако, они сами, в свою очередь, уже не поддаются алгоритмизации, а представляют собой "чёрные ящики", и на результаты работы таких вычислителей можно полагаться только в вероятностном смысле, понимая, что границы их "знаний" диффузны и фрактальны, а главное, заранее не вычислимы. Более того, такие системы способны галлюцинировать (генерировать данные в отсутствии фактических данных) и не в состоянии отличить вывод ответа от собственной галлюцинации. В общем, только разрешив вычислителю угадывать и ошибаться мы подошли к разумной интерпретации языков 0-го уровня.

Получается, что не выходя за пределы непротиворечивых и тотальных формальных систем, мы имеем дело с разрешимыми задачами. Однако за пределами этих возможностей оказывается множество полезных задач, которые тоже разрешимы, но для того, чтобы справиться с ними нужно выйти за пределы непротиворечивости. При этом мы, разумеется, рискуем ошибиться нарваться на противоречие или на неразрешимую задачу, но этот риск — своеобразная плата за существенное расширение наших возможностей.

Белая область условно обозначает разрешимые задачи, серая — неразрешимые. Скорее всего, эта граница гораздо сложнее, многомернее и фрактальнее.
Белая область условно обозначает разрешимые задачи, серая — неразрешимые. Скорее всего, эта граница гораздо сложнее, многомернее и фрактальнее.

Наконец, я не зря упомянул про самоорганизующуюся критичность. Это явление лежит в основе многих стохастических процессов, наблюдаемых в ансамблях детерминистских систем. Теория самоорганизующейся критичности позволила если не предсказывать, то моделировать и корректно описывать такие явления, как обвалы, землетрясения, лесные пожары, эпизоотии, флуктуации речного русла и фондовых рынков. Это же явление наблюдается и в работе нейронов нашего головного мозга, причём выявлена корреляция между активностью хаотизации волн возбуждения в нейронных сетях и активизацией умственной деятельности. В последние 10 лет вышло несколько статей, говорящих о том, что если мы в существующие искусственные нейронные сети добавим возможность хаотизации засчёт самоорганизующеся критичности, то сможем преодолеть ряд ограничений, связанных с современными подходами в обучении сетей, и приблизим их к возможностям биологического мозга.

В непрофессиональных околоматематических сообществах любят обсуждать теорему Гёделя о неполноте, вопросы разрешимости, проблему остановки, природу динамического хаоса и всевозможные математические...-4

Таким образом, есть серьёзные основания полагать, что хаос, неопределённость и неразрешимость, не просто не мешают науке и мышлению, а являются её неотъемлемыми частями и залогом непрекращающегося развития.

────────────────────────

Хотите, чтобы в вашей ленте Дзена было больше интересных и глубоких материалов? Подскажите алгоритму Дзена, что там нравятся публикации, подобные этой, подпишитесь, поставьте лайк или прокомментируйте.

Давайте формировать информационную среду вместе!