Найти тему
Intellectus

Парадоксы формализации. Возможна ли математика Всего?

Метод формализации является одним из основополагающих теоретических методов в математическом и естественно-научном знании. В математике он базируется на аксиомах, в физике на идеях, принципах и общих понятиях.

Под формализацией понимается особый подход в научном познании, который заключается в использовании специальной символики, позволяющей отвлечься от изучения реальных объектов, от содержания описывающих их теоретических положений и оперировать вместо этого некоторым множеством символом (знаков). Для построения любой формальной системы необходимо:

  1. Задание алфавита, т.е. определённого набора знаков;
  2. Задание правил, по которым из исходных знаков этого алфавита могут быть получены «слова», «формулы»;
  3. Задание правил, по которым от одних слов, формул данной системы можно переходить к другим словам и формулам (так называемые правила вывода).

В результате создаётся формальная знаковая система в виде определённого искусственного языка. Важным достоинством этой системы является возможность проведения в её рамках исследования какого-либо объекта чисто формальным путём (оперирование знаками) без непосредственного обращения к этому объекту. Другое достоинство формализации состоит в обеспечении краткости и чёткости, записи научной информации, что открывает большие возможности для оперирования ею. Одним из главных условий является отсутствие противоречий в формальной системе. Как отмечал Альберт Эйнштейн: всё здание теоретической физики состоит из идей, принципов, общих понятий и следствий, выведенных из них за счёт дедуктивных логико-математических процедур.

Важнейшим условием построения формальной системы, в результате которого получается новое знание, является отсутствие противоречий. Поскольку если таковые существуют, то можно опровергнуть и доказать всё что угодно. Однажды известного философа и логика Б. Расселла корреспонденты попросили продемонстрировать данное положение, аргументируя следующим выражением: если ложное позволяет доказывать всё что угодно, то покажите, что из 5 = 4 следует, что вы и Папа Римский одно и тоже лицо. Расселл ответил, что это не трудно. Из 5 = 4 следует, что и 2 = 1, папа и я образуют двойку, стало быть мы одно и тоже.

Успехи метода формализации в математике привели к возникновению идеи, что таким образом можно построить всю математику, выведя её здание из ограниченного набора аксиом. Данный подход попытался воплотить известный немецкий математик Д. Гильберт, который отобрал с его точки зрения 15 наиболее значимых аксиом и попытался из них осуществить построение всего математического знания. Достаточно напомнить, что вся математика Евклида основывалась всего на пяти постулатах. Уже вышел первый том «Принципы математики», как разразился первый математический кризис, похоронивший всю работу Гильберта. Австрийским математиком, логиком и философом, Куртом Гёделем была доказана теорема, постулирующая границы формализации и утверждавшая, что таким способом построить всё здание математики невозможно. Она получила название теоремы о неполноте. Смысл её сводится к двум положениям:

  1. Если формальная арифметика (система) не противоречива, то она неполна;
  2. Если формальная арифметика неполна, то её непротиворечивость нельзя доказать средствами, формализуемыми в ней самой.

Как только все следствия будут выведены из аксиом, возникнут противоречия. Однако появление противоречий свидетельствует об ошибочности всей системы знаний, полученных в результате построения. Таким образом, математика Всего, базирующаяся на данном методе, в принципе невозможна. Почему же так получается? Существует множество интерпретаций теоремы Гёделя. Можно отметить самую простую. Вся система построения исходит из аксиом, но аксиомы – это то, что принимается без доказательств, и хотя они тщательно отбираются, тем не менее они строго не доказаны, а это значит, что в них содержатся неопределённость, заблуждения, которые и проявятся в виде противоречий, когда все следствия из них будут выведены. Данный математический кризис (это же надо, в самой математике, образце строгости и доказательности, обнаруживается изъян, с которым невозможно справиться!) не преодолён до сих пор.

Гильберт считал, что возможна полная теория математики, исходя из некоторого набора принципов и аксиом. Гёдель показал, что это невозможно, собственные возможности математики ограничены, и существуют математические утверждения, которые не могут быть доказаны таким способом.

Второй математический кризис разразился в 70-х годах прошлого века. Он был связан с огромным многообразием математического знания. В XIX веке люди, заканчивающие математический факультет в принципе представляли и оперировали всем набором математического знания, но к концу XX века это стало невозможным. Никто из математиков уже не мог знать всю математику из-за огромной специализированности её областей. Кроме этого, наслаивалась чрезвычайная сложность и объёмность логики доказательств, когда специалисты уже не могли проследить эти логические цепочки, подтвердить их или опровергнуть.

Третий кризис разразился в начале XXI века. Он был связан не только с крайней переусложнённостью математического знания, когда логика доказательств насчитывала тысячи страниц текста, но и незавершённостью. Оказалось, что отдельные области математики при самых напряжённых и обширных исследованиях не могут быть завершены, т.е. нет уверенности, что что-то не пропущено.

Рискнём высказать гипотезу о том, что вплоть до настоящего времени математика во многом была спекулятивной наукой. В ней отсутствовал основополагающий компонент научного метода, а именно эксперимент. Только с возникновением мощных компьютеров удалось ввести вычислительный эксперимент в математику. Оказалось, что математики, как и все люди, ошибаются, и таких ошибок было выявлено немало. Это породило волну критики среди ортодоксов, заявивших, что компьютеры сами ошибаются, но тот, кто хоть раз писал компьютерную программу знает, что редактор языка программирования не пропустит ошибок. Они возможны только в языках высокого уровня, приближенных к человеческому, а не в машинных кодах. Появились программы, которые тестируют на ошибки другие программы. Это особенно актуально в авиации и ракетостроении, но и не только.

Дальнейшее внедрение и развитие вычислительного эксперимента, искусственного интеллекта в математическом знании могут привести к тому, что лет через 50 люди вообще перестанут понимать, что происходит. А что же делать сейчас? Во-первых, воспользоваться идеей Лейбница о компактности теории. Теория должна быть проще фактов, которые она объясняет. Если теория сложнее фактов, то она их вообще объяснить не может.

Возможно следует взглянуть на математику глазами алгоритмистов и программистов. Это можно пояснить на примере теоремы факторизации, которая кратко записывается как P ≠ NP. Это теорема представлена Институтом Клэя в США. Кто докажет её верность – получит 1 млн долларов, но кто докажет, что это невозможно тоже получит миллион. Смыл её сводится к следующему: легко перемножить простые числа, например, перемножение 97 и 89 просто выполнить даже без калькулятора, результат 8 633 (простые числа – это числа, которые делятся только сами на себя и на 1), а вот разложить это произведение на простые множители гораздо сложнее и затратнее по времени.

Если использовать 800-битовые числа, то даже на суперкомпьтерах потребуются миллиарды лет. Поэтому-то данные алгоритмы и применяются в криптографических системах, в настоящее время вскрыть их невозможно. Но если существует компактный алгоритм, осуществляющий эту операцию факторизации, то найдя его, можно заработать миллион долларов. А, вообще-то, гораздо больше... Так что можно пожелать энтузиастам успеха в творчестве. Да, и, конечно, данная задача может быть решена на мощных квантовых компьютерах, но это дело будущего.

Платформа Дзен по определённым причинам меняет алгоритмы показов. Если вы уверены, что подписаны на канал рекомендуется проверить это в связи с возможной автоматической отпиской.

Также материалы по теме «Загадки макро-, микро- и мегамира»:

Наука
7 млн интересуются