Автор - spinor #
Делить на нормальных и на ненормальных принято не только людей, но и науки тоже. Есть нормальные науки, есть не совсем, есть совсем не, и псевдо-науки. Понятие нормальной науки ввел в обиход Томас Кун в самом начале 60-ых прошлого века. Свой "дедуктивный" метод позволяющий отделить козлов от козлищ не то что не выходя из комнаты где-нибудь на Бэйкер стрит, но даже не вставая из кресла, он описал в своей книге "Структура научных революций". На мой непритязательный взгляд книга слегка занудная, однако вполне читабельная. Но не это главное. Его нехитрый метод оказался потрясающе эффективным при расследовании преступлений против здравого смысла, которые в последнее время буквально захлеснули наш мир. Воспользуемся им и мы, плеснув себе немного скотча и закурив сигару.
Арнольд Зоммерфельд в своей Волновой Механике 1929-го года писал буквально следующее: "как только мы находили объяснение экспериментальным результатам и исправляли теорию, так тут же появлялись новые экспериментальные результаты, которые полностью противоречили исправленной теории и всё опять приходилось начинать заново - искать им объяснение и изменять теорию так, что бы она включала в себя и новые и все предыдущие результаты. Удивительно, что после более десяти лет такой каторжной работы волновая механика выжила."
А ведь могла и не выжить.
Можно подумать, что это особый случай. А вот и нет - самый типичный. Но, конечно, могут быть и варианты. Так, например Пол Друде в 1900-ом предложил теорию проводимости металлов, которая очевидно не работала давая тысячекратное (нехренася!) расхождения с экспериментально измеренной проводимостью. Тысячи глаз под лупой разглядывали положения теории и проверяли логику рассуждений в поисках ошибок. Их там не было, что раздражало. Чуть позже Лоренц (тот же, чьи преобразования) построил статистическую модель теории Друде, где в качестве больцмановской функции распределения использовал Максвелловское распределение электронов по скоростям. На что он надеялся - непонятно. Видимо в то время была вера в магическую силу кинетической теории, сравнимую разве что с египтоманией в среде аристократов, и набиравшей обороты вскоре после самоубийства её основателя. Лоренц получил такое же несоответствие с экспериментом. А что он ожидал? Чуда? Тема прокисла и замылилась на 27-ем лет, но неприятный осадочек от когнитивного диссонанса остался. Спустя десятилетия забвения нерешённой проблемы именно Зоммерфельд, возможно следуя заветам Фауста, перетёр тему с Мефистофелем и заменил Максвелла на Ферми-Дирака в теории Лоренца получив результаты - о чудо! - совпадающие с экспериментальными.
Томас Кун после окончания университета, где он изучал теоретическую физику, стал испытывать потребность в помощи психологов. У них он получил не только помощь, но почерпнул очень много любопытного. На тот момент психология представляла собой псевдонауку с элементами шарлатанства (дела похоже обстоят так и сейчас). Новые концепции и гипотезы лепились прямо на глазах как пирожки с разнообразной начинкой и тут же бурно обсуждались, притом никаких тормозов и авторитетов при обсуждениях не было. С экспериментальной проверкой гипотез проблем тоже не ощущалось благодаря огромному количеству психушек и богоделен, построенных по всей самой свободной стране мира. Существенных законодательных ограничений на использование психоделиков и даже лоботомии на придурках и прочих Джеках Николсонах учёные-психологи и психиатры вместе с примкнувшими психоаналитиками и вовсе не испытывали. Всё это создавало атмосферу интеллектуальной свободы и своего рода вседозволенности, которую, как начал осознавать это Томас Кун, теоретическая физика стала постепенно утрачивать. Тем более сразу после изобретения атомной бомбы со вседозволенностью у физиков стало совсем плохо.
Наблюдая за всем этим психо-творчеством Кун задался естественным вопросом, как из хаоса разнообразных идей, мнений и, разумеется, ошибок формируется наука, такая как, например, физика или какая-нибудь её ветвь. Он сформулировал систему отбора. Науке, чтобы стать нормальной, i) нужно пройти сперва стадию наблюдений; ii) на их основе построить теорию; iii) проверить её экспериментально; и iv) закрепить понимание моделированием. С первого раза стопудово не получится. Всё это надо пройти много-много раз. Сотни, тысячи, а возможно и десятки тысяч раз и уже не обязательно в указанном порядке, каждый раз изменяясь и совершенствуясь отбрасывая хлам в сторону. Для наук почти ставших нормальными наблюдения уже не так важны - они вполне замещаются экспериментом. Со временем и роль эксперимента перестаёт быть особо важной: и так всё ясно что будет. Но тогда начинает становиться незаменимой роль моделирования. В конце концов наука становится инженерной, то есть прикладной. Вот именно этот процесс и описал Арнольд Зоммерфельд в своей Волновой Механике. В принципе это Дарвинизм в чистом и незамутнённом виде. Дарвинизм идей, концепций и парадигм - выживают наиболее приспособленные. Тут сразу возникает вопрос: приспособленные к чему? Вопрос интересный и ответ на него нетривиален. К этому вопросу мы вернёмся чуть позже.
Дарвинизмом в наше время удивить или напугать сложно. Всё это выглядит достаточно банально. Но результаты применения куновского критерия отбора весьма интересны и далеко небанальны. Посмотрим вокруг. Математику отбросим сразу, так как это не наука, а язык - Гиббс был прав. Но такие науки как квантовая механика, электродинамика, статистическая физика, термодинамика, газодинамика, твёрдое тело, физика плазмы, оптика и тд. и тп. полностью удовлетворяют куновскому критерию пройдя весь эволюционный процесс жесточайшего отбора. Они по Куну являются нормальными. А вот, например, астрофизика нет. Она является псевдонаукой, так в её эволюции отсутствует очень важное звено, а именно эксперимент. Это понятно: расстояния, временные интервалы и масштабы событий не позволяют поставить хоть какой-либо даже самый простенький эксперимент: столкнуть, например, две нейтронные звезды как в коллайдере. Однако все остальные звенья цепи присутствуют: i) наблюдения есть и весьма изощрённые; ii) теория, или скорее теории, есть; и iv) моделирование есть, притом очень навороченное и искушённое. Однако, к чему же отсутствие одного важного звена привело?
К неуникальности картины мира. Так, одни и те же наблюдаемые явления могут быть вполне научно объяснены с позиций совершенно разных теорий и концепций. И нет критерия предпочесть одно другому. Это конечно делает астрофизику очень интересной и не даёт ей закостенеть превратившись со временем в скучную инженерную дисциплину. В астрофизической среде всегда будет присутствовать плюрализм мнений с мордобоем. Жёстко? зато нескучно. Проиллюстрируем.
Проблему квазаров мы обсудили чуть раньше (Квазавры & Квазарики), как впрочем и тёмную материю (Законы Кеплера для аборигенов далёких галактик). Перескажем вкратце последнюю. В конце 80-ых прошлого века Вера Рубин в своих бухгалтерских записях обнаружила недостачу - не хватало массы и притом очень-очень много в данных измерений угловых скоростей вращения рукавов спиральных галактик в зависимости от расстояния до её центра. Данные фотометрии ей предоставлял Кент Форд Младший. Вера мыслила классически и по-Ньютоновски: из третьего закона Кеплера следовало, что если предположить, что основная масса галактики сосредоточена в её центре (балдже), что вполне логично, то орбитальная скорость вещества в диске и в хало должна спадать как квадратный корень от растояния до центра, то есть vcirc = (GM/r)1/2, где М – это суммарная масса балджа, а G - гравитационная постоянная. Этот закон великолепно соблюдается для всех известых планетарных систем включая, разумеется, и нашу. Из данных, однако, следовало, что в большинстве случаев орбитальная скорость не только постояна vcirc = const, но может даже и расти с расстоянием от центра. В таком случае получалось, что и суммарная масса (интеграл от плотности) должна расти линейно с расстоянием как минимум. Для объяснения постоянных кривых вращения vcirc = const Вера ввела в обиход новую сущность - тёмную материю.
Новая сущность понравилась далеко не всем. Этак можно объяснить всё что угодно плодя всё новые и новые сущности и дойти до кентавров с единорогами в конце концов. Была предложена модифицированная ньютоновская динамика, MOND, известная так же как динамическая модель Милгрома. Она вполне объясняла плоские кривые вращения. Позже Сергей Сипаров предложил добавить малое возмущение к метрическому тензору, которое зависело бы от импульса и тоже получил плоские кривые вращения галактик. С его подходом можно ознакомиться в книге: Introduction to the Anisotropic Geometrodynamics (на мой взгляд слишком много воды, к тому же написана “по-русски, но на английском”, но тем не менее материал любопытный), а выступления можно найти на youtube. Его аргументы весьма логичны и вызывают больше симпатии, чем теория тёмной материи, да пожалуй чем и модель Милгрома тоже. В добавок можно отметить, что в общей теории относительности нет ни кручения (torsion), ни завихренности (vorticity) пространства-времени. Это видно из того, что коэффициенты связности Кристоффеля симметричны по перестановке ковариантных индексов. Так сложилось исторически и наверное потому, что в оригинальном тензоре кривизны Римана кручение и завихренность тоже отсутствуют. Однако добавить их в теорию не просто так как всё сразу, буквально с полоборота, становится сложным и громоздким. С другой стороны, конечно, кручение с завихренностью привели бы к очень интересным эффектам, таким как, например, турбулёнтность пространства-времени и “вихри времени” приобрели бы вполне конкретный физический смысл. А это очень привлекательная идея, и всяк лучше тёмной материи. По аналогии с газодинамикой, где турбулёнтный поток всегда медленнее ламинарного, следует ожидать, что и физические процессы в турбулёнтном пространстве-времени будут идти для удалённого наблюдателя медленнее, и таким образом наблюдаемая орбитальная скорость звёзд должна замедляться при приближению к центру галактики - что мы собственно и видим по кривым вращения.
Вот так всего "одно наблюдение" породило целый зоопарк теорий. Так, впрочем, и должно быть в псевдонауках: игра в бисер, как ни крути. Однако этот факт вызывает лютый невроз у людей с инженерным типом мышления. Они считают, что должна быть всего одна правильная теория и будут давиться за какую-нибудь статистическую значимость в 8σ утверждая, что ведь доказали же! доказали, что тёмная материя существует! А вот и нет, ни хрена не доказали - ни-хре-на! Где они, эти частицы тёмной материи?! Вот здесь и заложен подвох единственности выбора. Недостающий критерий отбора может быть навязан извне и исподволь, незаметно для глаза. И он может быть совсем неожиданным. Не так уж и трудно представить себе, что теории могут отбираться исключительно по привлекательности картинки для ТВ, научпропа и Холливуда, формируя тем самым положительную обратную связь. Или по заумности. Или, например, теория тёмной материи будет предпочитаться другим только лишь потому, что Вера Рубин была еврейкой, да к тому же ещё женщиной и в добавок феминисткой! Такое может быть? Может. Таковы веяния времени - БиБиСи в последнее время только этим и занимается. А политическая или сектантская ангажированность может иметь место быть? Разумеется!
Посмотрим теперь с этой точки зрения на теорию глобального потепления. Понятно, что для России это не актуально, и это правильно. Но во всех западных странах мозги населению промыли очень и очень сильно. Каждый день, каждый час, каждую минуту очередной климатолог (кстати, большинство из них женщины с научной степенью в географии - ну прямо как у Терезы Мэй) клюёт моск и пугает мир грядущей катастрофой. Потепление ответственно за всё: за наводнение в Пакистане, за дубак в Англии в декабре (ха-ха-ха!), за засуху где-то там в Африке, за пожары в Австралии и Калифорнии и так далее. Буквально, ни один выпуск новостей не обходится хотя без бы упоминания глобального потепления. Политическая ангажированность очевидна, но почему-то далеко не всем. Вот почему? Непонятно...
Что мы имеем в теории глобального потепления как научной дисциплины? Наблюдения - да, имеем. Это раз. Теорию? Её нет. Почему? А потому, что никто не может объяснить ледниковые периоды, их причину и периодичность. Вызваны ли они солнечной активностью, или геофизическими процессами Земли? Или чем-то ещё? А ведь ледниковые периоды это и есть климат, притом глобальный, а не погода. Но если теория не может объяснить вещи, которые собирается предсказывать, то это не теория, а чёрт-те что. Представим себе, что мы движемся навстречу новому ледниковому периоду и при этом боимся парникового эффекта пытаясь понизить среднюю температуру по планете? А ведь время-то для нового приближается… Пора, время подходит! В таком случае "человек разумный" звучит как-то слишком самодовольно и явно не соответствует действительности. Короче - теории нет. Эксперимент? Его тоже нет. Мог быть хотя бы один, но его нет. Ну, например, могли бы распылить угольную пыль над арктическими льдами понизив альбедо и посмотреть, что будет. Страшно? Ну тогда над Антарктидой? Тоже страшно? Короче, эксперимента нет, и притом из-за трусости. А где прометеевское пламя науки? Увы, нету. OK, моделирование? Да, оно есть. И это два. В сухом остатке имеем i) наблюдения; и iv) моделирование; то есть псевдонауку, в которой нет самых важных звеньев. Из чего, кстати, следует, что никакого климатического оружия тоже нет и быть пока не может, а это по крайней мере радует.
Что мы должны наблюдать в данном случае? Ну, мы знаем что: плюрализм мнений и мордобой. Но ничего этого опять же нет. Всё закатано в асфальт политической конъюнктуры. То есть, похоже, теория глобального потепления не доросла даже до почётного звания псевдонауки. Хорошо, посмотрим, что представляет собой моделирование.
Во-первых, конечно, необходимо построить модель предсказывающую климат с заданными параметрами (решить прямую задачу), которых может быть сотни и десятки сотен. Некоторые параметры известны, но многие нет. Для моделирования океана используется гидродинамика (Навье-Стокс), для атмосферы - газодинамика, притом её упрощенная модель - приближение мелкой воды, да именно так, но при детализации определенных регионов "мелкая вода" заменяется уравнениями газодинамики. Чтобы получить правильные уравнения состояния для гидро-газодинамики нужно решить уравнение переноса излучения в атмосфере, которое играет ключевую роль. Это интегро-дифференциальное уравнение, линейный аналог уравнения Больцмана, тоже зависящий от многих параметров, а в частности от концентрации парниковых газов, которая определяет коэффициенты абсорбции и рассеяния излучения (не только она, но она тоже). Понятно, что в результате получается очень сложная система нелинейных дифференциальных уравнений. На данный момент модель позволяет просчитывать последствия лесных пожаров и извержений вулканов, а вот последствия катастрофы типа Deepwater Horizon нет. Разумеется, предсказывать пожары и извержения вулканов никто пока не умеет, и вряд ли вообще научится, ну разве что кроме самих поджигателей лесов, с вулканами сложнее. Но это далеко не всё.
Чтобы хоть как-то получить усреднённый прогноз нам надо знать все параметры. Для этого необходимо решить обратную задачу используя данные наблюдений. Это обратная задача для системы нелинейных дифференциальных уравнений и решается она таким же по сути способом как в нефтянке: строятся регрессионные-прокси модели. Это так называемая history matching problem: автоматическая подгонка параметров задачи под данные наблюдений. Притом известные параметры заданы с ошибкой измерения, а неизвестные представляют собой стохастические величины подчиняющиеся каким-то распределениям, которые в общем-то тоже неизвестны. Это может быть Гаусс, или log-Гаусс или вообще что-нибудь "неаналитическое". Более того, распределения скорее всего полимодальные. И сколько мод в каждом? Да хер его знает.
Далее, поверхность планеты разбивается на блоки. В каждом блоке берётся выборка значений неизвестных параметров из их функций распределений (sampling from a distribution). Так строится пространство параметров. Его размерность равна количеству блоков на количество неизвестных в каждом. Для всех значений из выборки решается прямая гидро-газодинамическая задача и уравнение переноса излучения. Декартово произведение пространства результатов вычислений (прямой задачи) и пространства параметров определяет то пространство, в котором строится регрессионная модель. Оно представляет собой многообразие, которое часто называют по привычке "поверхностью". То есть, каждая комбинация параметров из выборки и результат вычислений дает точку в этом пространстве для заданного времени. По этим точкам и строится регрессионная прокси модель (точки соединяются в поверхность, как это делается - целая наука). Данные наблюдений представляют собой гиперплоскости в этом пространстве "параллельные" пространству параметров. Эти плоскости пересекаются с прокси моделью каким-то образом. Пересечения обычно ищутся с помощью алгоритма Метрополиса-Хастинга. Так как данные наблюдений зависят от времени, то и гиперплоскостей много (одна гиперплоскость для одной наблюдаемой в данный момент времени), все их пересечения и определяют область значений неизвестных параметров. Ну и наконец, беря выборку параметров из этой области мы можем гоняя код прямой задачи заглянуть в будущее.
Что из всего этого следует? По аналогии с нефтянкой, где прямая задача куда проще, можно утверждать, что предсказания на длительный период времени сбываются далеко не всегда. Это напрямую связанно с нелинейностью уравнений, которая приводит к неуникальности предсказаний. Так, пересечения гиперплоскостей наблюдаемых с прокси-моделью может иметь несколько "лакун", то есть несвязных областей распределений параметров которые "хорошо подходят" под историю наблюдений. Иными словами, параметры из разных "лакун" дают одну историю, но разные предсказания. Более того, "лакуны" могут быть далеко друг от друга (в смысле какой-то функциональной меры). И это ещё не всё: их трудно всех найти в многомерном пространстве (Метрополис-Хастинг найдя одну по сторонам больше не смотрит). Климатологи со степенью в географии или геологии не будут задаваться лишними вопросами, а найдя одно семейство решений (одну лакуну) будут гонять код, пытаясь найти наилучший прогноз, который по их мнению должен соответствовать наилучшей подгонке параметров под наблюдаемые.
И это только одна модель хоть и достаточно навороченная. Однако, моделирование вообще-то предполагает разнообразие моделей. Что ж, псевдонаука даёт всего одно псевдо-предсказание на основе одной модели. Одно, а должно быть много! Притом только с одним критерием отбора – политическим, других-то нет. А разве что-то другое можно было ожидать? Конечно, есть альтернативные точки зрения, но их практически не слышно, их давят в зародыше. По крайней мере в западных странах.
Возникает вопрос: к чему это всё? Помимо денег и торговли квотами, глобальное потепление - политический инструмент-кувалда, позволяющий вводить санкции против строптивых и даже развязывать "специальные военные операции" в странах отказывающихся закрывать угольные шахты и жечь мазут, притом делать это по решению совета безопасности ООН (когда там не будет России, или будет, но не та). Слушая эмоциональные выступления участников очередного климатического саммита очень трудно отделаться от мысли, что за два градуса средней температуры по планете теперь могут и убить. И убить по закону.
Чтобы связаться с автором (нажмите здесь).