Найти в Дзене
Занимательная физика

Энтропия: одно слово, три науки и полный хаос в головах физиков

Физики три века не могут договориться, что такое энтропия — и это не скандал, это приговор всей нашей уверенности в том, что наука говорит об одном и том же, когда использует одно и то же слово. Слово «энтропия» сегодня встречается в учебниках термодинамики, в трудах по статистической физике и в технических стандартах цифровой связи. Во всех трёх случаях пишется одинаково. Во всех трёх случаях означает что-то принципиально разное. А физики с удовольствием делают вид, что это не проблема, — примерно так же, как делают вид, что всё в порядке, когда квантовая механика и общая теория относительности категорически отказываются работать вместе. Добро пожаловать в науку, где терминологический хаос — это не баг, а фича. Рудольф Клаузиус в 1865 году придумал само слово «энтропия» — от греческого «превращение» — и всё сразу пошло не так. В его классической термодинамической трактовке энтропия — это мера того, насколько необратимо рассеивается энергия в процессе любого реального процесса. Паровая
Оглавление

Физики три века не могут договориться, что такое энтропия — и это не скандал, это приговор всей нашей уверенности в том, что наука говорит об одном и том же, когда использует одно и то же слово.

Слово «энтропия» сегодня встречается в учебниках термодинамики, в трудах по статистической физике и в технических стандартах цифровой связи. Во всех трёх случаях пишется одинаково. Во всех трёх случаях означает что-то принципиально разное. А физики с удовольствием делают вид, что это не проблема, — примерно так же, как делают вид, что всё в порядке, когда квантовая механика и общая теория относительности категорически отказываются работать вместе. Добро пожаловать в науку, где терминологический хаос — это не баг, а фича.

Порядок умер. Давно.

Рудольф Клаузиус в 1865 году придумал само слово «энтропия» — от греческого «превращение» — и всё сразу пошло не так. В его классической термодинамической трактовке энтропия — это мера того, насколько необратимо рассеивается энергия в процессе любого реального процесса. Паровая машина берёт тепло из котла, часть превращает в работу, остаток выбрасывает в холодильник — и с каждым циклом вселенная становится чуть менее пригодной для дальнейшей работы. Энтропия растёт. Всегда. Это второе начало термодинамики, и оно не просит разрешения.

Популяризаторы науки тут же радостно объявили, что энтропия — это «беспорядок». Чашка упала и разбилась — энтропия выросла, беспорядок увеличился. Яйцо сварилось — энтропия выросла. Носки на полу — энтропия зашкаливает. Удобная метафора разлетелась по всем учебникам и научпоп-книжкам, и никто не спросил, а правда ли это хоть в каком-то строгом смысле.

-2

Правда в том, что термодинамическая энтропия — это строго макроскопическая величина. Она описывает системы с квадриллионами частиц через температуру, давление и объём. Никакого «беспорядка» в её формуле нет — есть теплообмен, делённый на температуру. dS = δQ/T. Это уравнение про тепло, а не про носки на полу. И когда вам говорят, что «вселенная стремится к хаосу», это красивая ложь, прикрывающаяся научным авторитетом.

Больцман был честнее всех

Людвиг Больцман не собирался соглашаться с Клаузиусом на его условиях. Он задал неудобный вопрос: а что вообще происходит внутри системы, на уровне отдельных молекул? И вот тут-то началась статистическая механика — наука, которая смотрит на термодинамику снизу, как сантехник смотрит на красивый фасад здания и думает: «А что там за стенами?»

По Больцману, энтропия — это логарифм числа микросостояний, соответствующих данному макросостоянию. Его знаменитая формула S = k·ln(W) выбита на надгробии в Вене — редкий случай, когда физик настолько был уверен в своей правоте, что завещал записать это на камне. W здесь — количество способов, которыми молекулы могут быть расположены и двигаться, оставаясь при этом одной и той же «горячей комнатой» или «холодным газом».

Вот тут «беспорядок» хотя бы приближается к реальности — чем больше способов устроить систему, тем выше вероятность именно этого состояния. Газ занимает весь сосуд не потому что «любит беспорядок», а потому что микросостояний «газ равномерно распределён» несравнимо больше, чем микросостояний «весь газ в левом углу». Это не метафора — это комбинаторика. Холодный чай не нагревается сам, потому что вероятность нужного перераспределения молекул смехотворно мала — порядка 10 в степени минус 10²³.

-3

Но вот загвоздка: термодинамическая и статистико-механическая энтропии совпадают численно — при правильном выборе константы Больцмана k. Это выглядит как победа. Но совпадение чисел не означает совпадение смыслов. Одна говорит о тепле, другая — о счёте молекул. Связь между ними — это гипотеза, пусть и блестяще подтверждённая. Равенство формул — это не доказательство единой природы.

Шеннон украл концепцию — и не извинился

В 1948 году инженер Bell Labs Клод Шеннон опубликовал работу по теории информации и с невозмутимым видом написал туда формулу, до неприличия похожую на больцмановскую. H = −Σ p·log(p). Говорят, что именно Джон фон Нейман посоветовал ему назвать эту величину «энтропией» — мол, никто точно не знает, что это такое, так что ты всегда будешь иметь преимущество в дискуссии. Остроумно. И немного цинично.

Информационная энтропия Шеннона — это мера неопределённости сообщения. Если монетка выпадает орлом и решкой с равной вероятностью — максимальная энтропия. Если монетка всегда выпадает орлом — нулевая энтропия, никакой неожиданности, никакой информации. Чем непредсказуемее источник, тем больше информации несёт каждый его символ. Это фундамент сжатия данных, криптографии и всего цифрового мира.

-4

Математика красивая. Но имеет ли она хоть что-то общее с паровыми машинами Клаузиуса? Молекулы не знают теории вероятностей. Они не «несут информацию». Газ в баллоне не «сообщает» что-либо своим давлением. Шенноновская энтропия — это про математическое распределение вероятностей, а не про физические состояния материи. Аналогия с больцмановской формулой — формальная, математическая. Это как заметить, что слова «коса» и «коса» пишутся одинаково, и сделать вывод, что девичья причёска и сельскохозяйственный инструмент — одно и то же.

Три физика, три правды и ни одной договорённости

Итак, у нас три энтропии. Первая — про необратимость тепловых процессов. Вторая — про счёт молекулярных конфигураций. Третья — про информацию и вероятность. Все три математически связаны. Все три называются одним словом. Эквивалентны ли они?

Строгий ответ: частично, условно и с оговорками, которые занимают больше места, чем сами формулы. Термодинамическая и статистико-механическая энтропии эквивалентны в пределах применимости статистической механики — то есть для систем с огромным числом частиц в равновесии или близко к нему. Это мощная связь, но она предполагает соответствие между макро- и микроуровнем, которое само по себе не является тривиальным.

Связь с информационной энтропией — куда более скользкая тема. Есть изящный аргумент, восходящий к демону Максвелла: мысленный эксперимент, где маленькое существо сортирует молекулы по скоростям, нарушая второе начало термодинамики. Разрешение парадокса — в работе Рольфа Ландауэра 1961 года — показывает, что стирание информации физически необратимо и производит тепло. Информация и физическая энтропия таким образом связаны через термодинамику вычислений. Это реально и измеримо — принцип Ландауэра проверен экспериментально.

-5

Но осторожно: из того, что информационная и физическая энтропия связаны, не следует, что они одно и то же. Информационная энтропия существует для любого вероятностного распределения — ДНК, текстов на русском языке, биржевых котировок. Термодинамическая энтропия существует только для физических систем с молекулами и температурами. Отождествлять их — значит либо расширять физику до любой структуры данных, либо редуцировать информацию до термодинамики. Обе операции вызывают у серьёзных учёных законное раздражение.

Вселенная не обязана быть понятной

Здесь самое время признать неудобную истину: возможно, наша категориальная растерянность — это не дефект в понимании, а дефект в самой претензии на единую картину мира. Физика устроена не как архитектурный план, где каждый кирпич на месте, а как город, который строили несколько столетий разные архитекторы с разными вкусами и без общего генплана.

Энтропия — идеальный пример понятия, которое не «описывает реальность», а описывает наш способ думать о реальности на разных уровнях абстракции. Термодинамический уровень — это уровень инженера с паровой машиной. Статистико-механический — уровень физика с микроскопом. Информационный — уровень математика с теорией вероятностей. Все три описывают разные срезы одного мира, и их математическое сходство — это не случайность, но и не доказательство единой онтологии.

Что это означает для будущего? В эпоху, когда квантовые компьютеры вплотную подходят к пределу Ландауэра, когда термодинамика вычислений становится инженерной дисциплиной, а не философской игрой, граница между «физической» и «информационной» энтропией стремительно размывается. Возможно, через сто лет нынешние споры об «эквивалентности» будут выглядеть так же архаично, как споры XVII века о природе теплорода. А может быть, они окажутся неразрешимыми в принципе — потому что разные концептуальные языки не переводятся друг в друга без потерь.

-6

Наука не даёт ответов — она перемещает непонимание на более глубокий уровень. В случае с энтропией это перемещение продолжается уже 160 лет, и конца не видно. Это не повод для отчаяния. Это повод для честности.

Пока учёные спорят, вселенная продолжает своё

Энтропия — не беспорядок, не информация и не просто тепловые потери. Это зеркало, в котором каждая дисциплина видит свой главный вопрос: термодинамика спрашивает про направление процессов, статистическая механика — про микроструктуру реальности, теория информации — про природу знания и неопределённости. То, что математика этих вопросов частично совпадает, — одно из самых глубоких и малопонятых фактов современной науки.

Три интерпретации не эквивалентны в полном смысле слова — но они и не случайно используют один термин. Между ними существует сеть связей, аналогий и формальных соответствий, которая указывает на что-то фундаментальное в устройстве мира. Что именно — мы пока не знаем. И это, пожалуй, самый честный итог трёхвекового спора о слове, придуманном для паровых машин и дотянувшегося до квантовых процессоров.

Следующий раз, когда кто-нибудь скажет вам, что «вселенная стремится к хаосу» — вежливо уточните: по какой из трёх энтропий, и в чьей системе отсчёта.

Физики
7453 интересуются