Найти тему
Science Hunter

Что такое энтропия?

„Мы можем видеть, как чашка падает со стола и разбивается на осколки, но мы никогда не увидим, как чашка складывается и возвращается на стол. Увеличение беспорядка, или энтропии дает возможность отличить прошлое от будущего и придает таким способом времени определенное направление.“ С. Хокинг

Если Вы никогда ранее не сталкивались с понятием энтропия, то можете смело для себя ассоциировать ее с «беспорядком», «хаосом», «неупорядоченностью».

Данный термин используется как в точных науках, так и в гуманитарных. В связи с этим, единого определения энтропии не существует, т.к. оно зависит от сферы применения (физика, химия, математика, информатика, биология, психология, экономика и др.). Обобщенно можно сказать, что это мера беспорядка и необратимого рассеивания энергии.

В качестве системы (т.е. любой ограниченной области во Вселенной, по которой передается энергия) для энтропии может быть что угодно: в физике и химии – газ, жидкость, твёрдое тело, набор частиц; в информатике – текст; в психологии – группа людей и т.д.

Рассмотрим энтропию различных агрегатных состояний вещества при равной температуре:

  1. Твердые тела имеют определенную кристаллическую структуру, в которой каждая молекула колеблется в малой области пространства между соседними узлами кристаллической решетки. В связи с этим, энтропия твердого тела – самая низкая из трех агрегатных состояний вещества, а твердое тело имеет самую упорядоченную структуру.
  2. В жидкостях молекулы не только колеблются около положений равновесия, но и совершают скачкообразное движение. Значит, они занимают случайные положения. Таким образом, значение энтропии в жидкости будет больше, чем в твердом теле. Соответственно, и структура жидкости является менее упорядоченной.
  3. В газах молекулы движутся хаотично, иногда сталкиваясь друг с другом. Силы притяжения между ними очень малы. Поэтому, значение энтропии в газах наибольшее, а система – неупорядоченная и хаотичная.

Энтропия в физике

Термодинамика и статистическая физика – разделы физики, в которых исследуется и изучается энтропия.

В термодинамике термин «энтропия», введенный немецким физиком Клаузиусом, характеризует внутреннюю потенциальную энергию взаимодействия молекул между собой посредством дальнодействующих сил. Согласно данному определению, малое приращение тепловой энтропии dS в системе будет вычисляться по формуле 1:

-2

где dQ – малое количество теплоты в системе;

T – абсолютная температура.

В отличие от энтропии Клаузиуса, статистическая физика характеризует энтропию как поведение кинетической энергии молекул. Второй закон термодинамики (закон об энтропии и ее свойствах), сформулированный австрийским физиком Л. Больцманом, звучит так: все процессы в природе стремятся от состояний менее вероятных, к состояниям более вероятным. То есть рассматриваются процессы, называемые флуктуациями.

Увеличение энтропии изолированной системы происходит одновременно с увеличением термодинамической вероятности, из чего следует, что это две взаимосвязанные величины (формула 2):

-3

где S – энтропия изолированной системы;

k – постоянная Больцмана (физическая константа, определяющая связь между средней кинетической энергией частиц газа в соотношении с температурой);

ω – термодинамическая вероятность (число микросостояний системы, посредством которых реализуется ее макросостояние; всегда ≥1).

Отсюда следует, что суть Второго закона термодинамики состоит в следующем: энтропия с течением времени только возрастает. Это происходит из-за таких процессов, как трение, потери тепла, неупругие соударения. Поэтому число неупорядоченных состояний любой системы всегда намного превышает число упорядоченных.

В целом, энтропийный анализ помогает изучать данные в любой научной области, а также находить взаимосвязи между явлениями.

Расширенную версию статьи, а также другие интересные научные публикации вы можете найти в блоге на нашем сайте.

Наука
7 млн интересуются