„Мы можем видеть, как чашка падает со стола и разбивается на осколки, но мы никогда не увидим, как чашка складывается и возвращается на стол. Увеличение беспорядка, или энтропии дает возможность отличить прошлое от будущего и придает таким способом времени определенное направление.“ С. Хокинг
Если Вы никогда ранее не сталкивались с понятием энтропия, то можете смело для себя ассоциировать ее с «беспорядком», «хаосом», «неупорядоченностью».
Данный термин используется как в точных науках, так и в гуманитарных. В связи с этим, единого определения энтропии не существует, т.к. оно зависит от сферы применения (физика, химия, математика, информатика, биология, психология, экономика и др.). Обобщенно можно сказать, что это мера беспорядка и необратимого рассеивания энергии.
В качестве системы (т.е. любой ограниченной области во Вселенной, по которой передается энергия) для энтропии может быть что угодно: в физике и химии – газ, жидкость, твёрдое тело, набор частиц; в информатике – текст; в психологии – группа людей и т.д.
Рассмотрим энтропию различных агрегатных состояний вещества при равной температуре:
- Твердые тела имеют определенную кристаллическую структуру, в которой каждая молекула колеблется в малой области пространства между соседними узлами кристаллической решетки. В связи с этим, энтропия твердого тела – самая низкая из трех агрегатных состояний вещества, а твердое тело имеет самую упорядоченную структуру.
- В жидкостях молекулы не только колеблются около положений равновесия, но и совершают скачкообразное движение. Значит, они занимают случайные положения. Таким образом, значение энтропии в жидкости будет больше, чем в твердом теле. Соответственно, и структура жидкости является менее упорядоченной.
- В газах молекулы движутся хаотично, иногда сталкиваясь друг с другом. Силы притяжения между ними очень малы. Поэтому, значение энтропии в газах наибольшее, а система – неупорядоченная и хаотичная.
Энтропия в физике
Термодинамика и статистическая физика – разделы физики, в которых исследуется и изучается энтропия.
В термодинамике термин «энтропия», введенный немецким физиком Клаузиусом, характеризует внутреннюю потенциальную энергию взаимодействия молекул между собой посредством дальнодействующих сил. Согласно данному определению, малое приращение тепловой энтропии dS в системе будет вычисляться по формуле 1:
где dQ – малое количество теплоты в системе;
T – абсолютная температура.
В отличие от энтропии Клаузиуса, статистическая физика характеризует энтропию как поведение кинетической энергии молекул. Второй закон термодинамики (закон об энтропии и ее свойствах), сформулированный австрийским физиком Л. Больцманом, звучит так: все процессы в природе стремятся от состояний менее вероятных, к состояниям более вероятным. То есть рассматриваются процессы, называемые флуктуациями.
Увеличение энтропии изолированной системы происходит одновременно с увеличением термодинамической вероятности, из чего следует, что это две взаимосвязанные величины (формула 2):
где S – энтропия изолированной системы;
k – постоянная Больцмана (физическая константа, определяющая связь между средней кинетической энергией частиц газа в соотношении с температурой);
ω – термодинамическая вероятность (число микросостояний системы, посредством которых реализуется ее макросостояние; всегда ≥1).
Отсюда следует, что суть Второго закона термодинамики состоит в следующем: энтропия с течением времени только возрастает. Это происходит из-за таких процессов, как трение, потери тепла, неупругие соударения. Поэтому число неупорядоченных состояний любой системы всегда намного превышает число упорядоченных.
В целом, энтропийный анализ помогает изучать данные в любой научной области, а также находить взаимосвязи между явлениями.
Расширенную версию статьи, а также другие интересные научные публикации вы можете найти в блоге на нашем сайте.