Энтропия – понятие, которое может показаться сложным, но попробуем обсудить его простыми словами. Прежде всего, это термин из термодинамики, определяющий часть энергии системы, которая не может быть использована для совершения работы. Проще говоря, энтропия – мера беспорядка или случайности в системе. Чем выше энтропия, тем больше в ней нетронутой энергии и менее предсказуемо её состояние. Она появляется в разных областях знаний, включая не только физику, но и информатику, где оценивает количество информации...
Пришло время разобраться с энтропией. Понятие это одно из самых "мутных" в физике и многие из нас с трудом сформулируют, чем именно с физической точки зрения всё-таки является энтропия. Мера беспорядка системы? То, насколько много мы знаем о системе? Помимо отсутствия однозначного определения, есть тут и ещё одна интересная особенность! Во многом путаница появляется по той причине, что энтропия имеет два совершенно разных и независимых друг от друга определения. При этом оба варианта верные. - Это количество теплоты, деленное на температуру. - Это вероятность нахождения системы в одном из возможных состояний в зависимости от той или иной группы параметров. Эта формировка куда приятнее и привычнее всем нам - мера беспорядка системы. Из второй формулировки следует два возможных состояния: - Высокий порядок в системе, подразумевающий много информации и обозначающий низкую энтропию. - Низкий порядок в рассматриваемой системе, подразумевающий, что любое явление есть случайность, а информации мало, и следовательно - энтропия высокая. Теперь самое интересное. Информации много... Информации мало. Но что значит "много информации"? Рассмотрим пример на картинке и сделаем вывод, что количество полученной информации есть штука субъективная, не зависящая от свойств системы. Этакий эффект наблюдателя в простой форме. Слева мы в видим состояние с максимальной энтропией. Почему максимальной? А что тогда справа!? Дело в том, что если вы дальтоник или экран чёрно-белый, то вы считаете четыре разных шара одинаковыми. Сейчас информация о системе минимальна, но это то же состояние, что и на картинке слева! Мораль сей басни такова: Будьте внимательны с понятием "информация". Обычно её количество зависит от того, кто получает эту информацию, и это может быть кто угодно с самыми разными возможностями.