Энтропия — это мера неопределённости, хаотичности или неупорядоченности системы. Понятие используется в разных науках: в термодинамике — как характеристика распределения энергии (чем больше «рассеивается» энергия, тем выше энтропия); в статистической физике — как мера числа возможных микросостояний системы при заданных макроскопических параметрах (формула Больцмана: S=kln(W), где S — энтропия, k — постоянная Больцмана, W — число микросостояний); в теории информации (энтропия Шеннона) — как мера неопределённости случайной величины или количества информации в сообщении. Ключевые свойства: В замкнутой системе энтропия со временем только возрастает или остаётся постоянной (второй закон термодинамики). Чем выше упорядоченность системы, тем ниже её энтропия. Рост энтропии означает переход к более вероятному, хаотичному состоянию. Примеры: Растворение сахара в воде: энтропия увеличивается (молекулы распределяются равномерно). Таяние льда: энтропия рас