Данные (без потерь) можно сжимать только убирая ту их часть, которая не несёт дополнительной информации. Понятие количества информации тесно связано с понятием энтропии информации. Чем больше информационная энтропия, тем меньше возможности по сжатию соответствующих данных, поскольку уменьшить объем сообщения, сделав его меньше информационной энтропии этого сообщения, невозможно без искажений. Энтропия вообще характеризует степень беспорядка в системе. Значит, информации в хаосе больше, чем в регулярных данных. Если, например, нужно сжать однотонную картинку, достаточно сохранить только тон и размеры картинки. Для сохранения изображения с большим количеством деталей требуется намного больше места на диске. Совершенно неавтокоррелированный сигнал вообще нельзя сжать без потерь. Такой странный парадокс: не несущий нам пользы сигнал (некоррелированный шум) весит больше всего. Гармонический (периодический) сигнал почти ничего не весит с точки зрения теории информации. И в этом случае он и д