Информационная энтропия — это ключевое понятие в теории информации, введенное Клодом Шенноном в 1948 году. Она служит мерой неопределенности или случайности данных, поступающих из определенного источника. В отличие от физической энтропии, которая описывает уровень беспорядка в термодинамических системах, информационная энтропия фокусируется на количестве информации, содержащейся в сообщении. Информационная энтропия измеряется в битах и отражает степень неопределенности, связанной с возможными исходами события. Чем меньше вероятность определенного события, тем больше информации оно несет. Например, если событие происходит с вероятностью 100%, оно предсказуемо и имеет нулевую энтропию. Напротив, если события равновероятны, энтропия достигает максимума. Информационная энтропия находит широкое применение в различных областях: Информационная энтропия тесно связана с вероятностными распределениями. Если система имеет несколько возможных состояний с известными вероятностями, то энтропия позво