1. Измерение информации. Алфавитный подход
С позиции содержательного подхода к измерению информации решается вопрос о количестве информации в сообщении, получаемом человеком. Рассматривается следующая ситуация: 1) человек получает сообщение о некотором событии; при этом заранее известна неопределенность знания человека об ожидаемом событии. Неопределенность знания может быть выражена либо числом возможных вариантов события, либо вероятностью ожидаемых вариантов события; 2) в результате получения сообщения неопределенность знания снимается:...
1149 читали · 2 года назад
Формула Шеннона показывает сколько бит информации содержит сообщение из одного события (символа). N- общее число событий (символов) pi -вероятность исполнения i-го события(символа) Чем больше количество событий (символов) в спектре событий(азбуке). тем больше информативность каждого события. Так информативность одной цифры 3,322 примерно с учетом равной вероятности их встречи. Для русской азбуки с 33 буквами примерно 5 бит Для азбуки буквицы с 49 буквами примерно 5,6 бит Для английского алфавита примерно 4,7 бит. Если учесть, что события (буквы. символы) встречаются с разной вероятностью, то общая информативность на символ падает, но растёт в случае выпадения редкого события(символы). Так например буква Ф встречается реже остальных букв в наших текстах и речи, значит вероятность её попадания самая низкая, но информативность самамя високая среди прочих. Для английского алфавита такая буква Z, хотя Q,J так же встречаются редко.