Комбинаторная мера
Количество информации в комбинаторной мере вычисляется как количество комбинаций элементов.
-
Сочетания из h элементов по l различаются составом элементов. Их возможное число равно:
Q = Clh = h*(h-1)…(h-l+1)/l!
Например число сочетаний из трехбуквенного алфавита А, Б, В по 2 будет равно 3: АБ, АВ, БВ.
2. Перестановки h элементов различаются их порядком. Число возможных перестановок h эле ментов:
Q = Пh = h!
Например число перестановок букв трехбуквенного алфавита А, Б, В будет равно 6: АБВ, АВБ, БАВ, БВА, ВАБ, ВБА.
3. Размещения из h элементов по l различаются составом элементов и их порядком. Возможное число:
Q = Plh = h*(h-1)…(h-l+1)
Например число размещений из трехбуквенного алфавита А, Б, В по 2 будет равно 6: АБ, БА, АВ, ВА, БВ, ВБ.
При применении комбинаторной меры возможное количество информации Q заключается не в простом подсчете квантов, как в геометрическом представлении, а в определении количества осуществляемых комбинаций. Количество представляемой информации при том же количестве элементов можно существенно повысить.
Аддитивная мера (Хартли)
Определение аддитивной меры исходит из позиционной системы счисления.
Глубиной h будем называть количество различных элементов (знаков, букв) содержащемся в принятом алфавите. Глубина числа соответствует основанию системы счисления и кодирования.
Длиной l числа называется количество разрядов кода, необходимых и достаточных для представления чисел нужной величины Q.
Количество чисел, которое можно представить при глубине h и длине l составит:
Q = hl
Например, при глубине h = 3 для трехбуквенного алфавита А, Б, В и длине l = 2 для двухразрядного кода количество чисел будет равно 9: АА, АБ, АВ, БА, ББ, БВ, ВА, ВБ, ВВ.
Вследствие показательного закона зависимости Q от l число Q не является удобной мерой для оценки информационной емкости. Поэтому Хартли ввел аддитивную двоичную логарифмическую меру, позволяющую вычислять количество информации I в двоичных единицах:
I = log2 Q = log2hl = l*log2h
Если количество разрядов (длина числа) равна единице, принята двоичная система счисления (глубина h алфавита равна двум) и используется двоичный логарифм, то потенциальное количество информации равно одному биту.
Составим таблицу, показывающую соотношение h и l при примерно одинаковом обьеме Q = 1000:
l = log2Q / log2 h
|
h |
1000 |
32 |
10 |
4 |
3 |
2 |
1 |
|
l |
1 |
2 |
3 |
5 |
6 |
10 |
1000 |
Исследование гиперболической зависимости при минимизации произведения h * l дает в результате h = е = 2.7.. . Таким образом можно констатировать, что оптимальным основанием для системы счисления кодов является h = 3.
Статистическая мера информации
Связь между энтропией и количеством информации.
Ансамблем называется полная группа событий, с известным распределением вероятностей, составляющих в сумме единицу.
Энтропия H характеризует неопределенность априорного состояния ансамбля событий, а
количество информации I - мера снятие неопределенности при получении сообщения о событии.
Количественно мера информация совпадает с мерой измерения энтропии.
Например, ансамбль знаний студента до лекции был:
У1, У2,…Ут,…Ук, где Ук – конкретная область научных дисциплин со своими вероятностями познания:
Р(У1), Р(У2),… Р(Ук)… Р(Ук) (т – индекс для дисциплины «Теория информации»).
Ситуация априорно характеризовалась энтропией Н1. После получения информации на лекции энтропия уменьшилась до Н2, так как вероятность познания Р(Ут) возросла, а значит и уменьшилась неопределенность по отношению к дисциплине «Теория информации», а также в какой-то мере упорядочился ансамбль знаний.
Тогда количество информации, полученное студентом
I = H1 - H2
Рассмотрим ансамбль случайных дискретных событий Х:
Х(х1, х2,.. хi,..хN) , где хi – конкретные случайные события с вероятностями:
р(x1), р(x2),.. р(xi),…р(x N)
Очевидно, что чем меньше априорная вероятность i-го события (снег в Африке), тем большую информацию несет сообщение этого события, и наоборот, чем вероятнее событие (лекция закончится до обеда), тем меньше информации в сообщении о событии. В предельном случае, когда вероятность события = 1 (детерминированное событие – «за зимой следует весна»), то количество информации о событии должно быть равно нулю. Поэтому количество информации можно выразить через величину 1/ р(xi). Однако формула I = 1/ p(xi) для граничных значений не подходит, так как I = ∞ при p(xi) = 0 и I = 1 при p(xi) = 1).
Мера измерения количества информации для дискретных случайных сообщений впервые была предложена Шенноном в 1948г, а затем более строго была определена советским ученым Хинчиным А.Я. :
I = loga 1/ p
Количество информации, содержащееся в конкретном сообщении о событии xi:
I(xi) = loga 1/p(xi) = - loga р(хi )
Для того, чтобы мера количества информации не зависела от конкретного события, а характеризовала совокупность сообщений ансамбля Х вводится усредненная статистическая оценка, как математическое ожидание элементов I(xi) по всем xi (1≤ i ≤ N) -
среднее количество информации, содержащееся в сообщениях ансамбля Х:
I(Х) = - I(xi) = -p(xi)loga р(хi )
Основания логарифма «а» определяет единицу измерения количества информации. Двоичная единица, соответствующая основанию, равному двум, называется битом. Основанию е = 2,718, соответствует натуральная единица – нит (в математике), 1 нит = 1,44269 бит. Основанию, равному 10, соответствует десятичная единица – дит (в астрономии) или хартли, 1 дит = 3.32193 бит.
В нашей области науки и техники используется двоичная система счисления, поэтому основание логарифма для вычисления количество информации будет равно двум.
Свойства количества информации дискретных сообщений:
1. Количество информации - вещественная, неотрицательная и ограниченная величина 0=< I(Х)<=M
2. Количество информации детерминированных сообщений равно нулю.
I(xi) = 0 для p(xi) = 1
3. Количество информации максимально, если сообщения равновероятны.
Imax (X) = - - log2 р(х ) = log2 1/pi = log2N
I=1
Доказательство 1.
-
I(Х) = -p(xi) log2 р(хi) – вещественная, так как p(xi) – вещественная.
-
I(Х) = -p(xi) log2 р(хi) – неотрицательная, так как 0 ≤ p(xi) ≤1 и log2 р(хi ) ≤ 0 .
-
I(Х) = -p(xi) log2 р(хi) – ограниченная, т.к. имеет максимальное ограниченное значение (доказательство 3).
Доказательство 2.
I(Х) = - p(xi) log2 р(хi) = 0 для р(хi) = 1.
Рассмотрим предел p(xi) log2 р(хi) при хi → 0.
Lim p(xi) log2 р(хi) = | y = log2 р(хi), z = 1/p(xi) | = Lim y/z = Lim y'/z' =
= - Lim {1/ р(хi)} /{1/ р(хi)2} = - Lim р(хi) = 0.
Доказательство 3.
Максимально возможное количество информации, содержащееся в N сообщениях, получается для случая равномерного распределения, то есть при p(xi )= 1/N
Imax (X) = - (1/N)* log2 р(х ) = log2 1/p(xi) = log2 N
И совпадает с аддитивной мерой по формуле Хартли, где Q = N. Совпадение оценок количества информации по Шеннону и Хартли свидетельствует о том, что при максимально эффективном статистическом состоянии ансамбля событий, а именно при равновероятности всех событий ансамбля, статистическая информационная емкость полностью использует возможности структурно построения информационной системы для ансамбля событий. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости ансамбля.
