Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции / Измерение информации.doc
Скачиваний:
53
Добавлен:
17.04.2013
Размер:
70.66 Кб
Скачать

Комбинаторная мера

Количество информации в комбинаторной мере вычисляется как количество комбинаций элементов.

  1. Сочетания из h элементов по l различаются составом элементов. Их возможное число равно:

Q = Clh = h*(h-1)…(h-l+1)/l!

Например число сочетаний из трехбуквенного алфавита А, Б, В по 2 будет равно 3: АБ, АВ, БВ.

2. Перестановки h элементов различаются их порядком. Число возможных перестановок h эле ментов:

Q = Пh = h!

Например число перестановок букв трехбуквенного алфавита А, Б, В будет равно 6: АБВ, АВБ, БАВ, БВА, ВАБ, ВБА.

3. Размещения из h элементов по l различаются составом элементов и их порядком. Возможное число:

Q = Plh = h*(h-1)…(h-l+1)

Например число размещений из трехбуквенного алфавита А, Б, В по 2 будет равно 6: АБ, БА, АВ, ВА, БВ, ВБ.

При применении комбинаторной меры возможное количество информации Q заключается не в простом подсчете квантов, как в геометрическом представлении, а в определении количества осуществляемых комбинаций. Количество представляемой информации при том же количестве элементов можно существенно повысить.

Аддитивная мера (Хартли)

Определение аддитивной меры исходит из позиционной системы счисления.

Глубиной h будем называть количество различных элементов (знаков, букв) содержащемся в принятом алфавите. Глубина числа соответствует основанию системы счисления и кодирования.

Длиной l числа называется количество разрядов кода, необходимых и достаточных для представления чисел нужной величины Q.

Количество чисел, которое можно представить при глубине h и длине l составит:

Q = hl

Например, при глубине h = 3 для трехбуквенного алфавита А, Б, В и длине l = 2 для двухразрядного кода количество чисел будет равно 9: АА, АБ, АВ, БА, ББ, БВ, ВА, ВБ, ВВ.

Вследствие показательного закона зависимости Q от l число Q не является удобной мерой для оценки информационной емкости. Поэтому Хартли ввел аддитивную двоичную логарифмическую меру, позволяющую вычислять количество информации I в двоичных единицах:

I = log2 Q = log2hl = l*log2h

Если количество разрядов (длина числа) равна единице, принята двоичная система счисления (глубина h алфавита равна двум) и используется двоичный логарифм, то потенциальное количество информации равно одному биту.

Составим таблицу, показывающую соотношение h и l при примерно одинаковом обьеме Q = 1000:

l = log2Q / log2 h

h

1000

32

10

4

3

2

1

l

1

2

3

5

6

10

1000

Исследование гиперболической зависимости при минимизации произведения h * l дает в результате h = е = 2.7.. . Таким образом можно констатировать, что оптимальным основанием для системы счисления кодов является h = 3.

Статистическая мера информации

Связь между энтропией и количеством информации.

Ансамблем называется полная группа событий, с известным распределением вероятностей, составляющих в сумме единицу.

Энтропия H характеризует неопределенность априорного состояния ансамбля событий, а

количество информации I - мера снятие неопределенности при получении сообщения о событии.

Количественно мера информация совпадает с мерой измерения энтропии.

Например, ансамбль знаний студента до лекции был:

У1, У2,…Ут,…Ук, где Ук – конкретная область научных дисциплин со своими вероятностями познания:

Р(У1), Р(У2),… Р(Ук)… Р(Ук) (т – индекс для дисциплины «Теория информации»).

Ситуация априорно характеризовалась энтропией Н1. После получения информации на лекции энтропия уменьшилась до Н2, так как вероятность познания Р(Ут) возросла, а значит и уменьшилась неопределенность по отношению к дисциплине «Теория информации», а также в какой-то мере упорядочился ансамбль знаний.

Тогда количество информации, полученное студентом

I = H1 - H2

Рассмотрим ансамбль случайных дискретных событий Х:

Х(х1, х2,.. хi,..хN) , где хi – конкретные случайные события с вероятностями:

р(x1), р(x2),.. р(xi),…р(x N)

Очевидно, что чем меньше априорная вероятность i-го события (снег в Африке), тем большую информацию несет сообщение этого события, и наоборот, чем вероятнее событие (лекция закончится до обеда), тем меньше информации в сообщении о событии. В предельном случае, когда вероятность события = 1 (детерминированное событие – «за зимой следует весна»), то количество информации о событии должно быть равно нулю. Поэтому количество информации можно выразить через величину 1/ р(xi). Однако формула I = 1/ p(xi) для граничных значений не подходит, так как I = ∞ при p(xi) = 0 и I = 1 при p(xi) = 1).

Мера измерения количества информации для дискретных случайных сообщений впервые была предложена Шенноном в 1948г, а затем более строго была определена советским ученым Хинчиным А.Я. :

I = loga 1/ p

Количество информации, содержащееся в конкретном сообщении о событии xi:

I(xi) = loga 1/p(xi) = - loga р(хi )

Для того, чтобы мера количества информации не зависела от конкретного события, а характеризовала совокупность сообщений ансамбля Х вводится усредненная статистическая оценка, как математическое ожидание элементов I(xi) по всем xi (1≤ i ≤ N) -

среднее количество информации, содержащееся в сообщениях ансамбля Х:

I(Х) = - I(xi) = -p(xi)loga р(хi )

Основания логарифма «а» определяет единицу измерения количества информации. Двоичная единица, соответствующая основанию, равному двум, называется битом. Основанию е = 2,718, соответствует натуральная единица – нит (в математике), 1 нит = 1,44269 бит. Основанию, равному 10, соответствует десятичная единица – дит (в астрономии) или хартли, 1 дит = 3.32193 бит.

В нашей области науки и техники используется двоичная система счисления, поэтому основание логарифма для вычисления количество информации будет равно двум.

Свойства количества информации дискретных сообщений:

1. Количество информации - вещественная, неотрицательная и ограниченная величина 0=< I(Х)<=M

2. Количество информации детерминированных сообщений равно нулю.

I(xi) = 0 для p(xi) = 1

3. Количество информации максимально, если сообщения равновероятны.

Imax (X) = - - log2 р(х ) = log2 1/pi = log2N

I=1

Доказательство 1.

  1. I(Х) = -p(xi) log2 р(хi) – вещественная, так как p(xi) – вещественная.

  2. I(Х) = -p(xi) log2 р(хi) – неотрицательная, так как 0 ≤ p(xi) ≤1 и log2 р(хi ) ≤ 0 .

  3. I(Х) = -p(xi) log2 р(хi) – ограниченная, т.к. имеет максимальное ограниченное значение (доказательство 3).

Доказательство 2.

I(Х) = - p(xi) log2 р(хi) = 0 для р(хi) = 1.

Рассмотрим предел p(xi) log2 р(хi) при хi → 0.

Lim p(xi) log2 р(хi) = | y = log2 р(хi), z = 1/p(xi) | = Lim y/z = Lim y'/z' =

= - Lim {1/ р(хi)} /{1/ р(хi)2} = - Lim р(хi) = 0.

Доказательство 3.

Максимально возможное количество информации, содержащееся в N сообщениях, получается для случая равномерного распределения, то есть при p(xi )= 1/N

Imax (X) = - (1/N)* log2 р(х ) = log2 1/p(xi) = log2 N

И совпадает с аддитивной мерой по формуле Хартли, где Q = N. Совпадение оценок количества информации по Шеннону и Хартли свидетельствует о том, что при максимально эффективном статистическом состоянии ансамбля событий, а именно при равновероятности всех событий ансамбля, статистическая информационная емкость полностью использует возможности структурно построения информационной системы для ансамбля событий. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости ансамбля.

Соседние файлы в папке Лекции