
- •1. Понятие информации
- •1.1. Предмет, место и роль теории информации и передачи сигналов
- •1.2. Предмет и метод теории информации
- •1.3. Этапы обращения информации
- •1.4. Типовая структурная схема информационной системы. Разновидности информационных систем
- •1.5. Виды информации
- •1.6. Структура информации
- •1.7. Устранение избыточности информации
- •2. Измерение информации
- •2.1. Структурные меры информации
- •2.1.1. Геометрическая мера
- •2.1.2. Комбинаторная мера
- •2.1.3. Аддитивная мера информации
- •2.2. Статистические меры информации
- •2.2.1. Вероятность и информация
- •Двоичные однопредметные явления
- •Двоичные двухпредметные явления
- •Понятие энтропии
- •Энтропия ансамбля
- •Энтропия объединения
- •Количество информации и избыточность
- •2.3. Семантические меры информации
- •2.4. Другие меры полезности информации
- •2.4.1. Энтропия, шум и тезаурус
- •3. Информационные характеристики источника сообщений и канала связи
- •3.1. Основные понятия и определения
- •3.2. Информационные характеристики источника дискретных сообщений
- •3.2.1. Модели источника дискретных сообщений
- •3.2.2. Свойства эргодических последовательностей знаков
- •3.2.3. Избыточность
- •3.2.4. Производительность источника дискретных сообщений
- •3.3. Информационные характеристики дискретных каналов связи
- •3.3.1. Модели дискретных каналов
- •3.3.2. Скорость передачи информации по дискретному каналу
- •3.3.3. Пропускная способность дискретного канала без помех
- •3.3.4. Основная теорема Шеннона о кодировании для дискретного канала без помех
- •3.3.5. Пропускная способность дискретного канала с помехами
- •3.3.6. Основная теорема Шеннона о кодировании для дискретного канала с помехами
- •3.4. Информационные характеристики источника непрерывных сообщений
- •3.5. Информационные характеристики непрерывных каналов связи
- •3.5.1. Модели непрерывных каналов связи
- •3.5.2. Скорость передачи информации по непрерывному каналу
Энтропия ансамбля
Ансамблем называется полная группа событий, или, иначе, поле совместных событий с известным распределением вероятностей, составляющих в сумме единицу. Здесь имеется в виду конечное множество событий и, следовательно, дискретная система состояний, значений положений и т.д.
Энтропия ансамбля есть количественная мера его неопределенности, а следовательно, и информативности.
В статистической теории информации (теории связи), предложенной Шенноном в 1948 г., энтропия количественно выражается как средняя функция множества вероятностей каждого из возможных исходов опыта.
Пусть имеется всего Nвозможных исходов опыта, из нихkразных, иi-й исход повторяетсяniраз и вносит информацию, количество которой оценивается какIi. Тогда средняя информация, доставляемая одним опытом,
.
(12)
Но количество информации в каждом исходе связано с его вероятностью piи выражается в двоичных единицах (битах) через логарифм
Тогда
. (13)
Но т.к. отношения ni/Nпредставляют собой частоты повторения исходов, а следовательно, могут быть заменены их вероятностями:
ni/N=pi,
поэтому средняя информация в битах может быть выражена следующим образом:
или
Полученную величину Шеннон назвал Энтропией и обозначил буквой Н, бит:
(14)
Основание логарифма определяет единицу измерения энтропии и количества информации. Двоичная единица, соответствующая основанию, равному двум, называется битом.
Чаще всего применяют двоичный логарифм, так как он непосредственно дает количество информации в битах, хорошо согласуется с двоичной логикой, двоичным кодированием и двоичной (релейной) техникой.
Энтропия может быть определена так же, как среднее количество информации на одно сообщение или математическое ожидание количества информации Iдля измерения величиныX.
Функция H(p), гдеp= (p1, …, pk) – вектор вероятности исходов, была выбрана Шенноном так, чтобы она удовлетворяла следующим требованиям:
H(p) непрерывна на интервале 0Pi1, т.е. при малых изменениях р величинаHизменяется мало;
H(p) симметрична относительно р, т.е. не изменяется при любой перемене мест аргументов pi;
H(p1, p2, …, pk-1, q1, q2) = H(p1, p2, …, pk) + pk * H(q1/pk, q2/pk),
то есть если событие xk состоит из двух событий x’k и x’’k с вероятностями q1 и q2;
если q1+q2=pk, то общая энтропия будет равна сумме энтропии – неразветвленной системы и разветвленной части с весомpkпри условных вероятностяхq1/pkиq2/pk.
Кроме того, энтропия характеризуется следующими свойствами:
Энтропия всегда неотрицательна, так как значения вероятностей выражаются дробными величинами, а их логарифмы – отрицательными величинами, так что члены log2pi= -(-a) неотрицательны.
Энтропия равна нулю в том крайнем случае, когда одно событие равно единице, а все остальные нулю. Это тот случай, когда об опыте или величине все известно заранее, и результат не приносит никакой новой информации.
Энтропия имеет наибольшее значение при условии, когда все вероятности равны между собой
p1 = p2 = … = pi = … = pk = 1/k.
При этом логарифмическая статистическая мера информации связана с аддитивной логарифмической мерой Хартли
I’ =log2h.
Совпадение оценок количества информации по Шеннону и по Хартли свидетельствует о полном использовании информационной емкости системы. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости системы. Так, энтропия для двух неравновероятных состояний одного элемента (h= 2) равна
H = - (p1 log2 p1 + p2 log2 p2).
Она меньше информационной емкости двоичной ячейки, составляющей 1 бит.
Максимум H= 1 достигается при р = 0,5, когда два состояния равновероятны. При вероятностях р = 0 или р = 1, что соответствует полной невозможности или полной достоверности события, энтропия равна нулю.