Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции по информатике2.doc
Скачиваний:
89
Добавлен:
02.05.2014
Размер:
275.97 Кб
Скачать
  1. Информационная мера шеннона.

    1. Количество информации и избыточность.

Дискретные системы связи - системы, в которых как реализации сообщения, так и реализации сигнала представляют собой последовательности символов алфавита, содержащего конечное число элементарных символов.

Пусть  и  - случайные величины с множествами возможных значений Х={х1,х2,...,хN}, Y={y1,y2,...,yM}

Количество информации H() при наблюдении случайной величины   X = {x1,x2,…,xN} с распределением вероятностей P={p1,p2,рN}задается формулой Шеннона:

.

Единицей измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения. При равномерном распределении р12==pN количество информации задается формулой Хартли:

Справедливы следующие соотношения:

  • 0 H()log2N;

  • N=2, p1=p2=0.5, H()=1;

  • H(,)=H()+H(), если и -независимы. Избыточностью называется р = 1‑H(,)/max{ H() } = 1 ‑ H()/log2N.

    1. Пример.

Источник сообщений выдает символы из алфавита А = {аi}, i = 1..4 с вероятностями р= 0.2, р2  = 0.3; р3  = 0.4; р4 = 0.1. Найти количество информации и избыточность.

Решение. По формуле Шеннона

Н(А) = -0.2 log2 0.2 – 0.3 log2 0.3 – 0.4 Iog2 0.4 – 0.1 log2 0.1 = 1.86 (бит).

По определению избыточности р = 1 – H(A)! log2 4 = 0,07.

    1. Задачи

Задача 1. Определить энтропию и избыточность источника информации А, передающего сообщения Аi, i = 1..4. Вероятность сообщений определяются по формулам: р1 = 0.2 + 0.005.V; р2 = 0.3 ‑ 0.005.V; р3 = 0.1 + 0.01.V; р4 = 0.4 ‑ 0.01.V, где V – номер варианта.

Задача 2. На выходе источника сообщений может появляться нуль и единица. Вероятность появления каждого сообщения изменяется со временем и в каждый момент времени может быть определена по формулам:

p(1) = 0.9 – 0.02.(V - 1) – 0.1.t, p(0) = 0.1 + 0.02.(V - 1) + 0.1.t,

Необходимо исследовать изменение энтропии источника информации во времени и определить момент времени, когда математическая модель опыта теряет смысл. Энтропия источника сообщений вычисляется в соответствии с формулой Шеннона. Все вычисления сводятся в табл.2:

Таблица 2

t

Р(0)

Р(1)

H(0)

Н(1)

H

Значения t задаются целыми числами через равные промежутки времени t = 0,1,2,...

Математическая модель опыта имеет смысл, когда выполняются соотношения для вероятностей р(1) + р(0) = 1; 0 р(0)  1; 0  р(1)  1. Значенияt, при котором эти соотношения перестают выполняться, и есть момент времени, когда модель опыта теряет смысл. После заполнения таблицы результатами вычислений следует построить графики измененияH(0),H(1),H. При анализе графиков обратить внимание на точку, где энтропия принимает наибольшее значение и наименьшее значение. Указать значения вероятностей появления символов в этих точках и моменты времени.

Задача 1

Сигнал подается на вход канала (величина ) с вероятностью(логическая единица) и отсутствует (логический ноль) с вероятностью (1 –р). Вероятность того, что поступившая единица правильно воспроизведена на выходе –p.0.8, а вероятность правильного воспроизведения нуля –p.0.95(величина). Найти энтропию выхода, энтропию входа, взаимную информацию входа и выходаI(S,S');

Задача 2

Распределение вероятностей входных и выходных сигналов системы заданы следующей матрицей:

, где

Определить энтропию входа H(), условную энтропию H(Y/X ) и Н(Х/), взаимную информацию (X,Y ).