Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции / Передача через.doc
Скачиваний:
42
Добавлен:
17.04.2013
Размер:
88.58 Кб
Скачать
  1. Количество информации, предаваемой по каналу с помехами.

  1. Для матрицы общего вида Pijоценим количество информации, которое содержится в принятом сообщении yj относительно xi:

А) неопределенность относительно xi до получения yj характеризуется его энтропией:

H(xi) = - log2P(xi)

Для канала без помех, получив yj из канала связи, мы полностью сняли о нем неопределенность, т.е. получили количество информации:Ii = H(xi) = - log2P(xi).

Б) Вследствие воздействия помех после получения yjмы полностью не сняли неопределенность, а лишь уменьшили её до значенияH(xi/yj) = - log2P(xi/yi).

В) Разница неопределённостей до и после получения сообщения yjсоставила количество информации, содержащееся в сообщении yjотносительно xi:

I(xi/yi) = H(xi) - H(xi/yj) = log2(P(xi/yi)/P(xi)).

Частное

Количество информации,

содержащееся в принятом yj

относительно xi

  1. Среднее количество информации о всем множестве X , содержащееся в принятом сообщении yj:

n n

I(X/yi) = P(xi/yj) * I(xi/yj) = P(xi/yj) * log2(P(xi/yi)/P(xi));

i=1 i=1

  1. Среднее количество информации, содержащееся во всей совокупности принятых сообщений Y относительно всей совокупности преданных сообщений X (усреднение по всем yj):

n n n

I(X/Y) = P(yj) * I(X/yj) =   P(yj)* P(xi/yj) * log2(P(xi/yj)/P(xi));

j=1 j=1 i=1 P(xi ,yj)

Принимая: P(yj)* P(xi/yj) = P(xi ,yj) = P(xi)* P(yj/xi)

Вероятность совместного появления xi и yj

Вывод: Для определения среднего количества информации, передаваемой по каналу с помехами необходимо определение:

А) P(xi/yj) – канальной матрицы условной вероятности;

Б) P(xi) – априорной распределенной вероятности алфавита X.

Проведя соответствующие преобразования, получим:

А) I(X/Y) = - P(xi) * log2P(xi) +   P(xi,yj) * log2P(xi/yj);

i i j

H(X) H(X/Y)

Безусловная энтропия Условная энтропия

Среднее количество информации, получаемое из канала связи при наличии помех равно разности безусловной энтропии, характеризующей начальную неопределенность сообщений (до принятия сообщения) и условной энтропии, характеризующей остаточную неопределенность (после получения сообщения).

Рассмотрим предельные значения полученного сообщения:

А) отсутствие помех

  • между xi иyjоднозначное соответствие (соотношение);

  • Pijвырождается вединичнуюдиагональную матрицу;

  • H(X/Y) = 0–формально следует из подстановки в основное выражение, т.е.

I(X/Y) = I(X) = H(X).

Б) при уровне помех, обеспечивающихP(xi/y1) P(xi/y2)…,т.е. при отсутствии какой-либостатистической связи между переданными{xi}и принятыми{yj}сообщениями, имеем

H(X) = H(X/Y),

т.е. безусловная энтропия (до сообщения) = условной энтропии (после сообщения).

Таким образом, полученное сообщение yjне снизило на сколько-нибудь неопределенность относительно xi. Иными словами, количество информации, содержащееся вyjотносительноxi=0

I =H(X) - H(X/Y) = 0.

Вывод:Информационные характеристики реальных каналов связи лежат между двумя предельными случаями:

H(X) I 0 .

Отсутствие помех равновероятностные помехи

Пример: количество информации, представляемое по бинарному симметричному каналу связи с помехами.

P(xi)  P0

P1

Pij = p q = P(y0/x0) P(y1/x0)

q p  P(y0/x1) P(y1/x1)

1 1 1

I (0,1) = - Pi* log2Pi +   P(xi)* P(yj/xi)* log2P(yj/xi) = 

i=0 i=0 j=0

безусловное количество условная энтропия (или потеря количества информации)

информации(энтропия) зависит от регл. алфавита X(0,1) и от матрицы условных

зависит от распределения вероятностей P(yj/xi)

начального алфавита из

двух букв: 0 и 1

1 1

 -P0* log2P0 -P1* log2P1 + P0* P(yj/x0)* log2P(yj/x0) + P1* P(yj/x1)* log2P(yj/x1) = 

i=0 i=1 j=0 i=0 j=0 i=1

 -P0* log2P0 -P1* log2P1 + P0* [p*log2p + q* log2q] + P1* [q* log2q + p* log2p] =

-P0* log2P0 -P1* log2P1+ [P0+P1] * [p*log2p + q* log2q] = -P0* log2P0 -P1* log2P1+ p*log2p + q* log2q

I(x) =1

Imax = P0 =P1 =½= ½* log2½ -½*log2½ + p*log2p + q* log2q = 1+ p*log2p + q* log2q

C = log22 =1 при q = 0, p = 1 –канал связи без помех

при q = 1, p = 0 – канал связи - инвертор

С= log22 = 0 при q = ½ = p – когда вероятность правильной передачи и ошибки равны

Соседние файлы в папке Лекции