Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
конспект полный (2).doc
Скачиваний:
17
Добавлен:
18.09.2019
Размер:
1.55 Mб
Скачать

Мера информации

Так как информация - мера незнания, новизны устраняемой сообщением, то эту неожиданность можно характеризовать обратной вероятностью 1/р. По здравому смыслу I - количество информации должно быть неубывающей функцией от 1/р I=f(1/p) . Очевидно, что f(1)=0 так как достоверное не нуждается в подтверждении. При выборе этой функции f необходимо чтобы она была аддитивной, то есть результирующая информация о двух независимых событиях равнялась сумме информации о каждом.

F(V1V2)=f(V1)+f(V2)* V=1/p f(V)0 f(1)=0

дифференцируя * по V1 и V2 V2f'(V1V2)=f'(V1)

V1f'(V1V2)=f'(V2)

отсюда f'(V1V2)=f'(V1)/V2

f'(V1V2)=f'(V2)/V1

или V1f'(V1)=V2f'(V2) т.к. V1 и V2 независимы Vf'(V)=C интегрируя f(V)=I(V)=C ln V+C1 C1=0 Iv=c ln U или I=logAV

Если I=1 т.е. получена единица информации logAV=1 V=A V=1/p a P=1/A это вероятность сообщения о результате из A ожидаемых равноправных вариантов.

Основание log говорит, во сколько раз единица информации сокращает наше «незнание».

I=log2 1/p бит 2 раза

I=ln 1/p нит =1,44269 бит 2,718 раза

I=lg 1/p дит (Хартли)=3,32193 бит 10 раз

Если алфавит содержит "m" элементов, а в сообщении "n" знаков, то число возможных сообщений N=mn в предположении что вероятности появления элементов равны. Информация при получении конкретного сообщения

I=logаN=logаmn=n logam

Количество сведений на один элемент или I'=I/n=logam - энтропия источника информации. Если элементы не равновероятны

n h1 h2 h3 ....hi ...hm

p p1 p2 p3 ... pi ...pm из этого алфавита составлено сообщение, всех элементов в сообщении n=n1+n2+n3+...ni+..nm n= вероятность что элементов hi будет ni равна pi=pini

Вероятность сообщения p=p1n1 h2n2...pmnm=

Так как сообщение достаточно велико ni=pin

тогда p=1/N= I=logAN=-n

I1=- - энтропия источника

I1= при равновероятном алфавите

Распределение вероятностей обеспечивающее максимум энтропии.

I= для источника с конечным числом состояний (алфавит конечный)

I=- для источника сигнала непрерывного (X) функция плотности вероятности.

Возможно выделить 2 случая.

1. когда ограничена 2 то есть ограничена D дисперсия. Физический смысл такого ограничения - ограничена мощность источника.

2 случай, когда  не ограничена этот* случай представляет скорее теоретический интерес.

  1. I=-

1= чтобы (x) могла быть функцией плотности вероятности

полагает, что M(x)=0

Это вариационная задача с дополнительными ограничениями, задача на условный экстремум.

Такая задача решается следующим образом. Если задан функционал V= и дополнительные ограничения ,то строится новая функционал где i постоянные ***и*** экстремум решением уравнения Эйлера.

(V*)1/F(x)+d(V*')/dx(F')=0

V*'=F(x)+iFi(x) F'=dF/dx

В нашем случае

F=-(x)ln(x) F1=(x) F2=x2x

V*=

V*1=-(x)ln(x)+1(x)+2x2(x)

V*1 не зависит от d(x)/dx и уравнение Эйлера может быть записано (V*)1.d=0=-ln-1+1+x22

из

из

это нормальное распределение.

  1. Если 2 не ограничено, то

V*'=-ln+ (V*')/x=-ln-1+=0

=e-1=cost т.е. равномерное распределение.

Избыточность

Практически никогда IucmImax так как трудно обеспечить нормальное распределение элементов алфавита. Только если состояния элементов алфавита равновероятны Iucm=Imax.

Dабс=Imax-Iист избыточность абсолютная

Dотнос.=Imax-Iист./Imax=1-Iист/Imax избыточность относительная

Помехи. Виды помех и искажений

  1. Шум: Сигнал статистически не связанный с передаваемой информацией.

а) Регулярный с характерной формой кривой

"Фон" шум с частотой питания или ее гармоник

"Вой" шум обусловленный нестабильностями в цепях обратной связи.

"Искровой шум" от коллекторного двигателя, от систем зажигания.

б) Нерегулярный. Атмосферные помехи. Микрофонный эффект от вибрации, искрение при включении и отключении RLC цепей.

  1. Переходные помехи. Сигналы, мешающие для нашего канала, но полезные в другом.

Переходная связь между каналами, интерференция между каналами

"Собачий лай" сигнал с обращенной частотой от соседних каналов.

  1. Искажения: сигналы статистически связанные с полезным сигналом.

  1. Неравномерность частотно фазовых и частотно амплитудных характеристик.

  2. Нелинейность элементов схем. Необратимые искажения - эффект отсечки PcPмах, потеря точности.