- •Введение
- •Немного истории.
- •32 Летний инженер-электрик на 100 страницах изложил идеи, которые всколыхнули математику, физику, лингвистику и многие другие науки.
- •Некоторые положения теории вероятности
- •Невозможные и достоверные события (0р1)
- •Квантование непрерывного сообщения по времени.
- •Квантование по уровню
- •Модуляция носителей информации
- •Спектры при модуляции.
- •Преобразование спектров при детектировании
- •Спектр суммы периодических функций
- •Мера информации
- •Распределение вероятностей обеспечивающее максимум энтропии.
- •Физические характеристики сигнала и канала
- •Преобразование объема сигнала.
- •Количество информации и объем сигнала.
- •Методика Хаффмена
- •Помехоустойчивое кодирование
- •Использование избыточности
- •Составление опознавателей и проверочных равенств
- •Оптоволоконные линии связи.
- •Радио линии.
- •Детекторный радиоприемник.
- •Супергетеродинный радиоприемник.
- •Список рекомендуемой литературы
Мера информации
Так как информация - мера незнания, новизны устраняемой сообщением, то эту неожиданность можно характеризовать обратной вероятностью 1/р. По здравому смыслу I - количество информации должно быть неубывающей функцией от 1/р I=f(1/p) . Очевидно, что f(1)=0 так как достоверное не нуждается в подтверждении. При выборе этой функции f необходимо чтобы она была аддитивной, то есть результирующая информация о двух независимых событиях равнялась сумме информации о каждом.
F(V1V2)=f(V1)+f(V2)* V=1/p f(V)0 f(1)=0
дифференцируя * по V1 и V2 V2f'(V1V2)=f'(V1)
V1f'(V1V2)=f'(V2)
отсюда f'(V1V2)=f'(V1)/V2
f'(V1V2)=f'(V2)/V1
или V1f'(V1)=V2f'(V2) т.к. V1 и V2 независимы Vf'(V)=C интегрируя f(V)=I(V)=C ln V+C1 C1=0 Iv=c ln U или I=logAV
Если I=1 т.е. получена единица информации logAV=1 V=A V=1/p a P=1/A это вероятность сообщения о результате из A ожидаемых равноправных вариантов.
Основание log говорит, во сколько раз единица информации сокращает наше «незнание».
I=log2 1/p бит 2 раза
I=ln 1/p нит =1,44269 бит 2,718 раза
I=lg 1/p дит (Хартли)=3,32193 бит 10 раз
Если алфавит содержит "m" элементов, а в сообщении "n" знаков, то число возможных сообщений N=mn в предположении что вероятности появления элементов равны. Информация при получении конкретного сообщения
I=logаN=logаmn=n logam
Количество сведений на один элемент или I'=I/n=logam - энтропия источника информации. Если элементы не равновероятны
n h1 h2 h3 ....hi ...hm
p p1 p2 p3 ... pi ...pm из этого алфавита составлено сообщение, всех элементов в сообщении n=n1+n2+n3+...ni+..nm n= вероятность что элементов hi будет ni равна pi=pini
Вероятность сообщения p=p1n1 h2n2...pmnm=
Так как сообщение достаточно велико ni=pin
тогда p=1/N= I=logAN=-n
I1=- - энтропия источника
I1= при равновероятном алфавите
Распределение вероятностей обеспечивающее максимум энтропии.
I= для источника с конечным числом состояний (алфавит конечный)
I=- для источника сигнала непрерывного (X) функция плотности вероятности.
Возможно выделить 2 случая.
1. когда ограничена 2 то есть ограничена D дисперсия. Физический смысл такого ограничения - ограничена мощность источника.
2 случай, когда не ограничена этот* случай представляет скорее теоретический интерес.
I=-
1= чтобы (x) могла быть функцией плотности вероятности
полагает, что M(x)=0
Это вариационная задача с дополнительными ограничениями, задача на условный экстремум.
Такая задача решается следующим образом. Если задан функционал V= и дополнительные ограничения ,то строится новая функционал где i постоянные ***и*** экстремум решением уравнения Эйлера.
(V*)1/F(x)+d(V*')/dx(F')=0
V*'=F(x)+iFi(x) F'=dF/dx
В нашем случае
F=-(x)ln(x) F1=(x) F2=x2x
V*=
V*1=-(x)ln(x)+1(x)+2x2(x)
V*1 не зависит от d(x)/dx и уравнение Эйлера может быть записано (V*)1.d=0=-ln-1+1+x22
из
из
это нормальное распределение.
Если 2 не ограничено, то
V*'=-ln+ (V*')/x=-ln-1+=0
=e-1=cost т.е. равномерное распределение.
Избыточность
Практически никогда IucmImax так как трудно обеспечить нормальное распределение элементов алфавита. Только если состояния элементов алфавита равновероятны Iucm=Imax.
Dабс=Imax-Iист избыточность абсолютная
Dотнос.=Imax-Iист./Imax=1-Iист/Imax избыточность относительная
Помехи. Виды помех и искажений
Шум: Сигнал статистически не связанный с передаваемой информацией.
а) Регулярный с характерной формой кривой
"Фон" шум с частотой питания или ее гармоник
"Вой" шум обусловленный нестабильностями в цепях обратной связи.
"Искровой шум" от коллекторного двигателя, от систем зажигания.
б) Нерегулярный. Атмосферные помехи. Микрофонный эффект от вибрации, искрение при включении и отключении RLC цепей.
Переходные помехи. Сигналы, мешающие для нашего канала, но полезные в другом.
Переходная связь между каналами, интерференция между каналами
"Собачий лай" сигнал с обращенной частотой от соседних каналов.
Искажения: сигналы статистически связанные с полезным сигналом.
Неравномерность частотно фазовых и частотно амплитудных характеристик.
Нелинейность элементов схем. Необратимые искажения - эффект отсечки PcPмах, потеря точности.