- •Тема 4. Информационные основы передачи сообщений по каналам связи.
- •Вопрос 1.
- •1.1. Информационные характеристики источников дискретных сообщений.
- •1.2. Энтропия источников непрерывных сообщений.
- •Вопрос 2.
- •Тема 4. Информационные основы передачи сообщений по каналам связи.
- •Вопрос 1
- •Вопрос 2.
- •Вопрос 3.
- •Тема 5. Прием сигналов в системах передачи дискретных сообщений.
- •Вопрос 1
- •Вопрос 2. Алгоритм оптимального приема полностью известных с-лов.
- •Вопрос 3.
- •Тема 5. Прием сигналов в с-мах передачи дискретных сообщений.
- •Вопрос 1
- •Вопрос 2.
- •Тема 5. Прием сигналов в системах передачи дискретных сообщений.
- •Вопрос 1
- •Вопрос 2. Влияние св-в с-лов на верность передачи.
- •Вопрос 3. Влияние неидеальности синхронизации на помехоустойчивость оптимальных приемников.
- •Тема 5. Прием сигналов в системах передачи дискретных сообщений.
- •Вопрос 1
- •Вопрос 2. Прием дискретных с-лов в каналах с замираниями.
- •Тема 5. Прием сигналов в системах передачи дискретных сообщений.
- •Вопрос 1. Прием чМн
- •Вопрос 2. Прием фМн с-лов.
- •Вопрос 3. Прием с-лов с офМн.
Лекция 6
Тема 4. Информационные основы передачи сообщений по каналам связи.
Тема лекции 6. Информационные характеристики источников сообщений и каналов связи.
1. Информационные характеристики источников сообщений.
1.1. Информационные характеристики источников дискретных сообщений.
1.2. Энтропия источников непрерывных сообщений.
2. Информационные описание каналов связи.
Необходимость
изучения вопросов темы 4
При передаче информации необходимо ее каким-то образом численно оценивать.
- Как много надо передать информации?
- Как быстро можно передавать информацию?
- Определить условия согласования в информационном отношении источников и потребителей с каналом.
- Оценить эффективность средств связи и как ее улучшить.
Вопрос 1.
Информация – некоторая совокупность сведений, составляющих меру наших знаний в тех или иных событиях.
Количество полученной информации равно неопределенности (неопределенность в выборе передаваемого сообщения не от смысла передаваемых сообщений, а от их общего числа).
Интуитивные представления и требования к мере количества информации.
- мера количества информации = 1, для опыта с 1 исходом.
- должна быть пропорциональна количеству равновероятных исходов.
- обладать свойством аддитивности опытов, т.е. информационная сложимость опыта есть сумма информационных составляющих.
- исходам с меньшей вероятностью должно соответствовать большее количество информации.
1.1. Информационные характеристики источников дискретных сообщений.
Пусть источник дискретных сообщений выдает некоторые сообщения, а из ансамбля условились количество информации в этом сообщении определять (4.1)
в основном k
= 2
в дальнейшем k
– не пишем, а считаем, что k
= 2.
Е
сли
k
= 2 – бит log2
k = 10 – дит log10
k = e – Мит ln
J
(ai)
– не учитывает полезность, ценность
или важность сообщений
для математической модели (отказ от
учета качества информации) это строгость
формулируемых утверждений. Тем более
каналы связи сами по себе безразличны
к качественным характеристикам
передаваемых сообщений.
Качество информации в средствах связи может быть учтено введением категорий и приоритетов сообщений, разных требований к надежности их передачи и т.п.
a1, a2, …, ai, …, ama – алфавит источника,
ma – объем алфавита.
p(a1), p(a2), …, p(ai), …p(ama) – вероятности появления символов на выходе источника сообщений.
Знание частной информации J(ai) недостаточно и не всегда необходимо. Для согласования источника сообщений с каналом связи необходимо знать информационные свойства источника сообщений. В целом интересующую характеристику можно рассматривать как мат-ожидание дискретной С.В.
t = сумма произведений значению дискрет. СВ на вероятность
Cлучай 1.
Если символы источника равновероятны и независимы
p(a1) = p(a2) = … = p(ai) = … = p(ama) =1/ma
J(ai) = log p(ai) = -log (1/ma) = log ma – каждый символ несет одно и тоже количество информации.
Энтропия – среднее количество информации, приходящееся на 1 символ.
H0(A) = log ma (4.2)
ma1 = 2 H0 = 1 бит
ma2 = 8 H0 = 3
ma3 = 32 H0 = 5
Как МО случ. дискрет.
Случай 2
Символы источника неравновероятны и независимы.
(4.3)
«Энтропия» заимствована из термодинамики, где она характеризует аналогичное по форме выражение, характеризующее неопределенность состояния физической системы.
В теории инф – э н т р о п и я характеризует неопределенность ситуации до передачи, т.е. мера неопределенности сообщения.
Пример 4.1
Свойства энтропии.
Энтропия есть величина вещественная, ограниченная, неотрицательная.
Если опыт имеет один исходный символ H(A) ≥ 0, то Н(А) min n = 0.
Энтропия max, если все исходные символы опыта равновероятны.
Энтропия опыта с 2-мя исходными может изменяться от 0 до 1.
Энтропия возрастает с увеличением числа исходов.
Случай 3
Символы источника неравновероятны и зависимы p(al/ak) – условная вероятность появления символа al; вероятность появления символа al, при условии, что до этого передавался символ ak.
J(Al/ak) – среднее количество информации, содержащееся в символе al, если предыдущим был символ ak, частная условная энтропия символа al
усреднение по l
J(Al/ak)
J(Al/Ak) = H2(A) ср. кол-во инф. в символе al (полная условная) энтропия.
усреднение по k
(4.4)
По теореме умножения ветвей
p(ak)p(al/ak)=p(ak,al)
Если источник распространяет 3 символа aj, ak, al
(4.5)
Пример 4.2.
Следствия
Если символы источника зависимы, то каждый из них несет в среднем меньшее количество инф. по сравнению с независимыми.
Уменьшение разницы между условными вероятностями приводит к увеличению энтропии (как и для независимых символов)
p(a1/a1) = p(a2/a2) = 0,2 0,469 бит
p(a1/a1) = p(a2/a2) = 0,3 0,881 бит
p(a1/a1) = p(a2/a2) = 0,5 1,0 бит – значение безусловной энтропии.
Условная энтропия изменяется в диапазоне от 0 до значения безусловной энтропии.
Условная энтропия уменьшается с увеличением числа символов, между которыми существует статическая взаимосвязь.
H0>H1>H2>…>Hn
Для русского текста H0 = log232 = 5 бит; H1 = 4,35 бит; Н2 = 3,52 бит;
H3 = 3,01бит, H4 = бит.
Порой сообщения имеют некоторую избыточность
Пример – в телеграммах нет союзов;
– можно текст сократить в 2 раза и восстановить его.
Наличие избыточности увеличивает помехоустойчивость, но излишне загружает канал связи. Для принятия решения о увеличении или уменьшении избыточности надо измерять ее количественно.
т.к. Hn < H0, то
можно утверждать, что сообщения, у которых энтропия символов меньше max явл. избыточными.
К
оэффициент
избыточности
Коэффициент сжатия
Пример 4.3
Производительность источника отражает его динамические св-ва кол-во инф., выдаваемое источником в ед. времени
Обозначим: τа – длительность символа
H’(A) – производительность источника
Производительность источника, если символы посылаются равномерно:
(4.6)
В общем случае при определении производительности источников следует учитывать как скорость выработки символов, так и скорость посылки в канал сообщений, составленных из этих символов.
