- •Г. И. Худяков
- •1. Исторические и технические предпосылки пти
- •2. Основные положения прикладной теории информации
- •3. Количество информации в знаковых системах Информационная мера Шеннона
- •I. Информационная статика
- •4. Информационные свойства источников дискретных сообщений Избыточность источников дис
- •5. Оптимальное кодирование статических источников дис Кодирование Шеннона-Фано и Хаффмена
- •6. Потери информации в статических системах передачи сообщений в отсутствие помех
- •7. Потери информации в системах электросвязи при наличии помех Пятый постулат теории информации
- •8. Информационные характеристики систем электросвязи Совместная, условная и остаточная энтропии каналов электросвязи
- •9. Информационная ёмкость статических каналов передачи дискретных сообщений
- •10. Помехоустойчивое канальное кодирование Основные понятия и классификация избыточных кодов
- •Основные термины теории блочного кодирования.
- •11. Количественные меры измерительной информации Информационная мера Фишера
- •12. Передача дискретных сообщений с помощью многоуровневых сигналов. Проблема квантования
- •13. Асимптотические оценки информационной ёмкости статических каналов передачи дискретных сообщений
- •II. Информационная динамика
- •14. Динамические характеристики источников и каналов связи Пропускная способность каналов электросвязи
- •15. Динамические характеристики аналоговых систем передачи информации. Проблема дискретизации сигналов
- •16. Пропускная способность аналоговых каналов электросвязи Формула Шеннона и интервал Найквиста
- •17. Численные методы расчёта пропускной способности цифровых каналов электросвязи
- •Многопозиционная фазовая манипуляция
- •Квадратурная амплитудная модуляция
- •Каналы с многопозиционной фазовой манипуляцией
- •Квадратурная амплитудная модуляция
- •П.1. Основные понятия общей теории информации
- •П.2. Основные достижения специалистов бтл в области пти
- •П.4. Подход различных авторов к формуле Шеннона
- •П.5. Краткие биографии создателей пти
- •I. Информационная статика
- •II. Информационная динамика
- •Геннадий Иванович худяков
9. Информационная ёмкость статических каналов передачи дискретных сообщений
Вернёмся к информационным характеристикам бинарной системы ССПИ (см. рис. 6) и рассмотрим теперь зависимость среднего количества информации (U, П) на один знак дискретного источника сообщений U, передаваемой посредством бинарного канала КПДС с переходной матрицей , от характеристик подключаемого к нему источника ДИС, то есть от величины P. В этом случае
P'1= P p + (1 – P) (1 – q); P'2 = P (1 – p) + (1 – P) q = 1 – P'1;
и в соответствии с формулой (7.1) имеем
(U, П) = P [ p log p + (1 – p) log (1 – p)] + (1 – P) [q log q + (1 – q) log (1 – q)] –
– [P ( p + q – 1) + 1 – q] log [P ( p + q – 1) + 1 – q] –
– [ q – P ( p + q – 1)] log [q – P ( p + q – 1)]. (9.1)
В симметричном бинарном канале ( p = q):
(U, П) = p log p + (1 – p) log (1 – p) – [P (2p – 1) + 1 – p]×
×log [P (2p – 1) + 1 – p] – [ p – P (2p – 1)] log [ p – P (2p – 1)]. (9.2)
Зависимость величины (U, П) для симметричного бинарного канала КПДС от величины P представлена кривыми 1 ( p = q = 1) и 2 (0,5 < ( p = q) < 1) на рис. 8.
При (0,5 < p < q < 1) зависимость (U, П) от величины P имеет вид, изображенный кривой 3; при (0,5 < q < p < 1) – кривой 4 на рис. 8.
Величина P = P0, соответствующая максимальному значению (U, П) =
= ( p, q), находится из уравнения d(U, П)/dP = 0. В результате решения этого уравнения получаем:
P0 = (q – β)/( p + q – 1),
макс( p, q) = γ (q – β) – β log β – (1 – β) log (1 – β) + q log q + (1 – q) log (1 – q),
где β = (1 + 2γ) –1, γ = [ p log+q log+ log]/( p + q – 1).
бит
знак
1
1
0,5
ℰ
3
2
4
0 P0 0,5 1 P
Рис. 8. Зависимость среднего на знак количества информации
на выходе бинарного канала КПДС
от вероятности P выдачи знака u1 источником ДИС:
1 – ( p = q = 1); 2 – (0,5 < p = q < 1); 3 – (0,5 < p < q < 1); 4 – (0,5 < q < p < 1)
Естественно, величина макс( p, q) ≡ макс(Π) зависит только от переходных вероятностей p и q бинарного канала КПДС, а потому может служить его собственной информационной характеристикой – вне зависимости от информационных характеристик подключаемого к нему источника ДИС. Поэтому величину макс(Π) будем называть удельной информационной ёмкостью статического канала КПДС, или просто ёмкостью канала КПДС и обозначать как ℰ (Π) ≡ макс(Π).
Величина P0 соответствует априорной вероятности одного из первичных знаков бинарного источника ДИС. Этот источник ДИС будет согласован с каналом КПДС, который характеризуется величинами p и q.
Удельная информативность (энтропия) такого согласованного источника ДИС: согл ( p, q) ≡ Hсогл ( p, q) ≡ – P0 log P0 – (1 – P0) log (1 – P0), а коэффициент надёжности получившейся оптимальной статической системы передачи бинарной информации ССПИ χ( p, q) = макс( p, q)/Hсогл ( p, q).
Отсюда практический вывод:
чтобы обеспечить минимум потерь информации в бинарном канале КПДС с переходными вероятностями (0,5 < p < 1) и (0,5 < q < 1), нужно так перекодировать, с помощью промежуточных символов , первичный источникДИС, чтобы вероятность P выдачи кодового слова для знака u1 соответствовала величине P0. |
Что же происходит при 0 < p < 0,5 и 0 < q < 0,5?
Рассмотрим симметричный бинарный канал КПДС с симметричным бинарным источником ДИС: P = 0,5; p = q. В этом случае, в соответствии с формулой (7.1), величина Ik j = log (Pj k /P'k), и мы имеем:
P'1 = P'2 = 0,5; I11 = log (2 p); I21 = log [2 (1 – p)];
= 0,5 p log (2 p); = 0,5 (1 – p) log [2(1 – p)].
Графики зависимости величин I11, I21, иот значения величиныp представлены на рис. 9.
Из рис. 9 следует, что при p = 0,5 количество информации I11 в символе w1 относительно знака u1 равно нулю (I11 = 0), а при p < 0,5 – становится отрицательным, что не отвечает интуитивному пониманию термина «информация». Зато при p < 0,5 величина I12 становится положительной. Это значит, что при 0,5 < p < 1 символу w1 следует присваивать значение знака u1, а при 0 < p < 0,5 – значение u2. При этом сумма среднего количества информации +, содержащейся в символе w2, всегда будет величиной неотрицательной при любом значении p.
Следовательно, рассчитанное по формуле (7.1) количество выходной ин-
формации всегда будет положительной величиной, за исключением случая p = 0,5, когда происходит полная потеря информации: I11 = I12 = I21 = I22 = 0.
Именно при таком (байесовском) алгоритме работы системы ССПИ реализуются формально-теоретические оценки, даваемые прикладной теорией информации. |
В рассматриваемой системе ССПИ (P = 0,5; p = q) среднее количество информации, получаемое на выходе бинарного канала КПДС, (U, П) ≡ ≡ H(U, П) (бит/знак), численно равна его коэффициенту надёжности χ(½, p, q) и составляет
(U, П) = 1 + p log p + (1 – p) log (1 – p) = χ( p). (9.3)
бит Ik j
знак
1
I21 I11
0
1 p
–1
I11 I21
–2
Рис. 9. Зависимость информационных характеристик I k j
симметричного бинарного канала КПДС
от значений его переходных вероятностей p = q
В общем случае (при N > 2) решением системы N 2 уравнений относительно величин Pjk можно вычислить те значения Pjk(0), которые определяют переход величин Ik j через “ноль” – и соответствующим образом сконструировать (сравнением данных значений {Pjk} с граничными {Pjk(0)}) алгоритм присвоения символам {wk}соответствующих значений знаков {uj}. По существу именно таким образом реализуется байесовский критерий принятия решений.
В то же время, можно сформулировать следующее утверждение.
Если удельная информативность , или энтропия H(U) данного источника ДИС не более удельной информационной ёмкости ℰ (П) статического канала передачи КПДС, имеющего переходную матрицу П, то можно так закодировать знаки {uj}источника ДИС U, что передача длинных сообщений Si(n) (n >> 1) источника ДИС посредством статического канала КПДС будет почти безошибочной. Если ℰ (П) < H(U), то не существует способа кодирования знаков {uj}, который бы позволил передавать информацию с коэффициентом информационной надёжности бóльшим, чем χ(U, П) = ℰ (П)/H(U). Иначе: при H(U) ≥ ℰ (П) средняя потеря информации на один знак источника ДИС будет не меньше, чем разность Δ(U, Π) = H(U) – ℰ (П). |
Получив в разд. 9 достаточно существенные для практических приложений общетеоретические результаты теории информации, перейдём к способам их практической реализации.
Вопросы для самопроверки
1. Каким образом вычисляется удельная информативность бинарной системы передачи дискретных сообщений?
2. Что такое информационная ёмкость бинарного канала передачи дискретных сообщений и в чём состоит её практический смысл?
3. Каким образом вычисляется коэффициент информационной надёжности симметричного бинарного канала передачи дискретных сообщений?
4. Каким образом соотносятся между собой удельная информативность источника дискретных сообщений и информационная ёмкость статического канала передачи дискретных сообщений?