Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
COD_POS_2004.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
316.93 Кб
Скачать

3. 3. Передача информации

Ещё раз вернёмся к общей схеме передачи информации, рассматривая реальные сообщения как некоторые опыты с соответствующими таблицами распределения вероятностей в них отдельных букв или сочетания букв.

В частности, если х и х' - переданное и искажённое сообщения соответственно, то определим количество информации I(x' , x) - выхода канала относительно его входа как:

I(x' , x) = Н(х) - Нх ' (х) ,

где Н(х), Н(х') энтропии сообщений х и х' соответственно.

Значение

C = max I(x' , x)

х

называется пропускной способностью канала, т.е. она характеризует максимальное количество информации, которое может быть передано через канал за один такт времени. А в самом деле, пропускная способность канала является верхней границей скорости R надёжной передачи информации, причём к этой границе можно подойти сколь угодно близко.

Теорема 1.(о кодировании). Для любого числа R, меньшего пропускной способности С канала, и любого 0 существует способ блоковой передачи со скоростью, не меньшей R, и вероятностью ошибки Р(е), не превосходящей .

В то же время всякий способ передачи информации со скоростью, большей пропускной способности, приводит к тому, что вероятность ошибки будет больше некоторой фиксированной величины.

Теорема 2.(обращение теоремы кодирования). Если величина R превосходит пропускную способность канала С, то найдётся константа 0 (зависящая от R и C) такая, что при любом способе блоковой передачи информации со скоростью, не меньшей R, выполнено неравенство

Р(е) 0.

Обозначим через I(a i) количество информации, содержащееся в символе a i и определим его как:

I( a i ) = - log2 P(a i) ,

где P(a i) - вероятность появления символа a i в самом тексте сообщения.

Если же текст сообщений записан на некотором естественном языке

( а его можно рассматривать как естественный код, обнаруживающий и исправляющий ошибки ), то каждая буква этого языка имеет свою частоту встречаемости в тексте ( так, например, в русском языке буквы о , е , ё гораздо чаще встречаются ( Ро = 0.09 , Ре,ё = 0.07) , чем буквы э и ф ( Рэ= 0.003, Рф = 0.002 )) и поэтому неопределённость HL естественного языка определяется как m

HL= -  P( a i ) log2 P( a i ) ,

i = 1

а избыточность СL соответственно как

СL= 1 - HL/ log2 m ,

где m - количество букв естественного языка.

Очевидно, что 0 ≤ СL ≤ 1, следовательно, при оптимальном кодировании часть текста можно без ущерба для понимания опустить.

Так, например, СL= 0.5 для литературного английского языка, а избыточность других языков несколько меньше.

Отметим, что избыточность языка не является недостатком, а скорее преимуществом, так как, например, если СL= 50% , то это означает что по половине искажённого текста можно восстановить весь текст.

3.3.1. Определить пропускную способность ДСК.

3.3.2. Найти I(x' , x) для ДСК.

3.3.3. Определить избыточность и неопределённость русского языка.

3.3.4. Определить количество информации букв английского языка.

3.3.5. Доказать теоремы Шеннона для блочных кодов.

3.3.6. Восстановить текст:

а) С??зд ц?ли??м ? п?лн???ью од??ри? м??опр??т?я ц? пар??? ?о ??рьб? ? ?а?о?ом;

б) ?об?ка ?ае? ка?ав?н ???ает.

ОГЛАВЛЕНИЕ

Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3

1. Алфавит дискретных устройств . Конечные поля . . . . . . . . . . 4

1.1. Простое поле Галуа GF(P) . . . . . . . . . . . . . . . . . . . . . 4

1.2. Составное поле Галуа GF(Pn) . . . . . . . . . . . . . . . . . . . 6

2. Кодирование информации . . . . . . . . . . . . . . . . . . . . . . .9

2.1. Основные понятия . Примеры кодов . . . . . . . . . . . . . . . 9

2.2. Линейные коды . Способы их задания . . . . . . . . . . . . 15

2.3. Свойства линейного кода . Коды Хэмминга . . . . . . . . . . 22

2.4. Циклические коды . . . . . . . . . . . . . . . . . . . . . . . . 27

2.5. Коды БЧХ , исправляющие две ошибки . . . . . . . . . . . . .32

2.6. Нелинейные коды . Коды Адамара . . . . . . . . . . . . . . . .36

2.7. Границы мощности кодов . . . . . . . . . . . . . . . . . . . . 40

3. Информация и неопределённость . . . . . . . . . . . . . . . . . . 44

3.1. Количественная мера неопределённости . . . . . . . . . . . .45

3.2. Условная неопределённость . Количество информации . . . . .47

3.3. Передача информации . . . . . . . . . . . . . . . . . . . . . .50

Осипян Валерий Осипович

ЭЛЕМЕНТЫ ТЕОРИИ ПЕРЕДАЧИ ИНФОРМАЦИИ

Редактор Т.В.Шилова

Технический редактор И.А. Зиновская

Корректор М.Е. Шулепова

ЛР № 200378 от 22.01.97

Подписано в печать 29.01.97.

Формат 60841/16. Бумага тип. № 3.

Печать трафаретная. Усл. печ. л. 2,75.

Уч.-изд. л. 2,7. Тираж 300 экз. Заказ №

Кубанский государственный университет

350040 г. Краснодар, ул. Ставропольская, 149.

Тип. КубГУ, ул. Октябрьская, 25.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]