Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Березкин Основы теории информации и кодирования Лабораторный практикум 2009

.pdf
Скачиваний:
240
Добавлен:
17.08.2013
Размер:
715.03 Кб
Скачать

 

 

i1

i 2

 

i 3

i 4

 

i 5

 

 

1

2

3

4

5

6

7

8

 

 

0

1

1

0

1

1

0

1

,

k = 5 ,

i1

=

2

 

 

 

 

 

 

 

i 2

=

3

 

 

 

 

 

 

 

i 3

=

5

 

 

 

 

 

 

 

i 4

=

6

 

 

 

 

 

 

 

i 5 = 8 ,

 

l n , k = 4 + 6 .

Построим для этого случая таблицу вычисления биномиальных коэффициентов (табл. 5.1).

Таблица 5.1

 

n

n 1

n 1

n 1

n 1

n 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

2

 

3

 

4

 

5

 

i5

8

 

7

21

 

35

 

35

 

21

 

 

7

 

6

15

 

20

 

15

 

6

 

i 4

6

 

5

10

 

10

 

5

 

1

 

i 3

5

 

4

6

 

4

 

1

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4

 

3

3

 

1

 

0

 

0

 

i 2

3

 

2

1

 

0

 

0

 

0

 

i 1

2

 

1

0

 

0

 

0

 

0

 

 

1

 

0

0

 

0

 

0

 

0

 

В таблице слагаемые, соответствующие искомым биномиальным коэффициентам, обведены, bk = 32, (k , bk ) (0101,100000) .

Декодирование производится в обратном порядке; так как k = 5 , ищем в пятом столбце наибольшее число, меньшее или равное 32. Вычисляем разность 32-21=11. В четвертом столбце имеем наибольшее число, меньшее или равное 11, и т.д. Таким же образом декодирование производится при любом n.

51

Пример. Пусть n=100. Дадим оценку ln ,k для различных k

(табл. 5.2).

 

 

Таблица 5.2

k

ln,k

Kсж =n/ln,k

1

7+ 7

7,14

2

7+13

5

3

7+18

4

4

7+23

3,33

...

...

...

10

7+45

1,92

...

...

...

20

7+70

1,30

В условиях полной статистики источника применяют методы кодирования Шеннона-Фано и Хаффмана. Множество известных коммерческих архиваторов в той или иной степени используют идеи, положенные в основу метода оптимального кодирования Хаффмана.

ПОДГОТОВКА К ВЫПОЛНЕНИЮ РАБОТЫ

1.Изучить теоретический материал.

2.Выбрать произвольный n-блок небольшой длины и провести его сжатие с использованием методов КДС, АПК, ИПП и УК.

3.Вычислить основные количественные характеристики и сопоставить их между собой.

4.Продумать последовательность действий для получения семейства кривых

K сж = F ( p) АПК, КДС, ИПП, УК

при фиксированном значении параметра n, используя программную реализацию четырех методов сжатия.

5.Заготовить оси координат для нанесения семейства кривых для двух различных значений n.

6.Отразить подготовку в лабораторном отчете.

52

ПОРЯДОК ВЫПОЛНЕНИЯ РАБОТЫ

1.Используя обучающие и графические средства диалоговой программы, детально разобраться в основных принципах сжатия данных.

2.Проверить правильность результатов кодирования, полученных при домашней подготовке.

3.Исследовать методы сжатия путем построения семейства кри-

вых

K сж = F ( p) АПК, КДС, ИПП, УК

для двух различных, но фиксированных значений параметров n. Параметры n задаются преподавателем.

4.Исследовать чувствительность методов сжатия к расположению единиц в n-блоке при фиксированной частоте появления "1".

5.Результаты отразить в лабораторном отчете.

КОНТРОЛЬНЫЕ ВОПРОСЫ

1.Поясните сущность понятия энтропии.

2.В каких единицах измеряется энтропия?

3.Как определяется энтропия дискретной системы с равновероятными и неравновероятными состояниями?

4.Чему равна энтропия при неравновероятном и взаимозависимом распределении элементов системы?

5.Что понимается под избыточностью сообщений?

6.Что понимается под операцией кодирования?

7.Что является мерой количественной оценки избыточности?

8.Какой метод кодирования наиболее предпочтителен при полностью известной статистике?

9.Как можно оценить длину кодового слова при использовании универсального метода кодирования?

10.Какие методы кодирования, изучаемые в данной работе, чувствительны к расположению единиц в блоке?

11.Какой метод кодирования дает наилучший результат в условиях полностью неизвестной статистики?

12.Как длина исходного блока влияет на Kсж ?

53

Лабораторная работа 6

ИССЛЕДОВАНИЕ ИНФОРМАЦИОННОЙ ПРОПУСКНОЙ СПОСОБНОСТИ ДВОИЧНОГО КАНАЛА

Цель: изучить принципы вычисления информационной пропускной способности двоичного канала и исследовать зависимость ее от характеристик канала.

ТЕОРЕТИЧЕСКАЯ ЧАСТЬ

Для анализа информационных возможностей удобно пользоваться обобщенной информационной моделью канала связи, представленной на рис. 6.1. Если канал используется для передачи кодоимпульсных сигналов, он называется дискретным.

Под каналом связи (или передачи информации) принято понимать совокупность аппаратных средств, предназначенных для передачи сигналов.

Канал связи преобразует последовательность входных событий

ξ1 , ξ 2 ,...,

ξ j ,...

, каждое из

которых

представляется

точкой

ξj = xk X

входного пространства X,

в выходные

события

η1 , η2 ,...,

η j ,... , каждое из

которых

представляется

точкой

η j (ξ j ) = yi Y

выходного

пространства Y. Преобразование

управляется условным распределением вероятностей p(yi / xk ) .

Канал, в котором p(yi / xk ) одно и то же для всех последова-

тельных входных и выходных событий, называется стационарным каналом без памяти.

В теории информации доказывается, что информационная пропускная способность дискретного стационарного канала может быть вычислена по формуле:

C = max

H ( X ;Y ) ,

(6.1)

{p ( xk )}

 

 

где H ( X ; Y ) – взаимная энтропия. В свою очередь,

54

H ( X ;Y ) = H (Y ) H (Y / X ) ,

H (Y ) = −p( yi ) log 2 p( yi ) ,

 

 

 

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

/ xk ) , (6.2)

 

H (Y / X ) = −∑∑ p( xk ) p( yi / xk ) log 2 p( yi

 

 

 

 

 

 

 

 

 

 

 

X

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

p( yi ) = p( xk ) p( yi / xk ) .

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ξj xk X

ηj yi

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

• • • •

 

• • • •

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ИИ

 

 

КД

 

 

 

 

 

 

 

 

 

p(yi / xk )

 

 

 

 

 

Y

 

= LY

ДК

 

 

ПИ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

= LX

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( yi /

 

xk )

 

 

=

 

p( y1 / x1 )

...

p( yLY

/

 

x1 )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

...

 

 

 

 

...

...

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p( y1 / xL X

) ...

p( yLY

/ xL X )

 

 

 

Рис. 6.1. Структура дискретного канала: ИИ – источник информации; КД – кодер; ДК – декодер; ПИ – потребитель информации

Под пропускной способностью канала понимается максимальное среднее значение информации на символ, которое можно передать по данному каналу. Пропускную способность канала С при передаче можно достичь надлежащим выбором источника информации и способа кодирования, которые в общем случае и опреде-

ляют вероятности p(xk ) посылки сообщений.

Дискретный двоичный канал (ДК) без памяти задается матрицей условных (переходных) вероятностей

p(yi / xk )

 

 

 

=

 

1p1

p1

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

p2

1p2

 

 

 

 

 

 

 

 

 

 

 

55

Подставляя эти значения в (6.2), получаем

Матрице соответствует граф переходных вероятностей, приведенный на рис. 6.2.

 

 

1p

(0) x1

 

(0) y

 

1

 

p

 

 

 

 

 

 

 

 

p

(1) x2

 

(1) y

 

2

1p

Рис. 6.2. Граф-схема ДК

Вычислим пропускную способность ДК. Пусть

p(x1) = z, p(x2 ) =1z .

Тогда

p( y1 ) = z(1 p1 ) + (1 z) p2 = αz + p2 ,

p( y2 ) = zp1 + (1 z)(1 p2 ) = (1 p2 ) − αz,

где α = 1 p1 p2 .

H(Y) = −(αz + p2 )log2 (αz + p2 ) [(1p2 ) −αz]log2 [(1p2 ) −αz], H(Y / X ) = −z(1p1)log2 (1p1 ) zp1 log2 p1 (1z) p2 log2 p2

(1z)(1p2 )log2 (1p2 ).

Находим экстремум, приравнивая нулю производную,

H ( X ;Y ) = 0 .

z

После несложных преобразований находим

z0 = 1αp2 D , D

где D =1+ exp(B / α);

B = p1 ln p1 + (1p1 ) ln(1p1 ) p2 ln p2 (1p2 ) ln(1p2 ).

56

Итак, информационная пропускная способность канала вычисляется по формуле

C = H ( X ; Y ) z = z 0 .

Дадим физическую интерпретацию переходных вероятностей:

p(0 / 0) =1p = p0

– правильный прием "0";

 

 

1

пп

 

p(1/1) =1p2

= pпп1

– правильный прием "1";

p(1/ 0)

= p1

= pнп0

– неправильный прием "0";

p(0 /1)

= p2

= pнп1

– неправильный прием "1".

Вероятность того, что при передаче одного канального символа возникает ошибка, будет иметь вид

pош = p ( x1 ) p1 + p ( x2 ) p2 .

Двоичный симметричный канал (ДСК) является частным случаем ДК, когда для переходных вероятностей выполняется условие

p1 = p 2 = p . Пропускная способность ДСК вычисляется по формуле

LY

C = log2 Y +pj log2 pj =1+ plog2 p+(1p) log2 (1p) .

j=1

Дискретный двоичный симметричный канал со стиранием (ДСКС) без памяти задается матрицей условных вероятностей

p(y / x

k

)

 

 

 

=

 

1pq

p

q

 

.

 

 

 

 

 

 

 

i

 

 

 

 

 

 

p

1pq

q

 

 

 

 

 

 

 

 

 

 

 

 

Матрице соответствует граф переходных вероятностей, приведенный на рис. 6.3.

Информационная пропускная способность ДСКС, который является каналом симметричным по входу, вычисляется по хорошо известной формуле:

57

 

L

 

C = max H(Y) +Y

pj log2 pj =

{p(xk )}

j=1

 

=(1q)[1log2 (1q)]+(1p q)log2 (1p q) + plog2 p .

Дискретный канал называется симметричным по входу, если все строки матрицы переходных вероятностей образованы перестановками элементов первой строки.

Физическая интерпретация переходных вероятностей состоит в следующем:

p(0 / 0) = p(1/1)

=1p q = pпп

правильный прием ;

 

p(0 /1) = p(1/ 0)

= p = pно

необнаружение ошибки;

 

p(c /1) = p(c / 0) = q = pоо

– обнаружение ошибки.

 

При этом выполняются условия

 

pош = pно +pоо;

pпп +pно +pоо =1.

(6.3)

Из соотношений (6.3) видно, что ДСКС соответствует реализации ДСК с контролем. При известных значениях длины кода N и числе информационных разрядов k можно найти p и q, а следовательно, и пропускную способность канала ДСКС, по которому передается, например, циклический код (N, k).

1p q

(0)

x1

p

q

y1

(0)

 

 

 

 

 

 

 

 

 

y3 (C )

(1)

x2

p

q

y2

(1)

 

 

 

 

 

1p q

Рис. 6.3. Граф-схема ДСКС

Для такого канала (с учетом процесса коррекции ошибок) справедливы следующие соотношения:

58

2(Nk )

 

 

 

– условная вероятность необнару-

 

 

 

 

жения ошибки при условии, что

 

 

 

 

она имеет место;

pно = 2(N k ) pош

 

– вероятность возникновения необ-

 

 

 

 

наруживаемой ошибки;

pоо =[12

(N k )

]pош

– вероятность возникновения обна-

 

 

руживаемой ошибки;

1(2k 2N )

 

– условная вероятность неправиль-

 

 

 

 

ной коррекции ошибки при усло-

 

 

 

 

вии, что она имеет место и обнару-

[12(Nk ) ]p

 

 

живается;

[1(2k 2N )] – вероятность неправильной кор-

 

ош

 

 

 

рекции.

Пропускную способность дискретного канала с шумом определяют как максимально возможную скорость передачи информации. Формула (6.1) показывает, что дискретный канал может быть охарактеризован вполне определенной пропускной способностью. На первый взгляд может показаться, что пропускная способность канала принципиально снижается с повышением требований к верности передачи информации. При введении избыточности, например, передачей несколько раз одного и того же сообщения, очевидно, увеличивается помехоустойчивость (уменьшается число ошибок), но одновременно и понижается скорость передачи информации. Иными словами, задаваясь допустимым процентом ошибок, мы тем самым как бы определяем верхний предел скорости.

На самом деле это не так. Основная теорема для дискретного канала, впервые сформулированная Шенноном, утверждает, что если дискретный источник создает сообщения со скоростью H (X )

и если H ( X ) C , то существует такая система кодирования, что сообщения источника могут быть переданы по каналу с произвольно малой частотой ошибок. Если H (X ) > C , то можно закодировать сообщения таким образом, что потери информации в канале станут меньше, чем H (X ) C , где ε > 0 сколь угодно мало.

59

Не существует способа кодирования, обеспечивающего потери в канале, меньше чем H (X ) C .

Теорема не дает конкретного метода построения кода, обеспечивающего передачу со скоростью, равной пропускной способности канала. Однако это не уменьшает фундаментального значения теоремы, которая в области помехоустойчивого кодирования стимулирует поиск новых оптимальных корректирующих кодов и дает оценку их эффективности.

ПОДГОТОВКА К ВЫПОЛНЕНИЮ РАБОТЫ

1.Изучить теоретический материал.

2.Выбрать произвольные условные вероятности p1 , p2 , p, q и

рассчитать информационные пропускные способности ДСК и ДСКС.

3. Продумать последовательность действий при построении поверхности C = F (p1 , p2 ) для ДК и поверхности C = F ( p, q) для

ДСКС, используя инструментальные средства диалоговой программы.

4. Подготовить два "куба", выполненных по единому образцу и представленных на рис. 6.4, в пределах которых будут сосредоточены обе поверхности.

C = F( p1, p2 ) 1 C = F( p,q)

1 p1 p

p2 1 q

Рис. 6.4. Границы существования информационной пропускной способности каналов

60

Соседние файлы в предмете Интегрированные системы управления и проектирования