Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Методическое пособие 362

.pdf
Скачиваний:
106
Добавлен:
30.04.2022
Размер:
1.02 Mб
Скачать

ФГБОУ ВПО «Воронежский государственный технический университет»

Кафедра систем информационной безопасности

МЕТОДИЧЕСКИЕ УКАЗАНИЯ

к практическим занятиям по дисциплине «Теория информации и кодирования» для студентов специальности

090302 «Информационная безопасность телекоммуникационных систем» очной формы обучения

Воронеж 2014

Составитель канд. техн. наук О. В. Поздышева

УДК 621.382.82

Методические указания к практическим занятиям по дисциплине «Теория информации и кодирования» для студентов специальности 090302 «Информационная безопасность телекоммуникационных систем» очной формы обучения / ФГБОУ ВПО «Воронежский государственный технический университет»; сост. О. В. Поздышева. Воронеж, 2014. 63 с.

Методические указания к практическим занятиям содержат материал, направленный на углубленное изучение лекционного материала и приобретение практических навыков при решении различных задач кодирования информации.

Методические указания подготовлены в электронном виде в текстовом редакторе MS Word 2013 и содержатся в файле Поздышева_ПЗ_ТИиК.pdf.

Табл. 2. Ил. 3. Библиогр.: 8 назв.

Ответственный за выпуск зав. кафедрой д-р техн. наук, проф. А. Г. Остапенко

Издается по решению редакционно-издательского совета Воронежского государственного технического университета

© ФГБОУ ВПО «Воронежский государственный технический университет», 2014

1.КОЛИЧЕСВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ

1.1.Основные сведения

Общее число неповторяющихся сообщений, которое может быть составлено из алфавита m путем комбинирования по n символов в сообщении,

N = mn.

( 1 . 1 )

Неопределенность, приходящаяся на символ первичного (кодируемого) алфавита, составленного из равновероятных и взаимонезависимых символов,

H = logm.

(1.2)

Причем, первичный алфавит составлен из m1 символов (качественных признаков), при помощи которых записано передаваемое сообщение. Вторичный алфавит состоит из т2 символов, при помощи которых сообщение трансформируется в код [6, 8].

Основание логарифма влияет лишь на удобство вычисления. В случае оценки энтропии:

а) в двоичных единицах

H = log2m бит/символ;

б) в десятичных единицах

H = lgm дит/символ,

где log2m = 3,32 lgm, 1 бит≈0,3дит;

в) в натуральных единицах

H = lnm нат/символ,

где log2m= 1,443 lnm, 1 бит≈0,693нат.

Так как информация есть неопределенность, снимаемая при получении сообщения, то количество информации может быть представлено как произведение общего числа сообщений k на среднюю энтропию H, приходящуюся на одно сообщение:

I = kH бит.

(1.3)

Для случаев равновероятных и взаимонезависимых символов первичного алфавита количество информации вkсообщениях алфавита m равно

I =klog2m бит.

Для неравновероятных алфавитов энтропия на символ алфавита

 

1

 

бит

 

 

= ∑

= − ∑

,

(1.4)

 

 

2

2 символ

 

 

=1

 

=1

 

 

 

 

 

 

 

а количество информации в сообщении, составленном из k неравновероятных символов,

= − ∑

 

бит.

(1.5)

 

2

 

 

=1

При решении задач, в которых энтропия вычисляется как сумма произведений вероятностей на их логарифм, вероятности всегда должны представлять группу полных событий, независимо от того, являются ли они безусловными р(аi), условными p(ai/bj) или вероятностями совместных событий р(аibj).

Количество информации определяется исключительно характеристиками первичного алфавита, объем — характеристиками вторичного алфавита. Объем информации

Q = klср,

(1.6)

где lср — средняя длина кодовых слов вторичного алфавита.

2

Для равномерных кодов (все комбинации кода содержат одинаковое количество разрядов)

Q = kn,

где п—длина кода (число элементарных посылок в коде). Согласно (3), объем равен количеству информации, если lср = H, т. е. в случае максимальной информационной нагрузки на символ сообщения. Во всех остальных случаях I<Q.

1.2. Типовые примеры

Пример 1.2.1. Чему равно количество информации при получении 8 сообщений равномерного четырехзначного троичного кода?

Решение. Число качественных признаков m = 3. В коде они комбинируются по 4, т. е. n = 4. Число сообщений такого кода N= mn = З4. Энтропия на одно сообщение Н = log2N = = 4 log23. Количество информации в 8 сообщениях

I = 84log2 3 = 50.72 бит.

Примечание. Можно считать количество информации, определив энтропию на букву, блок, страницу и т. д. Количество информации в определенном объеме определяется умножением полученного значения энтропии соответственно на число букв, блоков, страниц.

Пример 1.2.2. На ВЦ постоянная информация хранится в 32768 стандартных ячейках. Сколькими способами можно передать сведения о том, из какой ячейки можно извлечь данные постоянной информации? Чему равно количество информации в каждом случае? Какое геометрическое построение хранилища позволит передавать эту информацию минимальным количеством качественных признаков?

Решение. Пронумеровать все ячейки и передавать номер,

3

в этом случае

I = n log2m = 1 .log2 32 768 = 15 бит.

Расположить ячейки квадратом и передавать номер ячейки по вертикали и горизонтали. Число сообщений при этом равно двум:

I = пlog2m = 2 log2 32 768 = log2 32 768 = 15 бит.

Расположить ячейки в форме куба и передавать три координаты. Число сообщений при этом равно трем:

= 3 log2 3√32768 = 15 бит.

Куб — форма, обеспечивающая наименьшее m. Разместить, например, постоянную информацию в 64 шкафа, внутри каждого шкафа расположить ячейки в форме куба. При этом придется передавать отдельно номер шкафа и номер ячейки в шкафу. Общее количество информации

I= I1 + I2.

Количество качественных признаков для передачи номера ячейки и номера шкафа тремя сообщениями соответственно равны:

I1 = log2 N1 = log2 64 = 6 бит,

I2 = log2 N2 = log2512 = 9 бит,

I = I1 + I2 = 6 бит + 9 бит = 15 бит.

Примечание. С точки зрения уменьшения количества качественных признаков число шкафов, на которое целесообразно разбивать хранилище, должно быть таким, чтобы m2≤m1. В нашем примере для четвертого случая

1 = 3√512 = 8; 2 = 3√64 = 4.

4

Пример 1.2.3. Чему равна энтропия системы, состоящей из k взаимонезависимых подсистем, если:

1)каждая подсистема состоит из n элементов, каждый из которых с равной вероятностью может находиться в m состояниях;

2)подсистема S1 состоит из n1 элементов, подсистема S2 состоит из n2 элементов и т.д., подсистема Sk состоит из nk элементов, каждый из которых может с равной вероятностью находиться в т состояниях;

3)каждая подсистема состоит из разного количества элементов, которые с разной вероятностью могут находиться в одном из состояний?

Решение. 1) Находим энтропию одной подсистемы

H = log2mn.

Общая энтропия системы равна сумме энтропий отдель-

ных подсистем

общ = ∑ = log2 .

=1

2) Определяем энтропию отдельных подсистем

общ = log2 11 ; 2 = log2 22 ; … ; = log2 .

Общая энтропия системы

общ = 1 + 2 + + =

= log2 11 + log2 22 + + log2 =

= log2( 11 22 … ) = log2 ∏ .

=1

3) Определяем энтропию на один элемент подсистемы

 

 

1

 

 

= − ∑

log

 

; … ;

= ∑

log

 

.

1

1

 

2 1

 

 

 

2

 

 

=1

 

 

 

=1

 

 

 

5

Определяем энтропию отдельных подсистем

= ;

= ; … ;

= .

1

1 1

2

2

2

 

 

 

Общая энтропия системы

 

 

 

 

 

 

 

 

 

 

 

 

 

= ∑ =

+

+ + .

 

общ

 

 

1

2

 

 

 

=

Пример 1.2.4. Определить энтропию полной многоуровневой иерархической системы, количество элементов которой на каждом уровне связано зависимостью in = Кп, где К — основание системы, n — номер иерархического уровня. При этом считается, что корень графа, представляющего иерархическое дерево системы, расположен на нулевом уровне. Каждый элемент системы может находиться с равной вероятностью в m состояниях.

Решение. Количество элементов N-уровневой системы

= ∑ .

=1

Энтропия системы

= 2 = ∑ 2 .

=0

Пример 1.2.5. Определить энтропию иерархической системы, заданной графом (рис. 1), если каждый элемент системы (узел графа) может с равной вероятностью находиться в трех состояниях.

6

Рис. 1. Граф к примеру 1.2.5

Решение. Из структуры графа находимК = 2; N = 2. Общее количество элементов L = 7. Зная число состояний каждого элемента m = 3 и общее число элементов, находим

H = log2mL =log2 37 = 7 log2 3 = 7 · 1,58 = 11,06 бит/состояние.

1.3. Типовые задачи

Задача 1.3.1. Символы алфавита обладают двумя качественными признаками, а) Какое количество сообщений можно получить, комбинируя по 3, 4, 5 и 6 элементов в сообщении?

б) Какое количество информации приходится на один элемент таких сообщений?

Ответ. m = 2; а) N1 = 23 = 8; N2 = 24 = 16; N3 = 25 = 32; N4 = 26 = 64.

б) I1 = log2 8 = 3 бит; I2 = log2 16 = 4 бит; I3 = log232 = = 5бит; I4 = log2 64 = 6 бит.

Задача 1.3.2.Известно, что одно из равновероятных возможных сообщений несет 3 бита информации. Из скольких качественных признаков состоит алфавит, если N = 8?

Ответ. N = mn ; 8 = mn ; т.е. m = 2, т.к. H = log2N = = log2 8 = 3 может быть только в случае, если N = mn = 23.

7

Задача 1.3.3. Чему равна вероятность появления комбинации 10110 при передаче пятизначных двоичных кодов? Чему равно среднее количество информации, приходящейся на одну комбинацию?

Ответ. Если коды встречаются в сообщениях с равной вероятностью, то p = 1 / N, где N = mn; т.к. m = 2, n = 5, то p = 1 / 32 = 0.0312; I = log2 32 = 5 бит.

Задача 1.3.4. Сообщения составлены из равновероятного алфавита, содержащего m = 128 качественных признаков. Чему равно количество символов в принятом сообщении, если известно, что оно содержит 42 бита информации? Чему равна энтропия этого сообщения?

Ответ. n = 6; H = 7 бит/состояние.

Задача 1.3.5. Определить энтропию системы, состоящей из двух подсистем. Первая подсистема состоит из трех элементов, каждый из которых может находиться в двух состояниях с вероятностями p1= 0,6; p2= 0,4. Вторая подсистема состоит из двух элементов, каждый из которых может находиться в трех состояниях с вероятностями p1 = 0,1; р2 = 0,4; р3 = 0,5.

Ответ. H1= 2.91 бит/состояние; H2= 2.72 бит/состояние;

Hобщ = 5.63 бит/состояние.

8