Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Гуманитарные аспекты теории информации

.pdf
Скачиваний:
19
Добавлен:
17.05.2015
Размер:
275.57 Кб
Скачать

Федеральное агентство железнодорожного транспорта Уральский государственный университет путей сообщения Кафедра «Связь»

А. В. Волынская

ТЕОРИЯ ПЕРЕДАЧИ СИГНАЛОВ

Екатеринбург

2010

Федеральное агентство железнодорожного транспорта Уральский государственный университет путей сообщения Кафедра «Связь»

А. В. Волынская

ТЕОРИЯ ПЕРЕДАЧИ СИГНАЛОВ

Сборник задач (задачник) с методическими рекомендациями по выполнению контрольной работы

для студентов заочной формы обучения специальностей: 210700 – «Автоматика, телемеханика и связь

на железнодорожном транспорте» и 071900 – «Информационные технологии на железнодорожном транспорте»

Екатеринбург

2010

УДК 621.391.1 В70

Волынская, А. В.

В70 Теория передачи сигналов : сб. задач (задачник) / А. В. Волынская. – Екатеринбург : УрГУПС, 2010. – 32 с.

Задание на контрольную работу составлено в соответствии с учебным планом по дисциплине «Теория передачи сигналов» для студентов специальностей 210700 и 071900 заочной формы обучения и включает четыре задачи по основным разделам: исследование источников информации; помехоустойчивое кодирование; корреляционный анализ сигналов; дискретизация и восстановление сигналов.

По каждому разделу приведены краткие сведения из теории и необходимые расчетные формулы. Для получения дополнительных сведений студенты могут воспользоваться литературой, перечень которой приведен в конце задания. Для экономии времени студентов в приложении приведена необходимая для решения задач информация.

УДК 621.391.1

Рекомендовано к изданию на заседании кафедры«Связь», прото-

кол № 32 от 05.04.2010 г.

Автор: А. В. Волынская, доцент кафедры «Связь», канд. техн. наук, УрГУПС

Рецензент: Д. Г. Неволин, профессор кафедры «Связь», д-р. техн. наук, УрГУПС

© Уральский государственный университет путей сообщения (УрГУПС), 2010

СОДЕРЖАНИЕ

1.ЗАДАЧА 1. Исследование источника дискретной информации….……..5

2.ЗАДАЧА 2. Помехоустойчивое кодирование……………..……….…….13

3.ЗАДАЧА 3. Корреляционный анализ сигналов …………………….…...23

4.ЗАДАЧА 4. Дискретизация сигналов. Спектры дискретизированных сигналов ..………………………………………….25

5.БИБЛИОГРАФИЧЕСКИЙ СПИСОК………….…………………………29

6.ПРИЛОЖЕНИЯ.….………………………………………………….…….30

Задача 1

Тема: Исследование источника дискретной информации

По заданному сообщению (фамилия, имя и отчество студента) опреде-

лить:

1.Длину сообщения – Lа.

2.Объем алфавита – mа.

3.Вероятности символов – p(ai).

4.Тип источника.

5.Энтропию источника – H ( A) .

6.Количество информации, содержащееся в каждом символе I(ai) и во всем сообщении Iсообщ.

7.Минимальное число двоичных символов, необходимых для кодиро-

вания данного сообщения – Lk min.

8.Коэффициент избыточности источника информации – rист.

9.Закодировать сообщение эффективными двоичными кодами Шенно-

на-Фано и Хаффмена, а также для сравнения равномерным двоич-

ным кодом МТК-2.

10.Подсчитать число символов, необходимых для кодирования данного сообщения – LШ-Ф и LХаф; сравнить эти числа с минимально необхо-

димым числом двоичных символовLk min и с необходимым числом символов равномерного двоичного кода Lравн.

11.Определить коэффициент избыточности после кодирования сообще-

ния равномерным кодом– rравн. и эффективными кодами– rШ-Ф и

rХаф.

12.Сделать выводы.

Краткие сведения из теории

Задача любой системы связи – передать информацию. По Эшби, инфор-

мация – это то, что устраняет неопределенность и измеряется степенью устра-

ненной неопределенности. Количественно неопределенность события выра-

жается его вероятностью.

Информация, предназначенная для передачи куда-либо, называется со-

общением. Сообщение может быть воспринято человеком лишь в том случае,

если он в состоянии принять сигналы – материальные носители информации.

Информация, содержащаяся в сигнале, заключена в изменении одного или нескольких параметров этого сигнала.

Если число различных состояний информационного параметра сигнала конечно, то такой сигнал (а соответственно и источник информации) называ-

ется дискретным.

Совокупность возможных состояний источника называется алфавитом источника {А}, а количество различных символов, из которых составляются сообщения, называется объемом алфавита ma.

Вероятности символов определяются по формуле

p(ai ) = n(ai ) , Lа

где n(ai) – количество символов ai в сообщении;

Lа – количество всех символов в сообщении.

Полученные значения p(ai) рекомендуется занести в табл. 1.1.

 

 

Таблица 1.1

 

 

 

Символ

Количество символов

Вероятность символа

ai

в сообщении, n(ai)

p(ai)

 

 

 

Все источники информации подразделяются на два типа: источники с независимыми символами и источники с памятью, или марковские.

Источник является источникомс независимыми символами, если для всех возможных сочетаний соседних символов …bj ai… выполняется равенст-

во:

p(bj ai) = p(bjp(ai).

Если хотя бы для одной пары bj ai это равенство не выполняется, то ис-

точник марковский. Для определения типа источника рекомендуется соста-

вить табл. 1.2.

 

 

 

Таблица 1.2

 

 

 

 

Возможные

Количество сочета-

Вероятность

Произведение

сочетания

ний в сообщении

сочетания

вероятностей

…bj ai

n(bj ai)

p(bj ai)

p(bjp(ai)

 

 

 

 

Энтропия источника – среднее количество информации, приходящееся на один символ сообщения. Энтропия источника с независимыми символами определяется по формуле

ma

H ( A) = -å p(ai ) log2 p(ai ) , бит/символ.

i =1

Если в источнике информации существуют вероятностные связи между символами, то информативность источника уменьшается и определяется условной энтропией:

 

H ( A

ma ma

) p(ai

 

p(ai

 

 

) = -åå p(bj

) log2

) , бит/символ,

 

B

j =1 i =1

bj

 

bj

 

 

 

 

 

 

где

p(ai ) – вероятность появления ai

при условии, что перед ним был bj

 

b j

 

 

 

 

 

(…bj ai ...).

Таблица двоичных логарифмов приведена в Приложении 1.

Энтропия максимальна, если все символы источника появляются неза-

висимо и с одинаковой вероятностью:

H max ( A) = log2 mа , бит/символ.

Для двоичного источника, на выходе которого присутствуют только символы «0» и «1», H max ( A) = log 2 2 =1 бит/символ.

Количество информации, содержащееся в символе, определяется по формуле Шеннона

I (ai ) = -log2 p(ai ) , бит,

где p(ai) – вероятности символов.

Определим количество информации во всем сообщении:

Lа

Iсообщ = åI (ai ) , бит. i =1

Количество информации, содержащееся во всем сообщении, можно оп-

ределить и по другой формуле, зная длину сообщения и его энтропию:

Iсообщ = Lа H(A), бит.

Для того чтобы передать сообщение по каналу, его необходимо закоди-

ровать двоичным кодом.

Поскольку общее количество информации в сообщении до и после -ко дирования не должно измениться, справедливо равенство

Lа H(A) = Lk min Hmax(K),

где Lk min – минимальное число символов в закодированном сообщении;

Hmax(K) – максимальная энтропия сообщения на выходе кодера.

Для двоичных кодеров Hmax(K) = 1 бит/символ, тогда минимальное чис-

ло двоичных символов, необходимых для передачи сообщения, определяется как ближайшее большее целое число к правой части равенства

Lk min = Lа H(A).

Свойство источника информации, заключающееся в том, что энтропия не максимальна, называется избыточностью.

Количественно потеря информации, приходящаяся на один произволь-

ный символ источника, связанная с неравновероятностью выбора символов и наличием между ними вероятностных связей, определяется коэффициентом избыточности

r =1 -

H ( A)

=1 -

H ( A)

.

 

 

ист

Hmax

( A)

 

log2 mа

 

 

Коэффициент избыточности представляет собой безразмерную величи-

ну, заключённую в пределах от 0 до 1, и равен нулю, если энтропия источ-

ника максимальна.

Эффективное кодирование

С целью уменьшения избыточности сообщения кодируются эффектив-

ными кодами. Суть эффективного кодирования заключается в том, что симво-

лам, имеющим бóльшую вероятность, присваиваются более короткие кодовые комбинации, а символам, имеющим меньшую вероятность, – более длинные кодовые комбинации. При этом короткие кодовые комбинации встречаются чаще и средняя длина кодовой комбинации уменьшается.

Рассмотрим алгоритм работы кодера Шеннона-Фано на примере коди-

рования сообщения с неравновероятными независимыми символами (табл. 1.3).

 

 

 

 

 

 

 

 

 

 

 

Таблица 1.3

 

 

 

 

 

 

 

 

 

Алфавит

Вероятности

 

Элементы кодовых

 

Кодовая комбинация

источника

 

комбинаций

 

кода Шеннона-Фано

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a1

0,22

1

1

 

 

 

 

1

1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

a2

0,20

0

 

 

 

 

1

0

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

a3

0,16

0

1

 

 

 

0

1

1

 

 

 

 

0

1

 

 

 

 

 

 

 

 

 

a4

0,16

0

 

 

 

0

1

0

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

a5

0,10

0

1

 

 

 

0

0

1

 

 

 

 

0

0

 

1

 

 

 

 

 

 

 

a6

0,10

0

 

 

0

0

0

1

 

 

 

0

0

0

 

 

1

 

 

 

 

 

а7

0,04

0

 

0

0

0

0

1

 

 

0

0

0

0

 

 

 

 

 

 

 

а8

0,02

 

0

0

0

0

0

0

 

 

 

 

 

 

 

 

 

 

 

 

 

Код строят следующим образом. Все символы алфавита источника со-

общений вписывают в столбец в порядке убывания вероятностей. Затем их разделяют на две группы так, чтобы суммы вероятностей в каждой из групп были по возможности одинаковы. Всем знакам верхней половины в качестве