
- •Министерство общего и профессионального образования российской федерации
- •А.А.Ожиганов, м.В.Тарасюк передача данных по дискретным каналам
- •30 Ноября 1998 г., протокол № 14
- •3 Февраля 1999 г., протокол № 2
- •Оглавление
- •2.4.Энтропийные и информационные характеристики случайных последовательностей 46
- •3.3. Кодирование в дискретных каналах с шумами 60
- •1.Сигналы и помехи в системах передачи информации
- •2.Дискретные каналы
- •2.1. Собственная информация. Взаимная Информация
- •2.2.Средняя собственная информация (энтропия)
- •2.3.Средняя взаимная информация
- •2.4.Энтропийные и информационные характеристики случайных последовательностей
- •3.Кодирование. Пропускная способность канала
- •3.1.Основные определения.
- •3.2.Кодирование в дискретных каналах без шумов
- •3.3. Кодирование в дискретных каналах с шумами
- •4.Передача непрерывных сообщений по дискретным каналам
- •5.Частотное согласование сигналов и каналов
- •6.Практические задания Задание 1 Решение задач по основным разделам теории информации
- •Задание 2 Анализ избыточности дискретных сообщений
- •Задание 3 Эффективное кодирование дискретных сообщений
- •Задание 4 Помехоустойчивое кодирование двоичных сообщений с использованием кодов Хемминга
- •Задание 5 Декодирование кодов Хемминга
- •Задание 6 Помехоустойчивое кодирование двоичных сообщений с использованием циклических кодов
- •Задание 7 Декодирование циклических кодов
- •Задание 8 Передача данных на основе импульсно-кодовой модуляции
- •Задание 9 Частотное согласование сигналов и каналов
- •Ответы, решения, методические указания
- •2.2.Средняя собственная информация (Энтропия)
- •2.3.Средняя взаимная информация
- •2.4.Энтропийные и информационные характеристики случайных последовательностей
- •Л и т е р а т у р а
2.4.Энтропийные и информационные характеристики случайных последовательностей
Пусть имеется отрезок случайной функции X(t) дискретной по времени и амплитуде, и он полностью определяется последовательностью отсчетов Х1…Хn, взятых в моменты времени t1,...,tn. Тогда энтропия отрезка этой случайной функции длиною в n отсчетов (m-ичных символов) равна
(2.4.1)
Для стационарных случайных последовательностей используют более удобную характеристику, называемую энтропией случайной последовательности
(2.4.2.)
Эта величина имеет смысл средней энтропии, приходящейся на один отсчет (символ) в реализациях бесконечно большой длины.
Энтропия случайной последовательности удовлетворяет следующим неравенствам:
1.H[X(t)] H1[X(t)], (2.4.3)
где H1[X(t)] - энтропия одного из отсчетов. Энтропия случайной последовательности достигает наибольшего значения (знак равенства в (2.4.3)) только тогда, когда отдельные отсчеты функции X(t) (т. е. случайные величины Х1,...,Хn) статистически независимы (см. формулу (2.2.4)).
2. H1[X(t)] H1 max , (2.4.4)
где H1 max - максимальное значение энтропии одного символа. Энтропия случайной последовательности максимальна, когда все возможные значения символов равновероятны (см. формулу (2.2.3)). В итоге получаем
H[X(t)] log m. (2.4.5)
Можно найти и среднюю условную энтропию стационарной случайной последовательности X(t). Она вычисляется при условии, что известно значение другой дискретной случайной последовательности Y(t), также стационарной и стационарно связанной с X(t):
(2.4.6)
где
(2.4.7)
Среднее количество информации, содержащейся в отрезке последовательности Y(t) относительно отрезка X(t), равно
In[X(t);Y(t)]=Hn[X(t)]- Hn[X(t)/ Y(t)].
а средняя информация, приходящаяся на один отсчет (символ)
I[X(t);Y(t)]=H[X(t)]- H[X(t)/ Y(t)]. (2.4.8)
Возможен и другой способ вычисления средней энтропии (условной и безусловной) дискретной стационарной случайной последовательности, приводящий к тем же результатам. Энтропия последовательности X(t) равна
(2.4.9)
и определяет среднее количество дополнительной информации переносимой одним символом в реализациях бесконечной длины.
Средняя условная энтропия последовательности X(t) вычисляется по формуле
(2.4
10)
Решение типовых примеров
Пример 2.4.1.Сообщение Х есть стационарная последовательность независимых символов, имеющих ряд распределения
xj |
x1 |
x2 |
x3 |
p(xj) |
0,2 |
0,1 |
0,7 |
Сигнал Y является последовательностью двоичных символов, связанных с сообщением 'по следующему правилу:
x100, x200, x31.
Определить:
а)средние безусловную и условную энтропии, приходящиеся на 1 символ сообщения;
б)средние безусловную и условную энтропии, приходящиеся на 1 символ сигнала;
в)среднюю взаимную информацию в расчете на 1 символ сообщения.
Решение.
Символы в последовательности на выходе источника независимы, поэтому из (2.4.3)
H[X(t)]=H1[X(t)]=Н(Х)= -0,2log 0,2-0,1log 0,1-0,7log0,7=1,157 бит/симв.
Обозначив y1=00, у2=1, вычислим условные и безусловные вероятности сигнала:
p(y1/x1)= p(y1/x2)=1, p(y1/x3)=0,
p(y2/x1)= p(y2/x2)=0, p(y2/x3)=1,
p(y1)= p(y1/x1)p(x1)+p(y1/x2)p(x2)+p(y1/x3)p(x3)=0,2+0,1=0,3,
p(y2)=0,7.
Энтропия случайной величины Y равна
H(Y)=0,31ogO,3-0,71og 0,7=0,881 бит,
а условная энтропия H(Y/X) = 0, так как сигнал однозначно определяется сообщением.
Взаимная информация
I(X;Y) = H(Y)-H(Y/X) = 0,881 бит.
Условная энтропия сообщения
H(X/Y)=H(X)-I(X;Y) = 1,157-0,881=0,276 бит.
Итак, получаем, что условная энтропия сообщения равна 0,276 бит/симв, а взаимная информация в расчете на 1 символ сообщения равна 0,881 бит/симв.
Среднее количество символов сигнала, приходящихся на 1 символ сообщения, равно
где lj - длина кодового слова, соответствующего xj,
L = 0,22+0,12+0,71 = 1,3 симв.
Энтропия последовательности Y(t) равна
H[Y(t)]= H[Y]/L=0,881/1,3=0,68 бит/симв.,
а условная энтропия равна нулю.
Пример 2.4.2. Вычислить энтропию однородной неразложимой марковской последовательности, заданной матрицей вероятностей перехода p(Xk/Xk-1) от символа Xk-1 к символу Xk
Xk |
Xk-1 | |||
|
x1 |
x2 |
x3 | |
x1 |
0,2 |
0,3 |
0,6 | |
x2 |
0,4 |
0,5 |
0,1 | |
x3 |
0,4 |
0,2 |
0,3 |
Решение. Однородность последовательности проявляется в том, что при k безусловная вероятность pj того, что k-й символ примет значение xj, не зависит от k и от значения первого символа и связана с вероятностями переходов prj = p(xj k/ xr k-1 ) уравнением
Записываем это уравнение для каждого j и получаем систему
p1= p1 p11 + p2 p21 + p3 p31;
p2= p1 p12 + p2 p22 + p3 p32;
p3= p1 p13 + p2 p23 + p3 p33.
Подставляем численные значения вероятностей переходов и получаем
-0,8p1 + 0,3р2 + 0,6р3 = 0,
0,4р1-0,5р2+0,1р3 = 0,
0,4p1 +0,2р2-0,7р3 = 0.
Определитель этой системы равен нулю, поэтому pj определяется с точностью до постоянного множителя. Выбираем его так, чтобы выполнялось условие нормировки
p1 + p2 + p3=1,
и получим p1 = 0.36, p2 = 0.34, p3= 0.30.
Энтропия последовательности H[X(t)] по смыслу есть средняя дополнительная (условная) информация, приносимая средним символом последовательности, поэтому для марковской последоваательности ее можно вычислить по формуле (2.4.9)
ЗАДАЧИ
2.4.1.Периодически, один раз в 5 с, бросают игральную кость, и результат каждого бросания передают при помощи трехразрядного двоичного числа. Найти:
а) энтропию шестиричной последовательности на входе;
б)энтропию двоичной последовательности на выходе;
в)среднюю информацию, содержащуюся в отрезке выходного сигнала для длительностью 1 мин.
2.4.2.Известно, что энтропия, приходящаяся на 1 букву русского текста, составляет приблизительно 1.2 бит. Каково минимальное среднее количество десятичных символов, необходимо для передачи информации, содержащейся в телеграмме из 100 букв ?
2.4.3.Периодически проводятся тиражи лотереи. В каждом тираже участвует 1024 билета, но выигрывает из них один. Результат каждого тиража передается при помощи 10-разрядного двоичного числа. Из-за наличия помех возможны искажения символов с вероятностью 0,001. Ошибки в отдельных символах независимы. Найти:
а)энтропию исходной 1024-ичной последовательности;
б)энтропию двоичной последовательности на входе;
в)энтропию двоичной последовательности на выходе;
г)энтропию выходной 1024-ичной последовательности;
д)среднее количество передаваемой информации в расчете на двоичный символ входной последовательности.
2.4.4.В условиях задачи 2.4.3 для повышения помехоустойчивости каждый двоичный символ передается трехкратно. В месте приема из каждых трех символов формируется один, причем решение выносится простым “большинством голосов”. Найти:
а)энтропию двоичной последовательности на выход;
б)среднее количество информации в расчете на передаваемый двоичный символ.
2.4.5.В некотором районе состояние погоды зависит только от того, что было накануне. При ежедневной регистрации погоды различают лишь два состояния: x1 ясно и x2 переменно. Вероятности переходов равны
p(x1/ x1)=0.9, p(x2/ x1)=0.1, p(x2/ x2)=0.3, p(x1/ x2)=0.7.
Вычислить энтропию последовательности сообщений о состоянии погоды.
2.4.6.Найти энтропию последовательности на выходе троичного Марковского источника, если вероятности всех переходов равны 1/3.
Буквы в последовательности на выходе источника выбираются из алфавита А, В, С и образуют марковскую последовательность. Совместные вероятности всевозможных пар букв заданы в табл. 2.4.2.
Таблица 2.4.2
Xk |
Xk+1 | |||
|
A |
B |
C | |
A |
0,2 |
0,05 |
0,15 | |
B |
0,15 |
0,05 |
0,1 | |
C |
0,05 |
0,2 |
0,05 |
Вычислить энтропию последовательности.
2.4.8. Троичная марковская последовательность задана матрицей
вероятностей переходов P от Xk (строка) к Xk+1 (столбец)
Вычислить:
а)энтропию одного символа;
б)энтропию последовательности и избыточность.
2.4.9. На кольцевой трассе расположено 10 станций. По трассе в направлении часовой стрелки курсирует автобус, делая остановки на каждой станции. Исключение составляет только станция № 1, с которой с вероятностью 0,8 автобус может вернуться на предыдущую станцию. С каждой станции водитель посылает сообщение о направлении дальнейшего движения. Найти среднюю информацию, содержащуюся в одном сообщении, и избыточность.
На водохранилище имеются 3 контрольные отметки. Сброс воды из водохранилища производится периодически один раз в год, а в промежутках между этими моментами оно заполняется. Поступление воды поднимает уровень на одну отметку с вероятностью 0,7 и с вероятностью 0,3 сохраняет его неизменным. Величины поступлений в различные годы независимы. Если уровень воды достигает отметки № 3, то после сброса он понижается до отметки № 1; в остальных случаях сброс не производится. Найти среднее количество информации, содержащейся в сообщениях об уровне воды.