Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

2к4с Технологии обработки информации / ТОИ. КР для заочников

.pdf
Скачиваний:
3
Добавлен:
27.11.2024
Размер:
761.52 Кб
Скачать

Министерство образования и науки Российской Федерации

Саратовский государственный технический университет

Балаковский институт техники, технологии и управления

МАТЕМАТИЧЕСКИЕ МЕТОДЫ ОБРАБОТКИ ИНФОРМАЦИИ

Методические указания к выполнению контрольной работы по дисциплине «Технология обработки информации»

для студентов специальности 230201.65

заочной формы обучения

Одобрено редакционно-издательским советом

Балаковского института техники,

технологии и управления

Балаково 2012

СОДЕРЖАНИЕ

 

стр.

1. Вероятностные модели в задачах теории информации

4

1.1. Случайные события. Вероятность

4

1.2. Дискретная и непрерывная случайные величины

7

1.3. Задачи

12

1.4. Контрольные вопросы

14

2. Информационная мера Шеннона

16

2.1. Количество информации и избыточность

16

2.2. Энтропия непрерывных сообщений

17

2.3. Задачи

18

2.4. Контрольные вопросы

20

3. Условная энтропия и взаимная информация

21

3.1. Дискретные системы передачи информации

21

3.2. Непрерывные системы передачи информации

22

3.3. Задачи

24

3.4. Контрольные вопросы

25

Варианты заданий на контрольную работу

26

Список используемых источников

27

Примечание 1. Значение функции P log P

28

Примечание 2. Указания к решению задач

29

2

1. ВЕРОЯТНОСТНЫЕ МОДЕЛИ В ЗАДАЧАХ ТЕОРИИ ИНФОРМАЦИИ

1.1. Случайные события. Вероятность

Событие - всякий факт, который в результате опыта может произойти

или не произойти. Вероятность события - это число, которое является мерой возможности реализации события. Вероятность P(A) случайного события A

заключена в пределах 0 P( A) 1.

 

Достоверное событие U такое, что P(U)

1.

Невозможное событие V такое, что P(V )

0.

Суммой или объединением событий называется событие A, которое

происходит тогда и только тогда, когда происходит, по крайней мере, одно из этих событий. Сумма обозначается

n

 

A A1 A2 ... An

Ai .

i

1

Произведением или пересечением событий A1 , A2 ,..., An называется такое событие A, которое происходит тогда и только тогда, когда происходят собы-

тия вместе. Произведение обозначается

n

 

A A1 A2 ... An

Ai .

i

1

События A1 , A2 ,..., An образуют полную группу событий, если в результате опыта появляется хотя бы одно из них:

n

Ai U .

i 1

События A и B называются несовместными, если их совместное появле-

ние невозможно: AB V.

Два события называются противоположными, если они несовместны и образуют полную группу. Событие, противоположное событию A, обознача-

ется A .

A A U , AA V .

3

Когда рассматриваемый опыт имеет N равновозможных исходов, кото-

рые несовместны и составляют полную группу, вероятность события А мож-

но рассчитать по формуле:

P( A) Nm ,

где m - число исходов, которые приводят к наступлению события A.

Частотой или статистической вероятностью P*(A) события A в данной серии испытаний называется отношение числа опытов n, в которых появилось событие, к общему числу N произведенных опытов:

P * ( A) Nn .

По теореме Бернулли при большом числе опытов частота сходится по вероятности к вероятности события.

Расчеты вероятности сложного события A через вероятности более про-

стых событий A1 , A2 ,..., An базируются на использовании основных теорем тео-

рии вероятностей.

Теорема сложения вероятностей. Вероятность суммы двух событий равна сумме вероятностей этих событий минус вероятность их произведения:

P(A B) P(A) P(B) P(AB).

Теорема умножения вероятностей. Вероятность совместного появле-

ния двух событий равна произведению вероятности одного из них на усло в-

ную вероятность другого при условии, что первое имело место:

P(AB) P(A) P(A / B) P(B) P(A / B),

где P(B / A)- условная вероятность события B, т.е.

 

вероятность события B,

вычисленная в предположении, что имело место событие A.

Во многих ситуациях событие A может появиться лишь как случайное

 

 

 

 

следствие одного из несовместных событий Bj , j

1,n, образующих полную

группу. В этих случаях безусловная вероятность P(A) события A при извест-

ных вероятностях P(Bj ) и P( A / Bj ), j 1,n определяется по формуле полной ве-

роятности:

4

n

 

n

P( A)

P( ABj )

P(Bj ) P( A / Bj ).

i

1

i 1

При этих же данных можно найти значения вероятностей событий Bj ,

если предположить, что событие A уже произошло. Задачи такого типа реша-

ются с помощью формулы Байеса:

n

 

P(Bj / A) P(Bj ) P( A / Bj ) / P( A), P( A)

P(Bj ) P( A / Bj ).

i

1

Рассмотрим несколько примеров.

Пример 1. В последовательности из N двоичных символов имеется M

единиц. При передаче данной последовательности сохраняется n символов,

остальные теряются. Какова вероятность того, что среди них будет не более m

единиц?

Решение. Пусть A - событие, состоящее в том, что среди двоичных символов будет не более m единиц. Событие A произойдет тогда, когда среди n двоичных символов не будет ни одной единицы (событие A0 ) или одна еди-

ница (событие A1 ), или две (событие A2 ), . . ., или окажется m единиц (событие

Am ), т.е.

 

m

A A0 A1 A2 ... Am

Ak .

k

1

Вероятность P( Ak ) события Ak можно рассчитать следующим образом.

Общее число возможных выборов n символов из N равно числу сочетаний из

N по n, т.е. CNn . Благоприятствующими событию Ak являются случаи, когда из общего числа M единиц сохранено ровно K, что возможно в CMK случаях. На каждый из этих случаев в сохраненной последовательности символов может

быть

CN

M различных комбинаций ( n K ) нулей. Общее число случаев, благо-

 

n

K

 

 

 

 

 

 

приятствующих событию A

, равно

CK Cn

K

. Поэтому

 

 

k

M N

n

 

 

 

 

 

 

P( A )

CK Cn K

/ Cn .

 

 

 

 

K

M

N

M

N

 

 

По теореме сложения

 

 

 

 

 

 

 

 

 

 

 

m

 

 

 

 

 

P( A)

mP( A )

 

CK Cn K

/ Cn .

 

 

 

 

k

 

 

M N M

N

 

 

 

K 0

 

K

0

 

 

5

Пример 2. По каналу связи с помехами передается одна из двух команд управления управления в виде кодовых комбинаций 11111 и 00000, вероятно-

сти передачи этих команд равны соответственно 0,7 и 0,3. Вероятность пр а-

вильного приема каждого из символов 0 и 1 равна 0,6. Символы искажаются помехами независимо друг от друга. На выходе канала имеем кодовую комби-

нацию 10110. Оценить, какая команда была передана.

Решение. Пусть A - событие, состоящее в приеме комбинации 10110.

Это событие может произойти только в совокупности с одним из событий: B1

- передавалась команда 11111, B2 - передавалась команда 00000. При этом

P(B1 ) 0,7, P(B2 ) 0,3.

Условная вероятность приема комбинации 10110 при условии, что пе-

редавалась команда 11111 равна

P( A / B1)

P(1 / 1) P(0 / 1) P(1 / 1) P(1 / 1) P(0 / 1),

P(1 / 1) 0,6,

P(0 / 1)

1

P(1 / 1) 0,4, P( A / B1 )

0,63

0,42 0,035.

Аналогично P( A / B )

0,43

0,62

0,023.

 

 

 

2

 

 

 

 

 

 

 

По формуле Байеса

 

 

 

 

 

 

P(B1 / A)

 

P(B1 ) P( A / B1 )

0,78, P(B2

/ A)

0,22.

n

 

 

P(Bn ) P( A / BK )

K 1

Сравнивая найденные результаты, заключаем, что более вероятна передача команды 11111.

1.2. Дискретная и непрерывная случайные величины

Случайной величиной называется такая переменная величина, которая в результате опыта может принимать то или иное заранее неизвестное значение

, из известного множества значений X . Различают два основных типа слу-

чайных величин: дискретные и непрерывные.

Дискретная случайная величина может принимать конечное или беско-

нечное множество значений {x1}, которые можно пронумеровать i 1,2,...,n.

6

Полной статистической характеристикой случайной величины является

закон распределения вероятностей. В случае дискретной величины под ним понимается соотношение, устанавливающее зависимость между возможными значениями дискретной случайной величины и их вероятностями P(xi ) pi ,

при этом n

pi 1.

i

1

Закон распределения дискретной случайной величины можно задать в различных формах: табличной, графической, аналитической. Универсальной характеристикой, одинаково пригодной для дискретных и для непрерывных одномерных случайных величин, является функция распределения вероятно-

стей F(x) (интегральная функция распределения), определяющая вероятность

P того, что случайная величина X примет значение меньше некоторого неко-

торого числа x :

F(x) P( X x).

Функция распределения обладает следующими свойствами:

1.

F(

)

lim F(x)

0.

 

 

 

x

 

2.

F(

)

lim F(x)

1.

 

 

 

x

 

3.

F(x)

 

неубывающая функция, т.е. F(x2 ) F(x1 ) при x2 x1 .

4.

P(x1

 

X x2 ) F(x2 ) F(x1 ) .

Функция распределения дискретной случайной величины представляет

собой ступенчатую функцию со скачками в точках x1 , x2 , ...

Во многих ситуациях невозможно определить закон распределения слу-

чайной величины, часто в этом нет необходимости. В таких ситуациях рас-

сматривают отдельные параметры (числовые характеристики) этого закона.

Наиболее важными числовыми характеристиками случайной величины с множеством значений X {x1 ,x2 ,...,xn} и законом распределения вероятностей

P {p1 , p2 ,..., pn}

являются:

n

 

m m[ ]

xi pi - математическое ожидание;

i

1

7

p(x)

 

n

 

 

 

m2

m[ 2 ]

x2 p - средний квадрат;

 

 

i

i

 

 

i

1

 

 

 

 

n

 

 

2 m[(

m )2 ]

 

(x

m )2 p - дисперсия.

 

 

 

i

i

 

 

i

1

 

Возможные значения непрерывных случайных величин не могут быть заранее перечислены и непрерывно заполняют некоторый промежуток или даже всю ось. Функция распределения непрерывной случайной величины представляет собой непрерывную функцию.

Часто предполагают, что функции распределения непрерывных случай-

ных величин дифференцируемы во всей области возможных значений случай-

ных величин. При таком предположении непрерывная случайная величина X

чаще своего описывается плотностью распределения вероятности , кото-

рая иногда называется дифференциальным законом распределения или диф-

ференциальной функцией распределения. Плотность вероятности определяет-

ся как производная функции распределения:

p(x) dF(x) / dx.

Плотность вероятности обладает следующими основными свойствами: 1. Плотность вероятности неотрицательна, т.е. p(x) 0.

2. Вероятность попадания непрерывной случайной величины в интервал

(x1 , x2 ) равна интегралу от плотности вероятности в этих пределах:

 

x2

P(x1 X x2 )

p(x)dx F(x2 ) F(x1 ).

 

x1

3. Интеграл в бесконечных пределах от функции p(x) равен единице (ус-

ловие нормировки):

p(x)dx 1.

Для непрерывной случайной величины формулы для математического ожидания и дисперсии имеют вид:

8

mx

xp(x)dx,

 

2

(x m )2

p(x)dx.

x

x

 

Рассмотрим несколько примеров.

Пример 1. По двоичному каналу связи с помехами передаются две циф-

ры 1 и 0 с вероятностями p1 p2 0,5.

Вероятность перехода единицы в едини-

цу и нуля в нуль соответственно равны p 1 / 1 p , p(0 / 0)

q. Определить закон

распределения вероятностей случайной величины

-

однозначного числа,

получаемого на приемной стороне.

 

 

 

Решение.

X {0,1}. Нуль (

0) на приемной стороне может быть по-

лучен в двух случаях: при передаче нуля или при передаче единицы, следова-

тельно, по формуле полной вероятности

P (0) P(0,0) P(1,0) P(0) P(0 / 0) P(1) P(0 / 1),

 

 

P(0 / 1) 1

P(1/ 1).

Поэтому P (0) 0,5q

0,5(1 p)

0,5(1

q

p).

Аналогично P (1)

P(0,1) P(1,1) 0,5(1

q p).

Распределение вероятностей представлено в табл. 1.

 

 

 

 

 

 

Табл. 1.

 

 

 

 

 

 

 

xi

 

0

 

 

 

1

 

 

 

 

 

 

 

pi

 

0,5(10p

q)

 

 

0,5(1 p q)

 

 

 

 

 

 

 

Пример 2. Производится прием символов 0 и 1 до первого появления символа 1. Вероятность появления 1 при приеме P(1) 0,4 . Принимается не более четырех символов. Вычислить математическое ожидание m, дисперсию

2 и среднеквадратическое отклонение величины числа принятых симво-

лов.

Решение. Распределение вероятностей можно рассчитать следующим

образом:

9

 

 

 

P[

 

1]

p1

 

p(1)

0,4;

 

 

 

 

 

 

 

 

 

 

 

 

P[

 

2]

p2

 

p(0)

p(1)

(1

0,4)

 

0,4

0,24;

 

 

 

 

 

P[

 

3]

p

 

p(0)

p(0)

p(1)

0,82 0,4

0,144;

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P[

 

4]

p

 

p(0)3

p(1)

p(0)4

0,63

0,4

0,64

0,216.

 

 

 

 

 

 

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По определению математического ожидания имеем:

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

m

xi pi

1 0,4

2

0,24

3 0,144

4 0,216 2,2 ,

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

для дисперсии получаем:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

(x

 

m )2

p

1,38;

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

1,17.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 3. Функция распределения F(x)

случайной величины X задана

графиком (рис. 1.1).

 

 

 

 

 

 

 

 

 

 

 

F(x)

 

 

 

 

 

 

 

 

Требуется:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1) найти аналитическое выражение для функции

1,0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

распределения;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2) построить график плотности вероятности p(x);

0,5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

3) определить вероятность P того, что величина

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

примет значение от 3,5 до 4,5.

 

0

1

2

3

4

5

6

х

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 1.1 Функция рас-

 

 

Решение. 1. Когда значения величины X заклю-

 

пределения

 

 

 

 

че

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ны в пределах от 3 до 5, функция распределения

 

 

 

 

 

 

 

 

 

 

 

F(x) представляет собой отрезок прямой, прохо-

дящей через две точки с координатами (3,0) и (5,1). Используя уравнение пр я-

мой

в виде

(x x1 ) / (x2

x1 )

(y

y1 ) / (y2

y1 ),

получаем (x 3) / (5 3) F(x) / 1,

т.е.

F(x) (x

3) / 2. Следовательно,

 

 

 

 

 

 

 

0

 

x

3,

 

 

 

F (x)

(x

3) / 2

при 3

x 5,

 

 

 

 

1

 

x

5.

 

2. По определению,

p(x)

dF(x) / dx.

Поэтому

10