Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры по ТПС by Crazy old.doc
Скачиваний:
22
Добавлен:
07.07.2019
Размер:
7.96 Mб
Скачать

12 Дискретные источники информации. Основные характеристики дискретных источников.

Источники сообщений явл-ся дискретными, если множество сообщений, которое может быть им создано конечно или по крайней мере счётно.

Основные характеристики:

1.Алфавит , - знаки алфавита,

- вероятность появления на выходе источника

2.Скорость передачи, [B] – имп/с

3.Энтропия Н – кол-во информации, содержащееся в среднем в одном знаке сообщения

Энтропия полностью определяется з-ном распределения вероятности появления знаков на выходе источника, при этом не важно какие именно знаки может вырабатывать источник, важно только кол-во разновидностей этих знаков и вероятности их появления. 1-ца кол-ва информации (то кол-во инфы, которое переносит 1 знак двоичного алфавита, если знаки равновероятны и взаимонезависимы на выходе источника) – двоичная или бит.

Если знаки на выходе к-значного источника инфы встречаются равновероятно и взаимонезависимо, то кол-во инфы, переносимое одним знаком максимально

Если неравновероятно …

Если неравновероятно и взаимозависимо … , - вероятность появления буквы i после буквы k

13 Свойства энтропии. Энтропия непрерывного источника информации.

1Э. явл. непрерывной неотриц. ф-цией. P(ak) k=2

P(a1)= Pa , P(a2)=1-p, H(A)=-Plog2P-(1-p) log2(1-p)

2Э. равна 0 тогда и только тогда, когда вероятность одного из состояний источника =1. =>все остальные вероятности = 0.

3Э. макс., когда все состояния источника равновер. P(a1)= P(a2)=..= P(ak)=1/k, Нмах= log2k

4Э. сложного сигнала, полученного объединением двух независимых сигналов равна ∑ энтропий кажд. из сигналов. Под объединением двух сигналов Х и Y с возможными состояниями x1,x2,..,xk и y1,y2,..,yi понимается сложный сигнал (X,Y), состояние которого (xk,yi) представляет собой все возможные комбинации состояния сигналов X,Y. Число возможных состояний сложн. сигнала = k*i где - вероятность появления сигнала xk. - условная вероятность того, что сигнал Y будет находиться в состоянии yi при условии, что сигнал Х принял состояние xk.

Для независимых сигналов:

Э. объединённого сигнала

5Э. сложного сигнала, полученная объединением двух независимых сигналов

Непрерывные сообщения источника или соответствующие им сигналы отличаются тем, что за конечное время Т они могут принимать бесконечное число возможных значений, т.е. ансамбль источника бесконечен. Ккак следствие вероятность появления отдельного знака (по аналогии с дискретным источником ) бесконечно мала, а его информативность бесконечно велика.

Разделим область изменений Х на дискретные уровни с малым интервалом между ними ∆х (рис.3). ∆х – шаг квантования (дискретизации) непрерывного сигнала по уровням. Вероятность того, что значение Х лежит в пределах интервала хi.. хi+∆х, приблизительно равна Рi=w(хi) ∆х, где w(хi) - значение плотности вероятности в точке хi.

Положим в дальнейшем, что отдельные отсчёты сигнала (сообщения) независимы, а их распределение не зависит от времени (стационарный источник). Тогда можно в соответствии с формулой написать следующее выражение для энтропии на один независимый отсчёт квантованного сигнала:

Устремив ∆х →0 для перехода к энтропии на один отсчёт непрерывного сигнала и учитывая, что получим

Т.о., энтропия непер. источника сообщ. (за счёт члена ) стремится к бесконечности. Отсюда следует, что непрерывные сигналы не допускают введения конечной абсолютной меры неопределённости. Степень их неопределённости характеризуют дифференциальной энтропией (по связи с дифф. законом распределения вероятностей):

В отличие от энтропии дискретного источника, может принимать как положительные и нулевые, так и отрицательные значения, а также изменяться в зависимости от масштаба переменной х.

Дифференциальная энтропия позволяет сравнивать информативность случайных сигналов, имеющих различные распределения, относительно некоторого стандарта. Стандартом для сравнения является случайный сигнал, имеющий равномерное распределение в единичном интервале (b)-a=1, для которой Дифф. энтропия показывает, насколько энтропия данного непрерывного сигнала отличается от энтропии непр. случайного сигнала с равномерным законом распределения в единичном интервале. С помощью дифф. энтропии производится вычисление качества информации, содержащейся в непр. сообщ.