Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции / ОТИ, лекция 2,3 / Лекция 2,3.12cтр.ОТИ.Корр

..doc
Скачиваний:
26
Добавлен:
16.04.2013
Размер:
1.17 Mб
Скачать

Лекция 2,3

Информация для непрерывных величин

1.Cтационарный случайный процесс не зависит от момента отсчёта времени, т.е.

плотн. вер. p(x2) = p(x1), корреляц. ф-ия k(ti , tj) = k(tj – ti) = k(τ) .

2 . Все рассматриваемые случайные процессы обладают свойством эргодич -

ности: cреднее значение по времени равно среднему значению по ансамблю

функций, т.е. T T

x(t) = lim 1/T·∫0 x(t)·dt, T→∞; k(τ) = lim (1/T)·∫0 x(t)·x(t +τ)·dt, T→∞ .

Оказывается, что для большинства случайных процессов, являющихся стацио- нарными в узком смысле, указанные характеристики можно получить путём усреднения соответствующих величин для одной реализации за достаточно боль - шой промежуток времени.

(c периодом разложения спектр.функции S(ω) по частоте 2ωc = 4πW, рис.5.2).

детерминированная линейная зависимость

1.Из всех непрерывных случайных величин, заданных на интервале (а,b), (а< х < b), наибольшей дифференциальной энтропией log(b - a) обладает cлучайная величина х с равномерным распределением p(x) = 1/(b – a).

2. Из всех случайных величин с заданной дисперсией σ2 = M (x - a)2

(M- знак математического ожидания) наибольшей дифференциальной энтропией

log (σ · √2πe ) обладает случайная величина х с нормальным распределением (доказывается методом вариационного исчисления).

Аналогичным образом в n - мерном случае предположим, что моменты второго порядка плотности вероятности p(x1,……, xn) фиксированы и равны Aij:

____

Aij = ∫…..∫ xi· xj· p (x1,……, xn) · dx1,……., dxn= xi· xj.

При помощи аналогичных вычислений находим, что максимум энтропии имеет место, когда p (x1,……, xn) является n – мерным нормальным распределением с моментами второго порядка Aij.

3. Если распределение x ограничено положительной полуосью

4. Дифференциальная энтропия совокупности случайных величин.

Тогда после подстановки

h(x1,x2,…..,xn) = h(x1) + hx1 (x2,x3,……..,xn) = h(x1) + hx1(x2) + hx1x2(x3,x4,……,xn) = h(x1) + hx1(x2) + hx1x2 (x3) + ….. + hx1x2……x n-1(xn) ≤

h(x1) + h(x2) + h(x3) + ……….+ h(xn). ( ) Это–обобщённое правило свойства аддитивности; здесь hx1(x2) ≤ h(x2) и т.д. Для 2-х случайных величин: h(x1,x2) = h(x1) + hx1(x2) = h(x2) + hx2 (x1) ≤ h(x1) + h(x2).

(неопределён-ть опыта может лишь уменьш-ся при знании результатов др. опыта).

5. Имеется одно важное различие между энтропией непрерывных и дискретных величин. В дискретном случае энтропия изме –

Пример. Рассмотрим линейное преобразование вида y = ax +b.

Обратное преобразование x = (y-b)/a; якобиан преобразования I(x/y) = dx/dy =1/a,

p(y) = p(x)·1/a. h(y) = - ∫p(y)·log p(y)·dy = - ∫p(x) ·log ( p(x) ·1/a) ·dx = h(x) + log a,

где ∫p(x)·dx =1. Дифференциальная энтропия линейного преобразования не зави - сит от сдвига b.

Дифференциальная энтропия не меняется,если повернуть вектор (или систему координат) таким образом, что его длина не меняется; I(x/y) = 1, h(y) = h (x).

Корреляционная теория даёт полное описание нормальных процессов.

Энтропийная мощность

Пусть Н' = ln(√2πeN1) - энтропия ансамбля.

N1≤ N.

Cреднее

Количество взаимной информации для непрерывных величин

перейдя к пределу, найдём среднее количество взаимной информации двух случайных величин в виде :

I(ξ , η) = ∫∫ p(x, y) · log _p(x,y)_ dx·dy = R, ( 5.12 )

p(x)·p(y)

или скорость передачи R= I(ξ , η)/T.

Свойства среднего количества взаимной информации для непрерывных

величин

1) I(x, y) ≥ 0 , т.к. условная дифференциальная энтропия равна или меньше безусловной. I(x,y) = 0 только, если x и y независимы.

2) Свойство аддитивности:

3) I(x, x) = → ∞ ( ср.c I(A,A) = H(A) – HA(A) = H(A) для дискретных величин).

12

Соседние файлы в папке ОТИ, лекция 2,3