Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

647

.pdf
Скачиваний:
3
Добавлен:
15.11.2022
Размер:
3.24 Mб
Скачать

Рассмотрим условную энтропию статистически зависимых источни­ ков сообщений. Пусть имеются два статистически зависимых источника сообщений X и У. Если источники X и Y коррелированны, то это означает, что между сигналами источников xh yj существует взаимосвязь, при кото­ рой любому значению, например х,-, соответствуют значения сигналов

источника У с условными вероятностями:

 

Р(У\ / х , -

P ( y j / X j Р{ ут/*,).

 

Совокупность условных вероятностей для конкретного значения х,-

позволяет определить частную условную энтропию

 

Н (У /х,) = -

т

 

/x,)log2 Piyj/Xi),

 

которая характеризует информационные свойства источника Y,

после

того как стало известно значение х,-.

 

Усредняя частные условные энтропии по всем значениям х,

получа­

ем общую условную энтропию источника Уотносительно источника X:

ЩГ / Х ) = £ Р{х,)H (Y / X/) = - £ Е Р{х,)Р(у, / X,.) log2 Р(у / X,.).

О'4Л)

/=1

/=1j=1

 

Так как для статистически зависимых сигналов

P(xi, y j ) = P(xi)P(yj / x i),

ТО

ЩГ / Х ) = - i l P ( x „ y j )\og2 Piyj/x,). i=\j=\

Величина Н(У / X) показывает, какой энтропией в среднем обладает источник У, если известен источник X.

Рассмотрим зависимость величины условной энтропии от степени взаимосвязи между источниками X и Y.

Если статистическая связь между сигналами источников X и Y отсут­

ствует,

то,

сопоставляя

равенство

(14.6)

с

выражением

P ( x „ y j) = P(x i)P (yj ! xi)> получим

 

 

 

 

 

P ( y j )

= P { y j l x i)-

 

 

(14.8)

Подставляя равенства (14.6) и (14.8) в выражение (14.7) для условной

энтропии, найдем

п т

 

 

 

 

пт

 

 

 

 

H( Y/ X) = - Z i: Р(х,.)Р(у.)log2/,СРу) = - Е /,(х#.)1 /,СУу)1оё2/,0/у) = Я(Г),

 

/=1У=1

 

'=1

J=l

 

 

так как

£ /» (* ,)= г

/=1

Таким образом, в рассматриваемом случае Н(У I Х) = Н(У), т.е. при от­ сутствии статистической связи между источниками А"и У условная энтропия источника У относительно источника X равна безусловной энтропии источника У. Это означает, что всякая информация сигналов^ является новой по отношению к сигналам х..

При наличии “жесткой” статистической связи между источниками X и У возможны только два случая: P(yf/ х) = 0 или Р(у. / х) = 1. Так как при сум­ мировании поj все слагаемые Р(у./х)log2 Р(у. / х) в выражении для H(Y/ X) превращаются в нуль, то и H(Y I X) = 0, т.е. при наличии “жесткой” ста­ тистической связи между источниками X и Уусловная энтропия источника У относительно X равна нулю. Это означает, что сигналы у никакой новой информации не содержат относительно сигналов хг

Рассмотрим взаимосвязь между количеством информации и энтропией передаваемого сообщения. Пусть до приема информации известны только вероятности Р(хр уровней сигналов передаваемого сообщения. Неопреде­ ленность сообщения до его приема можно характеризовать энтропией

H(X) = - i P ( x J)[og2P(xi).

7'='

При отсутствии помех принятое сообщение полностью соответствует переданному сообщению, вследствие чего неопределенность Н(Х) после приема сообщения будет снята, т.е. величина Н(Х) станет равной нулю. При этом будет получено количество информации 1(У, X), равное энтро­ пии Н(Х).

Следовательно, количество информации, полученное в процессе передачи сообщения равно разности энтропий до и после приема сообщения:

I(Y,X) = H(X) - 0.

При наличии же помех степень неопределенности на приемном конце, т.е. энтропия, не будет равна нулю, так как

I ( Y , X ) * H ( X ) .

Наличие помех, характеризуемое величиной H(Y I X), приведет к огра­ ничению количества информации, необходимой для полного снятия неопределенности при приеме сообщения:

I(.Y,X) = H(X)-H(X/Y).

Следовательно, энтропия представляет собой меру неопределенности

а количество информации - меру снятия неопределенности при приеме сообщения.

Определим совместную энтропию статистически зависимых источ­ ников сообщений. Пусть имеются два коррелированных источника X и Y, каждому из которых соответственно принадлежат множества сигналов

х,иу/.

= 1; XP(y,) = i.

J- 1

Если число возможных парных совмещений сигналов составит пт, то энтропия в совокупности возможных совмещений сигналов

 

H(X,Y) = - i

£ P(Xj,уJ) lo g 2P(Xj,)>J

( 14-9

 

 

i=[j=\

 

 

Так как для рассматриваемого случая Р(х, / у;) = Р(х/)Р(у) / *,), то

 

Н(Х, Y) =

/х, )log2[P(Xi)P(yj /х,)]=

 

п т

P{xi)P(yj / х, Xlog,

 

(14.10)

 

= - S I

)+1og2 Р(у, /*,)]=

 

1=j=1

 

 

 

 

 

п

т

 

п

т

 

^ -Е Д х ^ о & Д х ,.)!

P(yJlxi)-Y.P{xi)'L Piy,lxl)\og1P{yJlxl) =

 

'=1

у=1м

"

//=1

>=1

 

= Я (^) + Я(Т/Х )5

 

 

 

 

т.е. совместная энтропия сигналов двух различных источников X и Y равна сумме безусловной Н(Х) и условной H(Y/X) энтропий.

Рассмотрим сигнал с равновероятными и независимыми отсчетами. Пусть отображением некоторого сообщения, поступающего от источника информации, является квантованный по уровню и времени электрический сигнал (рис. 14.1), имеющий т различимых состояний по уровню:

 

 

m = (Smax-S min)/AS = l6o/8,

(14.11)

где SmM —Smi„ -

диапазон изменения сигнала;

AS

шаг квантования;

5- соответствующая ему погрешность в процентах.

 

 

A

 

 

 

 

 

 

 

 

■P(s„,y

 

 

 

\ ^

P(S,) -

- v

 

 

___

 

 

 

i L AS

 

 

'

1 ^

A t . 2

i -------п

P(S0) -

 

 

 

Рис. 14.1

Условимся, что за любой интервал времени A t , соответствующий шагу квантования по времени, может быть снят только один отсчёт (эле^ мент сигнала). При этом с равной вероятностью может появляться любой из квантованных уровней сигнала. Полагаем, что отсчеты (элементы) сиг­ нала не зависят друг от друга, т.е. вероятность появления любого из уров­ ней сигнала /-го отсчета не зависит от вероятности появления уровня си1нала при снятии предыдущего отсчета. Тогда вероятность появления лю­ бого из уровней S 0, S X9...9S m^ сигнала при снятии любого из отсчетов

равна

P(S) = l/ m 9

т - 1

где P(S) = P(SQ) = P(Sl) = ... = P (Si) = ... = P(Sm_iy, I P ( S j ) = 1.

7=0

Количество информации [дв. ед.], содержащееся в сигнале, при сня­ тии одного из п отсчетов

I0(S) = - l o g P(S)2 = lo g 2m,

а при снятии n отсчетов

 

I0(S)=\og2mn=\og2N,

(14.12)

где N = m n

Если имеется к различных источников информационных сигналов, например потенциометрических датчиков, то общее количество информа­ ции [дв. ед.], поступающее от этих датчиков,

I0(S)k= log2 N t + log2 N 2 +... + log2 N, + ...+ log2 Nk = Y log2 N,,

где Nj -

 

/=1

число равновероятных сообщений, поступающих от /-го датчика,

/= 1,

к\ при

 

 

I0(s )k= £«/ log2 Щ-

04.13)

 

/=1

 

Энтропия сигнала в общем случае может быть выражена как количе­ ство информации, приходящееся на один отсчет сигнала [дв. ед./отсчет]:

Я 0(5 ) = = l o g ^ = т (14.14)

пп

Пропускная способность, необходимая для передачи сигнала (или максимальная скорость выдачи информации от источника) определяется как количество информации, выдаваемое за время Т [дв. ед./с]:

С 0( 5 ) =/рО-Оя _ n lo g 2 W

(14.15)

Тт

Решение типовых задач

Задача 14.1. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воз­ душном бою. В результате боя система может оказаться в одном из четы­ рех возможных состояний:

1)оба самолета не сбиты;

2)истребитель сбит, бомбардировщик не сбит;

3)истребитель не сбит, бомбардировщик сбит;

4)оба самолета сбиты.

Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и 0,1. Решение. Записываем условие в виде таблицы:

*1

Х{

*2

*3

х4

Pi

0,2

0,3

0,4

0,1

По формуле (14.5) имеем Н( Х) = Л(0,2) + Л(0,3) + л(0,4) + л(0,1).

Пользуясь таблицей, находим Н(Х) = 0,4644 + 0,5211 + 0,5288 + 0,3322 * 1,85.(дв. ед.)

Задача 14.2. На шахматной доске в одной из клеток произвольным образом поставлена фигура. Априори все положения фигуры на доске одинаково вероятны. Определить информацию, получаемую от сообще­ ния, в какой именно клетке находится фигура.

Решение. Энтропия системы X с п равновероятными состояниями равна Jog2п\ в данном случае

I(X) = Н(Х) = lo g2 64 = 6(двед.),

т.е. сообщение содержит 6 двоичных единиц информации. Так как все состояния системы равновероятны, то ту же информацию несет и любое конкретное сообщение типа: фигура находится в квадрате е2.

Задача 14.3. Пусть имеются потенциометрические датчики Д] и Дд с погрешностями 0,1 и 0,2 % соответственно. Определить количество ин­ формации, поступающее от обоих датчиков при снятии четырех отсчетов с Д { и шести отсчетов с Д2, энтропию и скорость выдачи информации ка­ ждого из датчиков при Т = 0,1с.

Решение. Число различимых уровней квантования каждого из датчи­ ков равно:

1°о

100

m, =

100

100 = 500.

' " • ' s T

o l

 

0,2

 

 

 

Общее количество информации [см. (14.13)].

I0(S)2 =л, log 2/я, + п 2 log 2т2 - 4 log2 1000 + 6 log2 500 = 94 ДВ- ед. На основании выражений (14.14) и (14.15) находим

и 1

4

отсчет

t f 0(S2) =

61og2 500 _ п дв.ед.

6

отсчет

Задачи для самостоятельного решения

Задача 14.4. Определить энтропию системы, состояние которой описывается прерывной случайной величиной X с рядом распределения:

 

Х\

Хп

*3

*4

*5

р,

0,01

0,01

0,01

0,01

0,96

Задача 14.5. Определить максимально возможную энтропию системы, состоящей из трех элементов, каждый из которых может быть в четырех возможных состояниях.

Задача 14.6. Определить частную информацию, содержащуюся в сообщении впервые встреченного лица А: “сегодня мой день рождения”

Задача 14.7. Пусть имеются датчики Дь Дд и Дз с погрешностями 0,1; 0,2 и 0,3 % соответственно. Определить количество информации, поступающее от трех датчиков при снятии четырех отсчетов с Д1§шести отсчетов с Дд, восьми отсчетов с Дз. Определить энтропию и скорость выдачи информации каждого из датчиков при Т= 0,2с.

Практическое занятие № 15

ПАРАМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ ЛИНЕЙНЫХ СИСТЕМ

Теоретические сведения

Важной задачей, возникающей при проектировании систем управления, является определение формализованного описания процесса (или объекта), для управления которым строится система. Обычно совокупность матема­ тических соотношений, определяющую основные интересующие нас дина­ мические свойства процесса управления, называют моделью процесса, а само построение модели на основе анализа результатов наблюдений - иденти­ фикацией. Существенную роль при этом играет объём априорной информа­ ции об объекте идентификации (идентифицируемой системе). Например, если известна структура системы и задан класс моделей, к которому она относится, то априорная информация в этом случае велика и задача идентификации состоит в оценивании параметров и состояния системы по результатам на­ блюдений за входными и выходными переменными. Это идентификация в узком смысле слова.

В худшем случае априорная информация может быть очень бедной или отсутствовать вообще, поэтому при идентификации приходится решать много дополнительных задач. К ним относятся: выбор структуры системы, задание класса моделей, оценивание степени стационарности и линейности объекта, выбор информационных переменных и др. Это уже идентификация в широ­ ком смысле слова. ,

К настоящему времени в теории и практике управления накоплен боль­ шой опыт решения задач идентификации в узком смысле. Методы решения задач идентификации в широком смысле начали разрабатываться сравни­ тельно недавно, и здесь результаты значительно скромнее, что в первую оче­ редь можно объяснить чрезвычайной сложностью задачи.

Следует также отметить, что при идентификации, как правило, не удается исключить влияния контролируемых и неконтролируемых случайных возмущений на параметры и координаты объекта и обеспечить абсолютную точность измерений, поэтому в основе методов идентификации лежат статистические методы обработки сигналов и получение вероятностных

оценок.

Пусть на вход изучаемой одномерной системы поступает случайный сигнал Д(/). Этот же сигнал подаётся на вход модели (рис. 15.1).

л(0

W

Изучаемая

Y/,(0

-----1W---

система

 

 

 

 

 

 

 

V

 

 

 

-

+

 

 

iL

 

 

Y(0

U ( o ^

Модель

 

 

 

Рис. 15.1

Однако из-за ошибки измерения, представляющей собой случайную помеху N(/), фактический входной сигнал X(t) модели является суммой сигнала Л (0 и помехи N(t). Разность E(t) между значениями выходных сигналов модели и изучаемой системы называют ошибкой идентификации. Она характеризует точность определения динамических характеристик изучаемой системы. Так как ошибка E(t) - случайный процесс, то критерии точности являются статистическими. Задача заключается в том, чтобы найти такой оператор модели, который обеспечивал бы экстремум выбранного статистического критерия точности. В такой постановке задача иденти­ фикации является задачей статистической теории оптимальных систем. Здесь требуемым выходным сигналом Yh(t) является выходной сигнал изучаемой системы, а действительным выходным сигналом Y(t) является выходной сигнал модели. Используя теорию оптимальных систем, можно найти оператор модели, наилучшим образом приближенный в определенном смысле к оператору изучаемой системы.

Если в качестве оценок точности принять математическое ожидание и дисперсию ошибки идентификации, то в случае стационарной линейной задачи и некоррелированной аддитивной ошибки измерения N(t) эти характеристики определяются по формулам

те =[Ф м(0) - ф (0ХК. + ф м(9)тп;

(15.1)

A. = IIф м О '® )-ф (У®)|2

Sx(<j>)d<s>+ f |Фм О'ю) |2 -SI:(o))d(£),

(15.2)

-со

-со

 

где ФиФ^-передаточные функции или частотные характеристики соответ­ ственно изучаемой линейной системы и её модели; т х, т и S (со),

ад - математические ожидания и спектральные плотности входного сигнала

А(О и ошибки измерения N(t).

Первые слагаемые в формулах (15.1) и (15.2) обусловлены неточным определением частотной характеристики изучаемой системы, а вторые - прохождением сигнала ошибки измерения на выход модели.

Среди методов параметрической идентификации линейных систем, предполагающих наличие априорной информации о структуре уравнений объекта, номинальных значениях его параметров, основанных на пред­ ставлении системы в пространстве состояний, можно выделить метод ква­ зилинейной фильтрации, использующий результаты решения задачи фильтрации в постановке Калмана.

Предполагается, что идентифицируемый линейный объект управле­ ния описывается в пространстве состояний линейным матричным диффе­

ренциальным уравнением с белым шумом в правой части:

 

~ p - = F(t)A(t)+y(ty л ('о)=°,

(15.3)

где Л(/) - «-мерный вектор состояний объекта; V(t) - «-мерный белый шум с известным математическим ожиданием m^t) и матрицей интенсив­ ности Lit), некоррелирован с начальным значением Л(/0).

Квадратная матрица параметров объекта F(t) может быть представле­ на в виде суммы известной матрицы номинальных значений F^{t) и мат­ рицы случайных постоянных во времени случайных отклонений от номи­ нала A F, т.е.

F(t) = Fff(t) + AF.

(15.4)

Элементы A F принимаются центрированными случайными величи­ нами, некоторые из них могут быть неслучайными и равны нулю; корре­ ляционная матрица /^элементов AF известна.

Задача состоит в определении (оценивании) матрицы A F, а следова­ тельно, в уточнении матрицы F(t) на основе наблюдений на интервале [/0j t] вектора X(t), линейно связанного с вектором состояния А(0 и со­

держащего аддитивную помеху W(t):

 

X(t) = R(t) Л (0+ W(f).

(15.5)

Размерность наблюдаемого вектора т < «, матрица R(t) задана; белый шум W{t) центрирован (в противном случае его математическое ожидание можно вычесть из наблюдаемого сигнала), характеризуется неособой мат­ рицей интенсивности Nit), некоррелирован с К(/) и А(Г0).

С помощью (15.3) можно определить математическое ожидание век­ тора состояния /лд it) при номинальных значениях параметров путем ре­

шения уравнения

dm" ^ - = FH(t)• тик (/) + ту (Q»

< ( ' о ) = 0

(156>

dt

 

 

Осуществим линеаризацию уравнения

(15.3) относительно

номи­

нальных значений параметров объекта и номинального движения т" it)-

dMf) =

(t) + AF]A(0 + V(t) * F H it)Ait) + AFmHK(0 + V(t) ■ (15-7)

dt

 

Левая часть (15.7) линейно зависит от матрицы AF, элементы кото­

рой неизвестны, но постоянны, поэтому

 

dAFjt) _ о

AF(t0) = AF

О 5-8)

dt

 

 

Уравнения (15.7) и (15.8) можно объединить, если ввести расширен­ ный вектор состояний А(0 >компонентами которого являются компонен­

ты вектора д (t) и все неизвестные элементы матрицы AF. В самом общем случае размерность вектора \(t) будет (п + п2\ а его изменение характе­

ризуется дифференциальным уравнением

 

 

— Q = F(t)A(t) + D(t)V(t)

(15'9)

 

dt

 

 

где

 

 

 

 

 

0

0

 

0

*ЧЯГ(0

 

F{t) = F H (t)

 

0

0

 

0

0

 

0

0

0

0

А (0 = [А, (/)Л 2( 0 .. • Л„ (t)AFuAFi2 • ■■AFlnAF2l ■AF„„f

;

D(t)=

 

0

_

 

Связь расширенного вектора состояния д(*) с вектором измерения

X(t) определяется соотношением

 

 

X (t) = R(t)A(t) + W(t),

(15.10)

гдей(0 = [/?(0 О]-

 

 

Наилучшая оценка Y(t) введенного расширенного вектора X(t)

может

быть получена с помощью построения фильтра Калмана, дифференциальное уравнение которого

- F(t)Y(/) + D{t)mv(/) + a{t,t)[x{t) - Д(г)У(/)]> Y(t0) = Л(/0)

(15.11)

0

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]