Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

647

.pdf
Скачиваний:
3
Добавлен:
15.11.2022
Размер:
3.24 Mб
Скачать

Применим формулу (13.2) для вычисления передаточной функции, обеспечивающей минимум среднего значения квадрата ошибки упрежде­ ния.

Прежде всего, необходимо найти нули и полюсы функции S„,(о,).

Имея в виду, что функция Sm((a) -

четная, и предполагая для

простоты

выкладок, что все нули и полюсы простые, можем записать

 

S (со) = С

с (e> + Yi)---(e>+ yM) ,

(13.4)

 

..(© + XJ

 

Найдем функцию ^(усо), имея в виду, что она определяется форму­

лой (13.1) и что все ее нули и полюсы должны быть расположены в верх­ ней полуплоскости.

Сравнивая (13.1) с (13.4), найдем

w /ал = с ( Ц - У |)( Ц - У 2 ) - :1(° ^ |

03.5)

Т(-/со) = С

((0 + У-Хю + У2) - ( ^ + Уц)

 

т(со +

+ А,2)...(со + A,v)

Разложим выражение (13.5) для ^(усо)

на простые дроби:

 

 

v

di

 

^(усо)= I — V -’

 

 

/=1С0- Л /

 

где

 

 

 

 

4 = [ ( ® - М

* Ы

) и ,

Найдем функцию у (t) вида

 

 

 

у(0 = —

Тт(усо)е>ш'й(ш-

 

271 -«я

 

 

Подставляя (13.7) в (13.9), получим

 

 

1

оо v

d

 

Y(0 = 3 -

f

 

 

 

271 - с о /=1 COА,-

 

причем

 

 

 

 

—- f

 

= d,ejl'' ‘

2nj

со -X/

 

 

Поэтому

(13.6)

(13.7)

(13.8)

(13.9)

y(t) = j i . d le fKl'

(13.10)

/=1

 

Введем в рассмотрение функцию

 

m = y(t + to )= £ jd leJM,+l")’ t > °. W0 = 0, t< О ОЗ.П)

/=1

 

и вычислим соответствующее ей преобразование Фурье

 

B(J<o) = ?е”7Ш,Р(0Л = a\e-Ja,,{ i j d ieiXi('+,A d t

=

 

(13',2)

о

 

0

и=1

 

J

/=1СО—A *j

 

Итак, если все полюсы Sm( СО) - простые, то определим

Ф(усо) по

формуле

 

 

v.

,

 

 

 

 

 

 

 

cvVo

 

 

 

 

 

^

dj

 

(13.13)

 

ФО*со) = B(jri) /=i о - А^_____

 

 

 

 

 

 

4 ^ ( »

/=ко -

А.,

 

 

 

 

 

 

 

 

 

 

Предположим теперь, что некоторые из полюсов функции S„,( СО) яв­

ляются кратными.

 

 

 

 

 

 

 

 

Тогда каждому полюсу кратности

% в разложении функции ^(усо)

на простые дроби будет соответствовать выражение

 

 

- +

“ /2

4-... .

а

■ = £

^/ст

(13.14)

где

- ^ , ) 2

( с о - ^ ) х

ст=| (со —

 

 

 

 

 

 

 

 

 

 

 

1

"

 

 

 

 

 

 

(с т -1)!

^ ((ю -Х ^ 'Р О -ю ))

 

 

 

d a <

 

 

 

со=А.у

 

Соотношение для /?,(/ (О) имеет вид

 

 

 

 

 

 

 

В , ( М

= I

а юе А ^ °I

-----1

(со —

1

(13.15)

 

с=1

'

п=о(ст-1-г|)!

)л+1

 

Таким образом, каждый кратный полюс с кратностью

^ дает член

вида (13.15) в числителе выражения для оптимальной передаточной функции.

Если, например, все полюсы - простые, за исключением одного крат­

ного полюса А., с кратностью ^ , то

 

Y a re7Vo - 1- + b tae*"« l '

_____?____

ф(уш) = — ______ m Xr °=1

ч=о (ст-1 —г))! ((0->L,)n+l . (13.16)

Минимальное среднее значение квадрата ошибки упреждения (пока­ затель точности системы упреждения) определяется соотношением

^

10

л

(13.17)

^min =

(0 dt

 

О

 

 

Для полюса \ кратности % определим у ,{t). Имеем

 

у

7СТ/ СТ_1

(13.18)

У/(0 = z / — —

 

Решение типовых задач

Задача 13.1. Дано

 

2р + (0

2Р -©

S M = а 2+(ю + р)2

а 2+(ю -р)2_

Определить оптимальную передаточную функцию Ф(/СО) прогнози­ рующего фильтра.

Решение. Запишем Sm( СО) в виде

£*(«>) =

2Р + со

_____ 2р - со

со2 + 2pco-f (а2 + р2)

со2 - 2рсо + (а2 + р^}_

Отсюда имеем

 

е /

\ _ [^ 2 ~ 2Рш + (ос2 + Р2 )](2Р + Д>)+ [со2 + 2рсо + (сс2 + р2 ))(2р - со)

w

Ш

[со2 + 2Р© + (а2 + р2 )]• [со2 -2рсо + (а2 +P2)J

или

2-JfiyJa2+ р2 • г^Рл/а2 + Р2

[со2 + 2рю+ (а2 + р2 )]•[со2 - 2ра> + (а2 +Р2|

Определим корни 1-го сомножителя в знаменателе Sm(tt>). Имеем

 

 

со2 + 2рсо + (a2 + р2 j = 0 >

откуда получим

 

 

 

-2p±V4p2- 4 a 2-4p2

Ш1,2

“ '

= -P + ;a -

 

Следовательно,

cot = ~Р + уос; со2 = -р - j a .

Определим корни 2-го сомножителя в знаменателе Щ ® ). Имеем

со2 -2Роэ + (а2 +Р2)= 0 ,

откуда получим

 

 

 

 

 

©3.4 =

2 p ± > p 2 - 4 a 2 - 4 p 2

0 j _ .

 

-------------- j

--------------

= Р±70С

 

Следовательно, co3 = p + ya;

co^ = p -

ya

 

 

Введем обозначения

 

 

 

(13.19)

 

A, = - P + ya; A2 = P + y’a.

Тогда

 

 

 

 

 

со | А,;

со3 = A2 5

со2

A2 ;

со^ —

A |

Запишем S,„(CO) в виде

2у]$^а2 + p 2 ^ V p V ^ + p 2

(co - co, )(co - co3 )(co - co2 )(co - co4)

или

 

2^/рт/а2 + P2

2^/p-Ja2 + p 2

s m(®)= (© -^^(co-X j)

(co+ X,)(© + X2)

Отсюда с учетом (13.4), (13.5) получим

4

ТС/ю) = (со-Х,)(со-Х2)

где Л, =2Л/рЛ/а2 +р2

Ч^у©) содержит полюсы в верхней полуплоскости (рис. 13.2)

Представим ч'(уоо) в виде

 

^ о © ) = —^ г - + - ^ -

(d } + d 2)(£>+ (-d {k 2 -< j2X,)

(co-X[)(co-X2)

со-А,

со- А 2

(13.20)

(13.21)

Из (13.20), (13.21) получим

 

 

 

 

 

 

 

 

 

d x + d 2 - 0 \

 

|

 

 

 

 

 

d\^2

 

 

 

 

 

 

 

Определим d\, d2по правилу Крамера. Имеем

 

 

A = л1

л11

— Я . ] — Х 2 =

—2Р;

 

А ] =

0

1

 

 

 

 

 

Л*2

A j

 

 

 

 

 

-

4

Я,

 

 

d =

*L = _ 4

d

 

d

 

A .

 

Из (13.13) получим

A

 

2

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

е Д | ' о

+

d 2

 

e J X 2l0

 

. . . .

со -Я ,

 

 

со-

 

 

 

Ф(уоз) = -------L

 

 

 

 

 

или

 

 

 

со-А,

 

со- А 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

А\

е Д I' O

|

d2

сАг‘о

 

 

 

со —А/,

 

 

03 - А,,

 

 

 

ФО'оз) = ------ L

 

 

 

 

 

 

 

 

 

 

(оз —Л., )(03 —Л-2 )

 

 

Перепишем Ф(/ СО) в виде

 

 

 

 

 

 

 

Ф ( » = - -

[с/, (со -

Я2 )еД|'° + d2(со-

Я.,)еДг'°]•

О3-22)

В экспоненты

 

, е

^ 2‘°

подставим Я,, и Я2. С учетом (13.19)

имеем

 

 

 

 

 

 

 

 

 

 

e;Vo = е Л - № ) ‘о =e~a‘«(cos$t0 - j s m $ t Q)-

 

еЯг‘о = е М+Юо -

е~а<о(cos 3/0 + у sin р/0 ).

 

Подставим полученные выражения в формулу (13.22). Получим

е~а1° г

 

 

 

 

 

 

 

 

 

1

ф(усо) = —-—[с/,(со - ^2)(cosP/0 -ysinp/0) + £/2(03-^l)(cosP/0 +ysinPf0)J

А

 

 

 

 

 

 

 

 

 

 

или

 

 

 

 

 

 

 

 

 

 

ф(уа)) = —— X {[(У, -\-d2)ay-(dlX2+ rf2A,,)Jcosp/0+ [M j + d2)(a^(dl\2-

)]уsinр/0).

Ai

Подставим в полученную формулу d\,d2, к ь к 2. Имеем

 

Ф(у'©) = е ГГcosрг0 ч- —sin pf0а + ~sinpc0(y©)^

1

 

V

Р У Р

 

ИЛИ

 

 

 

 

Ф(уш) = е

а,° [а(усо) + б]>

 

где

a = isinp?0;

 

 

 

сх

 

 

 

Ъ- cospr0 + — sinpf0.

 

 

Задачи для самостоятельного решения

Задача 13.2. Дано

2D„,CL

со2 +Х2

Определить оптимальную передаточную функцию Ф(/ СО) прогнози­ рующего фильтра.

Задача 13.3. Дано

1 1

_сс2+(со + Р)2 а 2 ч-(со—Р)2

Определить оптимальную передаточную функцию Ф(/ СО) прогнози­ рующего фильтра.

Задача 13.4. Дано

 

 

 

 

S »<“ ) =

со

4

2 .

 

 

+ 2оо

+4

Определить оптимальную передаточную функцию Ф(/(0 ) прогнози­ рующего фильтра.

Указание. Представить знаменатель S„,( СО ) в виде

©4 + 2©2 + 4 = (у©)4 - 2(у©)2 +4 =[(у©)2 + А (у©) + 2j(y©)2 - А (у©) + 2]=

= (У©)4 + (4 - А2)- (у©)2 + 4 Определить А:

4 - А2 = - 2; А2 = 6; А = 4б.

Найти корни полинома ( jсо)2 + Тб • (усо) + 2 •

О'со)2 + ч/б-(у©)+ 2 = 0;

О

) 1,2

■л/з ± у

 

 

 

=

 

 

 

 

 

V2

 

 

 

/ •

ч

—Тз + 7

/ • ч

;

—л/3 —у

С/®),=

 

(уо>)2=

Отсюда

 

л/2

 

 

V2 ‘

1+уЧ/з

-1+у7з

 

&>, = —

— = Л,;

 

 

^ — = ^2.

л/2

Записать ^Р(усо).

Задача 13.5. Дано

1

©4 +1

Определить оптимальную передаточную функцию Ф(/СО) прогнози­ рующего фильтра.

Указание. Представить знаменатель Sm{со) в виде

со4 +1 = (у©)4 +1 = [о©)2 + А ■(у©) + фу©)2 - А • (у©) + 1]=

=(у©)4 + ( 2 - ^ 2)-0®)2 +1

Определить А\

2 - А2 =0; А2 = 2; A = J 2.

Найти корни полинома (у©)2 + 72 • О‘(о)!+1:

(у©)2 +ч/2 -(у®) + 1 = 0;

/ • ч - 1 ± У

Отсюда

1+у «

—1+у

«

*

-Л,,; со2 -

^

- ^ 2

Записать ^ О '03)

s - ( e , - ( ? W

Определить оптимальную передаточную функцию Ф(/со) прогнози­ рующего фильтра.

Указание. Использовать формулы (13.14), (13.15) при а = 2.

Задача 13.7. Дано

s - w - < ? W

Определить оптимальную передаточную функцию Ф(/СО) прогнози­ рующего фильтра.

Указание. Использовать формулы (13.14), (13.15) при а =3.

Задача 13.8. Дано

_____2(а2 - Р 2)

5»(®) = [(а - Р)2 + © Д [(а + Р)2 + со2 ]

где X > Р

Определить оптимальную передаточную функцию Ф(/со) прогнози­ рующего фильтра.

Практическое занятие № 14

МЕТОДЫ ТЕОРИИ ИНФОРМАЦИИ

Теоретические сведения

Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Например, на вход автоматизированной системы управления производ­ ственным цехом может быть передано сообщение о нормальном или повы­ шенном проценте брака, о химическом составе сырья или температуре в печи.

Очевидно, если бы состояние физической системы было известно зара­ нее, не было бы смысла передавать сообщение.

В качестве объекта, о котором передается информация, мы будем рас­ сматривать некоторую физическую систему X , которая случайным образом может оказаться в том или ином состоянии, т.е. систему, которой заведомо присуща какая-то степень неопределенности. Очевидно, сведения, получен­ ные о системе, будут тем ценнее и содержательнее, чем больше была неопре­ деленность системы до получения этих сведений. Возникает вопрос: что зна­ чит “большая” или “меньшая” степень неопределенности и чем можно ее измерить.

Степень неопределенности физической системы определяется не только числом ее возможных состояний, но и вероятностями состояний.

Рассмотрим некоторую систему X, которая может принимать конечное

множество состояний: х г х2, ..., *п с вероятностями Pr Pv

..., Рп, где

Р - вероятность того, что система X примет состояние х..

 

Р = Р(Х=х)

'

(14.1)

В качестве меры неопределенности системы в теории информации применяется специальная характеристика, называемая энтропией. Понятие об энтропии является в теории информации основным.

Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифм этих вероятностей, взятая с

обратным знаком:

(14.2)

 

H(X) = -'LPl \og2Pi.

Энтропия Н(Х) обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, она обра­ щается в нуль, когда одно из состояний системы достоверно, а другие невозможны. Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний она увеличивается.

Измерим энтропию системы X , которая имеет п равновероятностных состояний:

X,-

Х\

* 2

Х„

Pi

1

1

1

п

п

п

 

Имеем

Н { Х ) = - п • —• log2 —= - log2 1 + log2 п

пп

или

Н ( Х ) = log2 п,

(14.3)

т.е. энтропия системы с равновозможными состояниями равна логарифму числа состояний.

Вычисление энтропии по формуле (14.2) можно несколько упростить,

если ввести в рассмотрение специальную функцию:

 

T\(P) = -P \og2P.

(14.4)

Формула (14.2) принимает вид

 

Я (Х ) = Х 7^ ) -

(14-5)

1=1

 

Рассмотрим совместную энтропию статистически

независимых ис­

точников сообщений. Пусть имеются два статистически независимых ис­ точника X и У, причем множество состояний jcb ..., х„ принадлежит источ­

нику^, а у\, ...,у т-

источнику Y. При этом

 

 

ZP(x,.) = l;

1 ? ( ^ . ) = 1.

 

 

<=1

j=\

 

Если источники X и Y статистически не связаны между собой, то

Р {Х = x„ Y = У]) = P(Xi, y j ) = Р(х()Р (^ .).

(14.6)

Используя (14.2) и (14.3) для энтропии Н{Х, Y) системы с состояния­

ми (х„ yj), получим выражение

 

 

Z

W y ) log2 Д w

, ) =

 

Я (*,У )= -Z Д

 

 

 

= -Z Z Д х ,)Д ^ )[1о& Дх,) + log2 P{yj)} =

 

 

 

 

= -Z Д*, )log2 Дх,) -Z Д у,)1о6 Р(у}.) =Н(Х) + Я(У).

 

/

у

 

 

Следовательно, совместная энтропия статистически независимых ис­ точников равна сумме энтропий этих источников. Этот вывод распро­ страняется и на большее число статистически независимых источников.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]