Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Применение методов статистического моделирования в автоматизированном химическом производстве

..pdf
Скачиваний:
8
Добавлен:
29.10.2023
Размер:
2.69 Mб
Скачать

 

 

 

 

 

 

Т а б л и ц а 6

№ наб­

У1

Уз

 

 

*3

. *1

х 3

людения

 

 

 

 

 

 

 

 

 

1

91,1

36,3

3,0

625,5

0,36

540

3,2

2

92,0

27,9

2,8

615,0

0,38

510

3,0

3

92,5

30,0

4,5

522,0

0,33

510

2,5

4

91,0

32,9

2,5

634,0

0,44

470

2,2

5

91,2

33,0

2,55

633,0

0,50

470

3,0

6

91,1

33,5

2,0

638,0

0,41

470

2,4

7

90,0

31,8

2,0

632,0

0,40

470

3,6

8

90,0

34,8

2,5

638,0

0,50

470

2,8

9

90,4

32,7

2,5

628,0

0,49

450

2,5

10

90,1

33,5

2,0

632,0

0,39

.420

2,8

11

90,6

31,4

2,5

623,0

0,42

400

3,7

12

90,2

26,4

2,0

621,0

0,32

400

4,6

13

90,4

28,2

3,0

621,0

0,50

400

4,9

14

90,4

32,9

2,5

629,0

0,44

400

3,8

15

90,5

27,5

2,5

618,0

0,42

400

4,8

16

90,6

35,2

2,5

638,0

0,36

400

4,2

17

89,6

32,5

2,0

635,0

0,42

400

3,4

18

90,0

33,6

2,5

635,0

0,54

400

2,8

19

89,1

34,8

2,2

635,0

0,46

400

2,6

20

90,0

34,5

2,0

674,0

0,29

400

2,8

21

87,0

37,5

2,5

632,0

0,42

400

2,2

22

91,4

32,7

2,0

622,0

0,25

400

4,0

23

90,5

31,1

3,0

615,0

0,400

400

3,3

24

89,9

35,9

2,5

630,0

0,43

400

2,6

25

88,8

35,6

2,5

629,0

0,43

400

2,9

21

i-м номере наблюдения. Таким образом, для всех п факторов

X j(j= 1,

2, ... ,«)

необходимо определить 3п переменных ajy

bj и Cj

( / = 1, 2,

. . . , « ) , а уже после этого оценить значения

аУ(xj).

Отметим, что N есть число замеров (в нашем примере — количество групп, усредненных заранее). Для нашего приме­ ра N = 25.

Величина среднеквадратичного отклонения (ау) рассчи­ тывается как средневзвешенная по группам и в нашем приме­ ре принимает значение 1,075.

Среднеквадратичные отклонения выходного параметра от точек на прямой, характеризующей зависимость последнего от каждого из входных факторов, и вычисленные индексы кор­ реляции представлены в табл. 7.

 

 

 

 

 

 

 

Т а б л и ц а 7

Услов­

 

 

 

 

Величина

 

Величина

ное

Наименование фактора .

среднеква­

индекса

обозна­

дратичного

 

чение

 

 

 

 

отклонения

 

корреляции

 

Соотношение

пар — этилбензол

0,642

 

 

0,597

дг2

Температура

верха

реактора

0,504

 

 

0,469

*3

Давление

перед

адиабатическим

0,442

 

 

0,411

реактором

 

 

 

 

 

 

 

х 4

Подача пара в пароперегреватель-

0,415

 

 

0,386

ную печь

 

 

 

 

 

 

 

*5

Подача шихты

 

0,292

 

 

0,272

*6

Перепад

давлений

 

0,229

 

 

0,213

х 7

Давление

после

адиабатического

0,238

 

 

0,221

реактора

 

 

 

 

 

 

 

*8

Температура

низа реактора

0,204

 

 

0,190

*9

Остаток в печном масле

0,144

 

 

0,134

-«10

Температура

середины реактора

0,009

'

 

0,008

х и

Подача пара

в испаритель

0,001

 

 

0,0009

При 5-процентном уровне значимыми являются только те

величины,

которые больше 0,381 (по Скритерию Стьюдента).

Следовательно, на основании рассчитанных индексов корре­ ляции наиболее влияющими оказались следующие факторы:

д-Т(0,597); х2(0,469); лг3 (0,411); (0,386). Кроме указанных

22

факторов, в дальнейших расчетах было учтено изменение ак­ тивности катализатора как величина, обратная величине ос­ татка в печном масле.

Мы видим; таким образом, что отобранные параметры ока­ зались полностью идентичными параметрам, отобранным на основании способа модификации метода наименьших квадра­ тов (см. формулу (21). Однако последний способ намного проще и требует меньшего количества вычислительных опера­ ций. Что касается отбора факторов с помощью коэффициента корреляции, то эта попытка окончилась неудачей.

В предыдущем разделе мы рассмотрели новый способ отбора влияющих на выходную функцию процесса значимых факторов на основе построенной линейной математической модели. Предположим, что из п влияющих на функцию откли­ ка W факторов мы отобрали k значимых, которые обозначим Х\, . . ., хк. Зададимся целью построить нелинейную квадра­

тичную

математическую

модель

зависимости функции

W от

факторов Х\, . . ., хк, то

есть запишем следующее выраже­

ние [6]:

 

 

 

 

 

W — Ло + 2 Ai x i + 2

Ац x i xj + A.

 

 

/= 1

i = 1

,/=*» 1

 

Эту формулу можно рассматривать как линейную, состоя­

щую из

(k2 + k + \ ) коэффициентов A t и А и и (k2 + k+ 1)

век­

торов 1, х ь x t Xj. А по отношению к ней мы вправе применить весь описанный выше математический аппарат. Система век­

торов

1, x i, x l xj

(1 < г < &, 1<у'<&) ортогонализуется, стро-

ятся

векторы go

и

. ,\ къ+к

с последующим вычислением

коэффициентов

А ь и A,j . Мы

можем также применить для

решения этой задачи обычный (не модифицированный) спо­ соб наименьших квадратов, поскольку отбор значимых фак­ торов на этот раз уже не производится.

На электронной вычислительной машине «БЭСМ-2» со­ ставлена стандартная программа отбора факторов и по­ строения нелинейной квадратичной модели модифицирован­ ным способом. По сути дела, в программе совмещены две раз­ личные, хотя и связанные задачи:

1)отбор факторов на основании линейной модели («ли­ нейная задача») и

2)построение нелинейной модели без отбора факторов

(«нелинейная задача»).

памяти

ЭВМ допускает для случая

Объем оперативной

линейной задачи максимальные параметры п< 39; JV<150, а

для случая нелинейной задачи

«< 7 и N< 150.

Для случая линейной задачи печатаются:

а)

значения А

А

п'\

 

б)

значения А ь . . .,

А п;

 

23

в) значения Ло;

г) значения

— —

(г = 1, 2, . . . ,

п).

N —i

V

Для случая нелинейной задачи печатаются: а) значения коэффициентов в уравнении

п

п

п

п

б) значение остаточной дисперсии о2, оцениваемой по фор­

муле о2= - ^ Д

N—n

Висследуемом примере процесса дегидрирования этил­ бензола в стирол на основании пяти отобранных параметров по описанному выше способу модификации метода наимень­ ших квадратов были получены уравнения зависимости выхо­ да стирола на разложенный этилбензол (у\) и на пропущен­

ный этилбензол (г/г) -

у1——0,000046—264,56^!—1,30^2+ 856,14х3 -{-1,95x4+

+145,24x9 + 5.62XJ2+ 0,0020х22 + 75,97х32—0,000081х42— —2,11х92 + 0,43xiX2—31,65х!Х3—0,048x^4 + 0,77xiX9—

—1,37x2X3—0,0026x2X4—0,18х2х9 + 0,053х3х4—2,15х3х9— —0,046х4х9*.

у2 = —0,000018+ 466,63х, + 4,30х2—1176,97х3—5,69х4— —304,58x5—19,37Х!2—0,0063х22—148,87х32 + 0,00020х42 +

+1,/ЗХ52—0,7DXjX2 + 92,14xiX3 + 0,1 lX[X4 + 5,09 IX1X5 +

+2,011х2х3+ 0,0082х2х4 + 0,41х2Х5—0,34х3х4—19,70х3х3 +

+0,079х4Х5.

Выше было указано, что оценки А[ = 1’ ^ ■ (а следо­

вательно, и оценки, получаемые линейной комбинацией зна­ чений А{) являются приближенными. Отсюда возникает вопрос относительно меры точности определения коэффициен­ тов Ai. Можно считать, что среднее квадратичное отклонение коэффициентов Ah обозначенное нами ДAh равно

а

А А

В нашем примере мера точности коэффициентов прини­ мает следующие значения.

*В дальнейшем для последовательности обозначения индексов фактор

х9 обозначим символом х5.

24

Для уравнения y \ —f{xx, . •

х5)

ДА, =6,962339;

ДЛ22

= 0,0003215;

АА2 =0,0756622;

ДЛ23 = 2,656931;

АА3 =9391,72313;

ДЛ24 = 0,00029153;

ДА4 =2,701443;

ДЛ25 = 0,1240992;

ДЛ5 =13,782372;

ДЛ33

= 272,40028;

ААи = 2,387361;

ДЛ34 = 0,0403551;

д л ,2 = 0,103416;

ДЛ35 = 25,59979;

ДД1з= 60,98034;

ДЛ44 = 0,00005;

ДЛ14 = 0,0845156;

ДЛ45 = 0,0122677;

дл , 5 = 1,271598;

ДЛ55 = 0,397148.

Для уравнения у2 = 1{Х\,-

• , *5)

= 0,00228044;

AAi =2,86529;

ДЛ15

ДЛ2 =0,000005;

ДЛ23= 1,853292;

ДЛ3 =2,161307;

ДЛ24 = 0,000286669;

ДЛ4 =1,84969;

ДЛ25 = 0,171724;

ДЛ5 =5,634139;

ДЛ38

= 518,1 18282;

ДЛ„ = 0,0196755;

ДЛ34

= 0,0854569;

ДЛП = 0,935434;

ДЛ35= 16,75394;

ДЛ12 = 0,412699;

ДЛ44

=1,508448;

ДЛ13 = 678,61501;

ДЛ45

= 0,0204462;

ДЛИ= 12,185146;

ДЛ55 = 293,55889.

Для полученного уравнения проведена проверка адекват­ ности по следующей формуле:

где Si2— оценка

остаточной дисперсии;

S22— оценка

дисперсии,

обусловленной ошибкой воспро­

изводимости.

 

 

 

N

 

 

 

2

(Уг— Ур?

 

— -------------

 

пk—1

 

Л'

/

 

 

2

2

(Уп -Уу)г

 

П — 1

k =

1 k

 

 

N

( J - 1)

где y t — табличные значения

выхода;

ур — значение выхода, ожидаемое по уравнению;

N — число

интервалов;

/ — число

замеров в интервале;

k — число коэффициентов уравнения;

п — число

факторов.

I

25

 

Т а б л и ц а 8

У1

У>р

У1— У1р (У1—У^р)2

Уз

Уip

У2 — Уър (Уа—Угр):

91,1

90,54

0,56

0,3136

36,3

36,15

0,15

0,0225

92,0

92,02

-0 ,0 2

0,0004

27,9

27,75

0,15

0,0225

92,5

92,5

0,0

0,0

30,0

30,38

-0 ,3 8

0,1444

91,0

90,7

0,3

0,09

32,9

33,38

-0 ,4 8

0,2304

91,2

90,78

0,42

0,1764

33,0

33,19

-0 ,1 9

0,0361

91,1

91,36

- 0 ,2 6

0,0676

33,5

32,79

0,71

0,5041

90,0

89,96

0,04

0,0016

31,8

32,13

- 0 ,3 3

0,1089

90,0

90,40

- 0 ,4 0

0,1600

34,8

34,91

-0 ,1 1

0,0121

90,4

90,68

- 0 ,2 8

0,0784

32,7

32,39

0,31

0,0961

90,1

90,13

—0,03

0,0009

33,5

33,05

0,45

0,2025

90,6

91,04

—0,44

0,1936

31,4

31,86

—0,46

0,2116

90,2

90,26

—0,06

0,0036

26,4

27,20

—0,80

0,64

90,4

90,39

0,01

0,0001

28,2

28,38

- 0 ,1 8

0,0324

90,5

90,63

—0,13

0,0169

32,9

32,47

0,43

0,1849

90,5

90,36

0,14

0,0196

27,5

26,44

1,06

1,1236

90,6

90,59

0,01

0,0001

35,2

35,28

—0,08

0,0064

89,6

89,57

0,03

0,0009

32,5

31,67

0,83

0,6889

90,0

90,02

—0,020

0,004

33,6

33,25

0,35

0,1225

89,1

88,94

0,16

0,0256

34,8

34,77

0,03

0,0009

90,0

90,03

- 0 ,0 3

0,0009

34,5

35,05

—0,55

0,3025

87,0

87,63

- 0 ,6 3

0,3969

37,5

36,57

0,93

0,8649

91,4

91,32

0,08

0,0064

32,7

32,03

0,67

0,4489

90,5

90,46

0,04

0,0016

31,1

31,41

-0 ,3 1

0,0961

89,9

88,98

0,92

0,8464

35,9

35,68

0,22

0,0484

88,8

89,85

—1,05

1,1025

35,6

34,64

0,96

0,9316

 

 

В =

3,504;

Е = 10,9600

 

 

су

3,504

г\ м/~\ л

а2 =

-! -----. =

0,104.

Л24

26

I.

В нашем случае /^-критерий принимает значения (табл. 8):

для уравнения yi = f(xu . . х5) F= 1,11;

для уравнения y2 = f{x\, . . х5) F= 1,93.

Найденное в таблице /^-распределений значение для 5-про­ центного уровня значимости, соответствующего f\ = nk—1 степеням свободы в числителе и /2 = «(/—1) степеням свободы в знаменателе, равно 2,63. Поскольку фактическое значение F меньше 5-процентного граничного значения, найденные урав­ нения зависимости адекватно представляют процесс.

После нахождения коэффициентов нелинейной (в нашем случае квадратичной) математической модели производствен­ ного процесса необходимо найти комбинацию значений пара­ метров этого процесса, оптимизирующего значение выходной функции. Мы рассматриваем, таким образом, задачу оптими­ зации многопараметрической системы. Обозначив через

Q(xu ...,x)

функцию качества технологического процес­

са,

найдем

вектор

(х\*, х2*, . . ., хп*), оптимизирующий функ­

цию

качества Q.

Если, например, оптимизируемая функ­

ция качества должна принимать наименьшее значение, то

Q(x 1*,..., x * )< Q ( x u ...,x„)*.

Компоненты Xi , . . ., х п являются параметрами оптимизи­ руемой системы, образуя «-мерный вектор, причем функция качества Q определена на конечном или бесконечном множе­ стве этих n-мерных векторов.

Существует ряд способов нахождения оптимального набо­ ра параметров в многопараметрической системе. Наиболее простым и самым трудоемким является перебор всех возмож­ ных комбинаций значений параметров х и . . ., хп, после чего выбирается искомая комбинация Х\*, . . ., хп, минимизирую­ щая выходную функцию качества Q(xb . . ,,хп). К преимуще­ ствам метода перебора относится независимость метода от вида и характера функции качества Q, а также гарантия на­ хождения глобального минимума за однократный перебор. К недостаткам метода относится необходимость проведения огромного количества вычислительных работ (особенно при больших п ), так как количество всех возможных комбинаций нередко приобретает астрономические размеры. Поэтому этот способ в настоящее время мало применяется для оптимиза­ ции многопараметрических систем.

Метод Гаусса — Зайделя сводится к поиску минимума (функции качества таким образом, что на каждом этапе мини­ мум отыскивается тольк'о по одному параметру. При этом ме­ тоде сходимость крайне медленная, причем в отдельных слу­ чаях решение вообще не может быть достигнуто. Наиболее распространенными из неслучайных способов поиска являют­

* В дальнейшем будем считать оптимальной комбинацию параметров, минимизирующую функцию качества Q.

27

ся методы градиента и наискорейшего спуска, широко описан­ ные в литературе [9], [10], [12], [13]. На первом этапе примене­ ния метода градиента выбирается (случайно или неслучайно) точка, в которой определяется направление градиента.

Поиск происходит в обратном направлении, причем метод градиента особенно эффективен в том случае, когда функция качества Q является линейной. Основной недостаток метода градиента — резкое снижение его эффективности при наличии ограничений. Достоинством метода является его сравнительно высокая точность. Метод наискорейшего спуска является раз­ витием метода градиента и отличается от последнего тем, что система определяет направление градиента не на каждом шаге поиска, а только в тех случаях, когда значение функции качества после очередного шага увеличилось. В противном случае система делает очередной шаг в прежнем направле­ нии, не определяя заново направления градиента.

На наш взгляд, более эффективными способами оптимиза­ ции многопараметрических систем являются методы случай­ ного поиска. Наиболее простым, хотя и не всегда экономич­ ным, является метод статистических испытаний (метод Мон­ те-Карло). Он сводится к «розыгрышу» значений параметров

Х \

, . . . , х п , вычислению функции качества Q и к многократно­

му

повторению «розыгрыша». После проведения большого

числа «розыгрышей» выбирается комбинация параметров xh для которой значение выходной функции Q будет минималь­ ным. Обычно «розыгрыш» значений параметров х, происходит равномерно в диапазоне изменения значений этих парамет­ ров.

Практически реализация метода Монте-Карло на ЭЦМ происходит следующим образом. Необходимо определить та­ кую комбинацию значений факторов х ь ..., х п, которая опти­ мизировала бы функцию f(xu . . . , x n). Определяем границы изменения значения для каждого из факторов х ;. Так, в на­ шем случае, область изменения для фактора Xi (соотношение)

следующая: min = 2, max = 4; 5.

Для фактора х2 min = 522, max = 674, и т. д. После это­ го «разыгрываем» п случайных чисел ah каждое из ко­ торых, соответственно, распределено равномерно в интервале

(minx,, шах х г).

Сначала моделируется значение случайной величины, рас­ пределенное равномерно в (0, 1); затем полученное случайное число умножается на (т а х х ;—rninx^), а к произведению прибавляется значение min xL. В результате получается окон­ чательное значение случайной величины а ;, распределенной равномерно в интервале (min xh шах х(). Описанная выше процедура совершается для всех г от 1 до п. После получения п случайных величин а г определяется величина f (<хь . . ., а„), которая «запоминается» в памяти электронной вычислитель-

28

ной машины. После этого вновь «разыгрываем» комбинацию (a(j2),.-- > a(„2)) (разумеется, величины аг будут иметь другие значения), определяем величину а™) и смотрим,

ближе ли новое значение к оптимальному, чем первое. Если да, то комбинация , а<л2>) запоминается,. а старая ком­

бинация (a)1),.--. a(J)) стирается, если нет, то наоборот. Такую

процедуру повторяем многократно, после чего можно фикси­ ровать такую комбинацию (аь . . ., а„), для которой значение

f ( a i , . . . , a n)

ближе всего к оптимальному. Эта

комбинация

(ai,

а„)

и выбирается в качестве оптимальной для факто­

ров Хи . . ., х„.

 

 

К недостаткам метода Монте-Карло следует отнести недо­

статочную

быстроту сходимости вероятностного

процесса и,

как следствие, необходимость проведения большого количест­ ва повторных «розыгрышей». К достоинствам этого метода относится простота его применения и возможность использо­ вания минимального количества рабочих ячеек при моделиро­

вании оптимизации на ЭЦМ.

Сходимость многомерного

(«-мерного)

вектора (хь ...,х„)

к искомому результату

(Xj*,. . ., х *)

по вероятности в общем случае обратно пропор­

циональна ]/М ,где N — количество произведенных «розыгры­ шей», и для ряда случаев, как уже указывалось выше, яв­ ляется недостаточной.

В этом случае весьма эффективным методом оптимизации является случайный поиск, исследованный в работах Л. А. Рас-

стригина [12], [13].

Наиболее простым способом случайного поиска является так называемый шаговый локальный поиск без обучения, сущ­ ность которого заключается в следующем.

Обозначим через x(-i «-мерный вектор (х)1'”1),..., л:]]-1)) минимизирующий функцию качества Q(xb . . ., хп) после (г—1)

шагов

поиска. Обозначим через | (см. обозначения в рабо­

те [13])

единичный случайный вектор, равномерно распреде­

ленный во всех направлениях «-мерного пространства пара­

метров Х \ , ... , х п, а через

a — величину «шага»

в «-мерном

пространстве. Сделаем следующий шаг £а и

перейдем к

«-мерному вектору (х^,...,

х^), после чего определяем вели­

чину Q(x(i>,. . ., х^).

Если

Q (хф,..., х ^ )

< Q (х)'-1!,...,

xjf-1)),

то

считаем

Х 1= ( х {'\

..., x (V) и делаем следующий (г'+1)-й шаг,

соответст­

вующий вектору смещения |а , после

чего вновь

сравнива­

ем изменение функции

качества

Q.

Если Q (хф,..., хф) >

> Q

(^1‘'

1>,...,л:|1‘“ 1)),

то

есть

функция

качества

не уменьши­

лась,

возвращаемся

обратно

в

точку (л^-1),..., х ^ ) = А '._ 1.

Таким образом, мы возвращаемся назад, если функция каче­

29

ства возрастает, и случайно движемся вперед (с равномер­ ным распределением во всех направлениях) в противном слу­ чае. Данный метод особенно эффективен в случае, когда функ­ ция качества изменяется во времени со сравнительно боль­ шой скоростью.

Шаговый локальный поиск без обучения имеет две моди­ фикации, которые принципиально не отличаются друг от дру­ га: в первом случае происходит (при увеличении функции ка­ чества) возврат в предшествующую точку, во втором возврат­ ное движение при увеличении функции качества Q совер­ шается одновременно с последующим случайным движением, то есть возврат назад как бы пересчитывается. Таким обра­ зом, обе модификации отличаются лишь изменением количе­ ства шагов, а результаты оптимизации сходятся по вероятно­ сти к одному и тому же результату. Сходимость описанных выше методов случайного поиска при п> 1 существенно луч­ ше, нежели сходимость процесса оптимизации по методу гра­ диента, причем с увеличением п сходимость метода случайно­ го поиска все более улучшается по сравнению со сходимостью по методу градиента.

Наилучшим способом оптимизации многопараметрических систем является разработанный в работе [13] метод шагового локального поиска с обучением. Сущность этого метода за­ ключается в том, что после проведения г'-го шага из точки X t делается k независимых случайных шагов После этого выбирается тот шаг | у-, который дает наименьшее зна­ чение функции качества.

Q № + а 5У) = min Q + а ?е), 1 < е < к,

после чего фиксируется

Иными словами, обследуется окрестность точки X t и вы­ бирается самое оптимальное из «разыгранных» направлений. Этот алгоритм более эффективен, чем описанный выше метод шагового локального поиска без обучения, и сходимость к ло­ кальному оптимуму существенно возрастает.

Основной недостаток описанных выше методов — локаль­ ность оптимизации многопараметрической системы. Мы не­ редко оцениваем локальный оптимум, а отнюдь не подлежа­ щий оценке глобальный. Поэтому,, на наш взгляд, удачные результаты дает сочетание метода Монте-Карло, который но­ сит глобальный характер, но сходится медленно, и методов случайного поиска, которые носят локальный характер, зато обладают быстрой сходимостью.

По-видимому, в начале оптимизации следует «разыграть» методом Монте-Карло ряд точек-векторов «-мерного простран­

30

Соседние файлы в папке книги из ГПНТБ