книги из ГПНТБ / Головинский В.В. Статистические методы регулирования и контроля качества. Расчет оптимальных вариантов
.pdfиа основании опыта предыдущих вычислений или по соображениям общего характера. Как увидим, удаление х х от х* не влияет на точность результата поиска, но от него зависит количество вычислений т г.
Вторая точка х 2 для вычисления f (х) выбирается справа от х х на удалении /г0. Само собой разумеется, что шаг поиска /г0 = A.v, где А х— приращение аргумента х, должен быть кратным интер валу округления /г непрерывного аргумента х и должен быть целочисленным при целочисленном х. От выбора h0 зависит, как увидим позже, остаточный интервал неопределенности L0CT (т ) при заданном количестве вычислений т (или т при задан ном L0CT (т)).
После вычисления f (хА) и f (х2) находим конечное прира
щение |
|
|
|
|
|
|
|
|
|
|
Да./ |
(*i) = f (*s) - |
f (*i). |
(8-2) |
|
где h0 = |
x 3 — х*. |
|
|
|
|
||
Если |
A/,** f (xi) < 0 , |
то точка минимума x*, очевидно, нахо |
|||||
дится |
справа от х х. |
Соответственно |
поиск продолжается вправо |
||||
от х 2. |
Если |
Atfjf (xi) |
> |
0, то поиск и нумерация точек |
х,п, т — |
||
— 1,2, . . . |
т г, над |
|
которым вычисляется f (х), выполняется |
||||
влево от х х. |
В дальнейшем рассматривается только первый слу |
чай, так как второй ему аналогичен.
Итак, если поиск продолжается вправо от ху, после / (х2)
вычисляем / |
(х2 + |
h0) = |
/ (х3) |
и A (х) = / (х3) — / (х2). |
До |
|
тех пор, пока Ai,J |
(х) < |
0, |
поиск продолжается в том же направ |
|||
лении. Если |
при |
очередном |
т -м вычислении окажется, |
что |
||
А*"0/ (х)5 г 0 , это значит, |
что точка минимума х* находится между |
|||||
хт _х и хт+1. Если |
/ц > |
1 |
при дискретном х или h0 = h, где h — |
интервал дискретизации при непрерывном х, то производится
дополнительное вычисление |
f (х) при х — хт -|- /те, где |
/гЕ |
= |
1 |
||||
при дискретном х; /гЕ = h при непрерывном х. |
|
|
х* |
|||||
В зависимости от знака АЛе (хт + he) |
точка минимума |
|||||||
находится в |
интервалах: |
|
ПРИ \ |
f (Х+ |
/гв)>°; |
|
|
|
|
(* т - 1 , Х,п + |
hz) |
|
|
|
|||
|
(Xm,Xm+l) |
ПРИ \ f ( |
X + K ) < ° - |
|
|
|
||
Если /г0 |
= 1, то х* = |
хт , если h0 = h, |
то с точностью |
до ин |
||||
тервала дискретизации принимается х* = |
хт . |
|
при |
|||||
Во всех |
случаях остаточный интервал |
неопределенности |
||||||
направленном сплошном переборе |
|
|
|
|
|
|||
|
|
|
0 + |
/г£> |
|
|
(8 3) |
где /гЕ — приращение переменной х перед последним сопостав лением / ( x j и / (хт + /гЕ) .
152
Общее число вычислений т г при Заданном |
зависит от шага |
hn и от ошибки 1е интуитивной оценки точки минимума х , допу щенной при определении исходной (эвристической) точки лд:
|
|
4 = |
|лу — я* | . |
|
|
(8.4) |
||
В самом деле, интервал 1е можно |
пройти |
в результате т |
= |
|||||
— -р + 1 |
вычислений. Сюда |
добавим |
вычисление |
в |
точке |
х |
||
!° |
1 |
математическое |
ожидание вычисления в |
ложном |
||||
и равное |
|
|||||||
направлении. Если принять в среднем |
/ге = |
то |
можно запи |
сать соотношение, определяющее число вычислений m f\ необ ходимых для отыскания точки минимума х* способом направлен ного сплошного перебора с заданным остаточным интервалом неопределенности:
|
|
т<2> |
O+ ' + T - |
34 |
(8.5) |
|
|
|
22’(2)' |
||||
|
|
- ( i + |
Г |
|
||
Если х целочисленно, |
то при h0 = 1 |
уточняющее вычисление |
||||
в точке |
хг |
отпадает: |
|
|
|
|
|
|
т ( 2) |
|
|
(8.6) |
|
Если |
к тому же известно, |
что эвристическая точка совпадает |
||||
с границей |
исходного интервала 3?ъ то |
|
||||
|
|
m?’= |
I + |fe- |
|
<8'7> |
Как видим, эффективность направленного сплошного перебора в основном зависит от ошибки 1е при выборе исходной точки х ±. Величина 1е является случайной переменной, распределение кото рой можно вычислить при тех или иных более или менее произ вольных предположениях. В дальнейшем соотношение (8.5) будет использовано для сравнения метода направленного сплошного перебора с другими методами. При этом можно будет ограни читься экспертной оценкой возможного максимума ошибки 1е.
Сравним полный перебор (параллельный поиск) с направлен ным сплошным перебором, имея целью не столько выяснить несложный вопрос, какой из них выгодней, сколько проиллю стрировать применительно к простым условиям два необычных понятия, минимаксная и максиминная оптимальность. Эти поня тия возникли при решении задачи следующего типа. Пусть суще ствует г возможных решений Rt, i = 1 , 2 , . . . , г, из которых надо выбрать наиболее выгодное решение R* с меньшими поте рями z. Показатель эффективности zlK каждого из решений R зависит от фактического возникновения одного из возможных вариантов условия ик, к = 1, 2, . . . . Условия vt могут быть раз
1 5 3
ными для разных R it могут быть одинаковыми, |
но |
приводить |
к различным затратам zlK при одинаковых вариантах |
v. |
|
Вероятности возникновения вариантов vK |
условия ' v не |
|
известны, и этим данная задача отличается от той, |
которая имела |
место при выборе вариантов СРК. Значения zlK известны или, по меньшей мере, известны max (z(-K) и min (ziK) для каждого
КК
из возможных решений Rit где max (zlK) — наибольшие возмож-
К
ные потери при данном решении R it если сравнивать ztK при
всех вариантах ик условия v; min (z,-K) — наименьшие возмож-
К
ные потери при данном решении R r Выбор решений в такой задаче1 определяется одним из двух сформулированных ниже принципов, который представляется предпочтительным в данных условиях.
1. Минимаксный принцип («minimax») заключается в выборе такого решения R, которое сведет к минимуму потери при самом худшем варианте мыслимых условий V, влияющих на потери z. Речь идет уже не об условиях, существенных для отдельного решения, а о всех таких условиях каждое из которых влияет на эффективность хотя бы одного из конкурирующих решений. Ясно, что в соответствии с этим принципом надо выбирать реше
ние R . с наименьшим значением величины max (ziK), |
иначе говоря, |
|
|
К |
= 1, 2, . . . г; |
решение, которому соответствует min (max zlK), i |
||
i |
к |
|
к = 1, 2, . . . . |
|
|
Минимаксный принцип может оказаться единственным прием лемым, например, тогда, когда возможные потери z должны быть немедленно и всегда полностью возмещены страховым резервом, расходы на содержание которого, как правило, пропорциональны его количеству, а потребность в нем пропорциональна max z[K. Минимаксный принцип применяют и в менее очевидных обстоя тельствах. Но надо иметь в виду, что обычно он оправдывается только недостаточностью информации о распределении вероят ностей условия щ,{, так как иначе он может привести к большим потерям.
2. Максиминный принцип является своего рода негативным аналогом минимаксного в том смысле, что совпадает с ним после перемены знака показателя эффективности z. Оптимальным счи
тается такое решение Rt, при котором min (ziK) оказывается
К
больше, чем при всех остальных решениях. Например, к исполь зованию такого принципа может привести необходимость гаран тировать наибольший срок безотказной эксплуатации машины или узла.
1 Эти и подобные задачи относятся к классу выбора решения в условиях неопределенности. Математическая теория их решения рассматривается в тео рии игр, элементарное изложение которой можно найти в работах [4, 5].
154
В данной книге используется лишь минимаксный прин цип.
Нам надо сравнить эффективность поиска способом полного перебора, и способом сплошного направленного перебора, име нуемым в дальнейшем «направленным перебором». Показателем эффективности является число вычислений т г при определении точки х* экстремального значения / (х) при одинаковом остаточ ном интервале неопределенности 3 ?,. Единицей измерения интер валов принята здесь и в дальнейшем величина исходного интер
вала 3? и |
равного интервалу |
допустимых значений х. |
Итак, предполагая равенство остаточных интервалов неопре |
||
деленности |
предстоит сравнить количества вычисле |
|
ний /Пг:) и ШгГ) при способах |
полного и направленного перебора. |
|
Предполагается, что х целочисленная величина. |
||
Число шагов (вычислений) |
для полного перебора при /г0 = |
|
= 1 равно целому числу З ?^ |
+ 1. Для направленного перебора |
число шагов зависит от ошибки 1е при определении оценки исход ной точки х ± в соответствии с (8.4). Так как ни определенное зна чение /е, пи распределение вероятностей этой величины не из вестны, сравнение методов возможно с точки зрения минимаксной оптимальности. При минимаксном подходе эффективности обоих методов равны. В самом деле, при целочисленном х и /г0 = 1 остаточный интервал неопределенности при полном переборе
равен З ?^ = 1 и число вычислений т = 3?\ + 1. Переходя к направленному перебору, заметим, что самым неблагоприятным для его эффективности случаем будет такой, когда точка экстре мума х* совпадет с границей исходного интервала, а эвристиче ская исходная точка поиска либо совпадает с противоположной границей исходного интервала или отделена от нее на 1. При этих
условиях т * 2) = т Р = 3?г + 1.
Если принять правило, что направленный перебор начинается из середины исходного интервала 3£i, при минимаксном подходе он окажется примерно вдвое выгодней, чем полный перебор. Если х — непрерывная величина и при направленном переборе последний шаг хг — хт+1 можно сделать достаточно малым, мини максная оптимальность направленного перебора почти вдвое больше (число измерений вдвое меньше), чем полного.
Минимаксный подход при суждениях, связанных с отысканием экстремума, не применяется. Но можно отметить, что в исключи тельном случае при h0 = 1 минимальное число измерений
min (m.r2)) = 3, между тем, при полном переборе, как всегда,
т'г = д?\.
Приведенные соотношения сами по себе не представляют ин
тереса, так как интуитивно очевидны. Они привлечены для иллюстрации минимаксного подхода, который будет использован при рассмотрении метода Фибоначчи.
155
8.3.МЕТОДЫ ДИХОТОМИИ, ФИБОНАЧЧИ
ИМАРЖИНАЛЬНЫХ ЗАТРАТ
Перейдем к способам отыскания экстремума функции одной переменной у = f (л:), при которых пользуются тем или иным правилом, определяющим не только направление дальнейшего поиска, но и интервалы между значениями х, для которых вычи сляется f (х). К числу таких способов относится, в частности, метод дихотомии или последовательного деления на два [26].
Пусть, как и до сих пор, требуется отыскать минимум одно экстремальной функции / (х) (рис. 13) над интервалом S£ (1)
значении х, допустимых и существенных для решения задачи. Интервал^ (1) является исходным (первым) интервалом неопре деленности в последовательности аналогичных интервалов 1 g?(l), 3?(2), . . ., 3?(т), которые будут возникать в ходе поиска мини мума f (х). Для упрощения сравнений с другими методами при равняем исходный интервал неопределенности единице: 3?{\) = 1.
Пользуясь методом дихотомии, мы начинаем с вычисления
приращения An j (хх) = f (х2) — / (хх), |
но не в |
эвристической |
|||
точке (как при |
способе направленного перебора), а в середине |
||||
интервала j?(l), |
разбив его пополам (см. рис. 13). Если Д/,0/ (хх) < |
||||
■ < 0, то |
ясно, что точка минимума х* |
находится |
справа |
от х Х) |
|
и новый |
интервал неопределенности 3 ? (2), равный |
i?(l), |
соот |
1 Величина каждого из этих интервалов зависит от числа шагов поиска. Соответственно изменены обозначения.
1 5 6
ветствует правой половине предыдущего интервала S'(l). |
Если |
&i,0f (x i) > 0, новый интервал неопределенности, равный |
0,5 + |
+ hо. находится слева от х 2. |
|
Следующий шаг поиска минимума состоит в вычислении прира |
|
щении Д!,J О'з) = f (А'з -|- /го) — f (х3), где х3 — середина |
преды |
дущего интервала неопределенности 3?(2). В зависимости от знака приращения новым интервалом неопределенности S£ (3) станет левая или правая сторона интервала SE (2) и т. д. Если пренеб речь относительно малым интервалом /г0 = Дх, можно записать следующую зависимость величины интервала неопределенности от числа вычислений т (экспериментов):
т |
|
ад - (т Г |
(8.8) |
Например, после 14 вычислений, иначе говоря, после семи кратного уменьшения вдвое интервала неопределенности остаточ
ный интервал при способе дихотомии SEV (14) равнялся бы У = 0,0078 исходного интервала.
Способ направленного перебора при таком же остаточном ин тервале неопределенности потребовал бы не более 14 вычислений при условии, что расстояние от эвристической точки х г до точки
минимумах* не превышает-у- 0,0078 = 0,0547 (за единицу длины
принят исходный промежуток неопределенности). Если принять минимаксный критерий эффективности, методы направленного перебора и дихотомии равноценны при условии, если интервал
допустимых значений ошибки |
4 |
эвристической |
оценки х х |
||
равен ±0,06 |
исходного интервала |
неопределенности. |
Если |
||
интервал ошибки 4 меньше, чем |
±0,06, способ |
направлен |
|||
ного i перебора |
при минимаксном |
подходе эффективней |
способа |
дихотомии.
Для других значений величины остаточного интервала неопре
деленности £Ег3) и количества |
т 1г3) вычислений пределы для |
||
ошибки 4 |
иные, чем в рассмотренном случае. Их легко вычислить, |
||
пользуясь |
соотношением |
|
|
|
ш ах/е= ~ |
ЗЕ(3) (т ), |
|
где шах 4 — граница абсолютного значения ошибки |
при интуи |
||
тивной оценке. |
|
|
|
Вопрос об условиях относительной выгодности способа направ |
|||
ленного перебора и способа дихотомии очень важен |
при выборе |
методов отыскания минимума функции затрат 5 ( o j) в случае нескольких управляемых аргументов (см. гл. 9). Для того чтобы отыскать х* способом полного перебора с такой же точностью
157
(с таким же 2.?г3)). какую обеспечивает метод дихотомии после 14 вычислений, требуется
—ТтГ---- |
( 14) |
= п nngQ О------- |
2 = 225 вычислений. |
|
0 ,0088:2 |
|
Несколько эффективней метода дихотомии так называемый метод Фибоначчи, в основу которого положена особая числовая последовательность, применявшаяся математиком XII века Фи боначчи. Этот метод сравнительно недавно разработан американ ским математиком Кифером [26]. Как и метод дихотомии, метод Фибоначчи выражается правилом деления каждого очередного интервала неопределенности, но не на две, а на три части, и не приращением А/ (х), а результатом одного вычисления в отличие от метода дихотомии, но так же, как при способе направленного перебора, число вычислений в каждом конкретном случае при менения метода Фибоначчи колеблется в зависимости от непред виденных сочетаний обсчитываемых точек и точки минимума х* на каждом шаге поиска. Поэтому в отношении метода Фибоначчи применим только минимаксный принцип оптимальности, что обязательно надо иметь в виду, рассматривая изложенное ниже обоснование метода.
Обоснование метода Фибоначчи начинается с исследования ситуации, возникающей на предпоследнем шаге поиска. Когда поиск после т * вычислений закончится, останется интервал неопределенности, равный З г (т *). Независимо от того, каким он будет, решим вопрос, в каких точках предыдущего интервала
неопределенности |
3 ( т * — |
1) надо вычислить f (х) |
для того, |
чтобы в наименее |
удачном |
случае интервал З г (т *) |
оказался |
наименьшим. |
|
|
|
Заметим, во-первых, что таких вычислений должно быть два. При одном вычислении интервал неопределенности не изменится, а при трех вычислениях он изменится два раза. Во-вторых, надо иметь в виду, что в случаях, когда поиск экстремума ограничи вается только двумя вычислениями, оптимальным (в минимаксном смысле) способом является способ дихотомии, что легко дока зать [26]. Поэтому в интервале неопределенности 3 { т * — 1) при оптимальном варианте поиска надо выполнить первое вычисле ние в точке xm*—i, соответствующей середине интервала 3 ( т * — —• 1) второе — в точке хт * на малом, по возможности, удалении от xm*—i, после чего определяется знак приращения А/ (xm*_i) и, тем самым, остаточный интервал неопределенности, который может
быть либо справа от хт *, |
либо слева от xm»_i. Но вопрос сейчас |
||||||
не в положении или величине интервала |
3 |
(т *), а в величине |
|||||
предшествующего ему |
интервала 3 |
(rtf' — 1). Пренебрегая ин |
|||||
тервалом Л о, можно записать, что: |
3 |
( т * — |
1) = 23 |
(т *). |
|||
Теперь предстоит определить оптимальный (в минимаксном |
|||||||
смысле) интервал неопределенности 3 |
(nv* — 2). Заметим прежде |
||||||
всего, что интервал |
3 |
( т * — 1) |
мог |
выделиться |
из интер- |
158
вала |
SB (//г* — 2) при |
двух различных соотношениях результа |
|||
тов |
ут*~1 |
= f (xm*_ 1) |
и ут * — |
f (хт *), попавших |
в интер |
вал |
SB ( т * |
— 2). |
и SB (пг* — |
1) определились в |
результате |
Интервалы SE {пг*) |
вычислений в двух точках, обведенных на рис. 14 кружками.
Для того чтобы интервал SB (/п* — 1) находился там, |
где он пока |
||||||||||||||||||||
зан на рис. 14, требовалось, |
чтобы |
результат вычисления ym* - i |
|||||||||||||||||||
в правой точке оказался |
ниже, |
чем результат ут * в левой точке. |
|||||||||||||||||||
Тогда точка минимума х*, очевидно, |
находится между точкой хт * |
||||||||||||||||||||
и правой границей интервала SB { т * |
— 2). Запомним, что интер |
||||||||||||||||||||
вал |
SB (/«*) |
может |
оказаться |
и левее, |
и |
правее правой |
точки, |
||||||||||||||
следовательно, |
расстояние |
от |
пра |
|
|
|
|
|
|
|
|
||||||||||
вой |
точки |
до |
границы |
|
интервала |
|
|
|
|
|
|
|
|
||||||||
SB {tn* — 2) не должно быть меньше |
|
|
|
|
|
|
|
|
|||||||||||||
SB {пг*) (это очень существенное звено |
|
|
|
|
|
|
|
|
|||||||||||||
для обоснования метода). |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
Но |
соотношение |
|
результатов |
|
|
|
|
|
|
|
|
||||||||
y,n*—i |
и ут * |
в |
правой |
и левой |
точ |
|
|
|
|
|
|
|
|||||||||
ках может быть иным, |
чем |
в |
опи |
|
|
|
|
|
|
|
|
||||||||||
санном случае, а именно, может |
|
|
|
|
|
|
|
|
|||||||||||||
быть, |
что ут* <ВУт*—1 - |
Тогда интер |
|
|
|
|
|
|
|
||||||||||||
вал |
SB {пг* — 1) возникнет |
слева от |
|
|
|
|
|
|
|
|
|||||||||||
правой точки, а между правой точкой |
|
|
|
|
|
|
|
|
|||||||||||||
и |
границей |
интервала |
|
SB (пг* — 2) |
|
|
|
|
|
|
|
|
|||||||||
надо сохранить упоминавшееся рас |
|
|
|
|
|
|
|
||||||||||||||
стояние, равное [SB {пг*), |
|
на |
случай, |
|
|
|
|
|
|
|
|
||||||||||
если |
при |
первом |
варианте, |
когда |
Рис. |
14. |
Схема |
|
метода |
Фибо |
|||||||||||
У т *-1 |
< У т * , |
интервал |
|
<в {т *) |
по |
|
|||||||||||||||
|
|
|
|
наччи |
|
|
|||||||||||||||
падет |
правее |
правой |
точки. |
Итак, |
|
|
|
|
между y,n* - i |
||||||||||||
в |
интервале |
jВ {т * — 2) |
|
при |
любом соотношении |
||||||||||||||||
и ут* точка, определяющая |
интервал SB {пг* — 2), |
должна быть |
|||||||||||||||||||
на |
|
удалении, |
равном |
|
SB ( т * |
— 1) |
от одного конца интер |
||||||||||||||
вала SB (т * — 2) и на удалении SB (т *) |
от другого конца. |
|
|||||||||||||||||||
|
Аналогично тому, как это |
сделано |
для |
интервалов |
SB {т *) |
||||||||||||||||
SB ( т * |
— |
1), |
SB {пг* — 2), |
можно, пренебрегая /г0, |
показать, |
что |
|||||||||||||||
для |
любых |
интервалов |
неопределенности |
SB (/), |
SB { j — 1), |
||||||||||||||||
j? |
(/ — 2) |
сохраняет |
силу |
|
соотношение |
SB {j — 2) = |
SB (/ — |
||||||||||||||
— 1) + SB (j) и соответственно |
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
SB {m* ■— 1) = |
2 ^ |
(nz*); |
|
|
|
|
|
||||||
|
|
|
|
SB (m* — 2) = |
|
SB(/»* ~ |
1) + |
SB (m*) = |
?>SB (m*); |
|
|
||||||||||
|
|
|
|
|
SB {m* — 3) — S? {in* — 2) -|- 5? {m* — 1) = |
' |
|
M |
|||||||||||||
|
|
|
|
|
|
= |
3SB M |
+ |
2£ {n?) = |
5SB (m*). |
|
|
|
|
При практическом использовании соотношений (8.9) полезна последовательность чисел Fk Фибоначчи, построенная следующим
159
образом:
F o = F i = h |
1 |
( 8. 10) |
|
Fk = F*—i-f-Fk-2- |
J |
||
|
Ниже приведены первые 15 чисел Фибоначчи [пользуясь (8.10)], их можно легко дополнить:
ft |
Fk |
ft |
Fk |
0 |
1 |
8 |
34 |
I |
1 |
9 |
55 |
1 |
1 |
||
2 |
2 |
10 |
89 |
3 |
3 |
11 |
144 |
4 |
5 |
12 |
233 |
5 |
8 |
13 |
327 |
6 |
13 |
14 |
610 |
7 |
21 |
|
|
Уже известные нам соотношения с помощью чисел Фибоначчи можно представить в следующем виде:
2?(ni* — k) = F k+i3?(m*), пренебрегая Л0,
и
SB (/»* — к) — F k+i2? (т*) — F й_ 1/г0 с учетом /г0.
Приняв длину первого интервала SB (1) за единицу, можно записать
SB {in*) = Тт” , пренебрегая Л0,
|
|
|
2 (pi*) = (р~ + |
Fp 'n, 2 |
К с учетом Л0. |
|
|
|||
Последовательность обсчитываемых значений х при поиске |
||||||||||
методом |
Фибоначчи легко определяется, если поиск уже начат. |
|||||||||
Так как каждый интервал SF (/) состоит из интервалов SE (/ |
+ |
1) |
||||||||
и 3? (/ |
+ |
2), то после того, |
как получены интервалы SB (j |
+ |
1) |
|||||
и SB (/ |
+ |
2), |
для выделения |
S 7 (/ |
+ |
3) вычисление надо выпол |
||||
нить в |
точке |
интервала |
SB (/ + |
2), |
находящейся на удалении |
|||||
SB (/ + |
1) — SB (j + 2) от |
какой-либо из его |
границ. |
|
|
|||||
Таким образом, для того чтобы начать поиск, надо знать |
||||||||||
интервал |
неопределенности |
после |
второго |
измерения SB (2). |
||||||
Воспользовавшись предыдущими формулами, интервал |
SB (2) |
|||||||||
вычисляем следующим образом: |
|
|
|
|
|
|||||
|
|
|
^ (2 ) = |
|
j? (l), пренебрегая/г0. |
(8.11) |
Уайльд [26 ] уточняет эту формулу, принимая в расчет прира щение /г0, равное приращению Ах при вычислении Af (х) на последующем этапе поиска:
2 (2 ) = |
F(m*~I) |
( - |
1)т * |
Fm* |
|
(8 . 12) |
|
|
Fm• |
160
Заметим, что поиск методом Фибоначчи, таким образом, можно начать, задавшись длиной остаточного интервала неопределен ности или числом вычислений. Если это затруднительно, можно воспользоваться методом золотого сечения, который характери зуется примерно такой же эффективностью (см. [26]).
Для сравнения эффективности метода Фибоначчи и метода дихотомии можно привести количество вычислений т гдля каждого из них при одинаковом остаточном интервале неопределенности SSr
на уровне менее одного процента. Для метода Фибоначчи т ^ =
= т * = 11, для метода дихотомии m f] = 14.
Краткий обзор способов, применяемых для поиска экстремума функции одного аргумента, закончим ознакомлением с методом маржинальных затрат. Этот, широко известный в прикладной экономике, способ (см., например [25, п. 10.3]) является анало гом известного из анализа метода и представляет собой вариант, близкий к варианту направленного перебора. Он применим в том
случае, когда функцию |
затрат |
S on (со) |
можно |
представить как |
сумму двух слагаемых |
Son (ю) |
и Son |
(со), |
причем прираще |
ния ASon (со) первой из них монотонно возрастают, приращения
второй ASon* (со) по |
абсолютной величине монотонно |
убывают, |
и существует точка |
со*, в которой ASon (со) = — A S $ |
(со). При |
ращение слагаемых функции S on (со) именуются маржинальными
затратами, а точка |
со* — «точкой |
эквилибриума» (равновесия). |
Так как ASon (со) = |
ASon (со) + |
Son (со), то в точке эквилиб |
риума A S on (со) = 0 |
и S on (со) достигает минимума. Этот способ |
удобен для построения номограмм, с помощью которых можно найти оптимальный вариант для любого из аналогичных случаев, отличающихся значениями одного из параметров исходных усло вий.
8.4.ОПТИМИЗАЦИЯ СРК С ОДНИМ УПРАВЛЯЕМЫМ ФАКТОРОМ ЭФФЕКТИВНОСТИ ДЛЯ ОТДЕЛЬНОЙ
ОПЕРАЦИИ
Организационно-техническим фоном для рассмотренных ниже числовых примеров может служить операция механической обра ботки, выполняемая на автомате или полуавтомате, на котором конкретные значения признака качества зависят от настройки и состояния технологической системы и не зависят при каждом повторении операций от действия рабочего. Операция характери зуется износостойкой настройкой и пренебрежимо малой вероят ностью возникновения ненормальностей технологической системы. Предполагается, что на участке внедрен обычный «статконтроль» с одинаковой периодичностью контрольных проверок, а именно, раз в час (тем самым отпадает один из управляемых факторов эффективности С Р К — величина промежутка между провер ками).
11 В . В . Головинский |
161 |