- •Дробные факторные планы (дробный факторный эксперимент)
- •Ортогональный центральный композиционный план второго порядка.
- •Билет 12
- •13. Условие идентифицируемости автономной динамической системы.
- •14 Применение дробных факторных планов для модели типа (1) и порядок смешивания оценок коэффициентов
- •Билет 14
- •28Планы для моделей, содержащих линейные члены и взаимодействия различного порядка
14 Применение дробных факторных планов для модели типа (1) и порядок смешивания оценок коэффициентов
План ДФЭ 23-1 . Здесь n = 3, l =1, N=23-1=4.
Генератор
в виде
.
Для неполного квадратичного полинома
количество столбцов плана составляет восемь.
|
|
|
|
|
|
|
|
|
1 |
+1 |
-1 |
-1 |
+1 |
+1 |
-1 |
-1 |
+1 |
2 |
+1 |
+1 |
-1 |
-1 |
-1 |
-1 |
+1 |
+1 |
3 |
+1 |
-1 |
+1 |
-1 |
-1 |
+1 |
-1 |
+1 |
4 |
+1 |
+1 |
+1 |
+1 |
+1 |
+1 |
+1 |
+1 |
.
Суммарные
значения коэффициентов
,
,
определяются аналогично.
Под контрастом плана понимается соотношение между элементами матрицы F, задающее элемент первого столбца матрицы F.
Элементы
первого столбца, всегда равные единице,
обозначим
символически через
.
План
с генератором
имеет следующий контраст:
.
План
с
генератором
имеет
контраст
.
Пример
Для
дробного факторного плана 23-1
с контрастом
получаем
следующий порядок смешивания для
факторов
и
:
Для
оценок имеем соответственно
Для
дробного факторного плана 24-1
с контрастом
получаем
аналогично
Порядок
контраста - число элементов
в нем
.
.
обобщающий
контраст
Пример
Для
дробного факторного плана 25-2
в качестве генераторов выбраны
соотношения
и
Контрасты
плана
и
Обобщающий
контраст
.
Умножая все составляющие обобщающего контраста на факторы, находим совпадающие столбцы матрицы F:
.
Вычислительные
формулы и свойства планов
Оценки всех коэффициентов не смешаны (т. е. матрица F не имеет совпадающих столбцов):
. (2)
.
(3)
Планы типа являются, таким образом, ортогональными для моделей вида (1). Для вычисления оценок коэффициентов получаем формулы
(6) Здесь (k
+1) —общее
число коэффициентов модели (1).
БИЛЕТ 13
25 Численные методы оптимизации.
Решение задачи
нахождения векторов оценок, которые
минимизируют критерий идентификации:
.
Ограничения на вектор оценок не накладывается – задача безусловной оптимизации. Метод покоординатной оптимизации (Гаусса – Зайделя)
1) Задаемся начальным
приближением
к точке минимума функции
.
Полагаем
(номер направления),
(номер итерации). Метод предполагает
поиск минимума вдоль каждого направления.
2) Осуществляем
поиск точки минимума функции
вдоль
-
го координатного вектора. Функцию m
– переменных преобразуем в функцию
– ой переменной. В качестве остальных
координат – значения, полученные на
текущей итерации или предыдущей:
3)
Проверяем выполнение условий окончания
поиска:
(29)
Расстояние
между двумя точками меньше некоторой
заданной величины и значение функций
в этих точках не превосходит заданной
величины
,
то найденная точка объявляется решением
задачи.
.
Если условия не
выполняются, то увеличивают номер
направления поиска на 1:
,
или номер итерации
и идти к п.2.
Особенности метода: метод весьма прост, но почти не используется в оптимизационных поисках, т.к. этот метод подвержен зацикливанию, когда поиск осуществляется по одной и той же траектории. С помощью этого метода можно осуществить минимизацию функций с разделяющими переменными.
Градиентные методы поиска
Этот метод первого
порядка, который использует информацию
о производной функции f.
Значения f
или критерия идентификации должны быть
дифференцируемы на Rn
(во всем n
– мерном пространстве), т.е. иметь
градиент в любой точке этого пространства.
Алгоритм метода -
(
Т.к. k–
го приближения формируется на основании
точных k-1
приближений и поправки – второе слагаемое
в (30)
– скаляр, показывающий величину
шага(длину) перемещений из точки
в точку
;
– градиент, указывающий направление
от точки k-1
приближения к точке k–
го приближения. Т.к. значение (-1), то
направление осуществляется вдоль
антиградиента.
Точка начального
приближения
задается
методом приближения к оси.
a)
– простейший градиентный метод;
б)
– метод наискорейшего спуска;
в)
–градиентный метод с дроблением шага.
Неравенство – условие спуска.
Задаются величины
,
обычно
.
Проверка выполнения условия спуска.
Если выполняется,
не меняют. Если не выполняется, то шаг
дробят до выполнения условия.
Особенности:
градиентные методы эффективные с точки
зрения скорости сходимости, на начальных
этапах оптимизационной процедуры, когда
критерий идентификации
хорошо аппроксимирует линейную
зависимость. В окрестности точки
минимума, где градиент близок к нулю,
данный метод требует множество итераций
для уточнения окрестности точки минимума.
Градиентный метод
для произвольной функции
сходится к множеству стационарных
точек, а не к точке минимума. Стационарной
является точка, удовлетворяющая нулевому
градиенту, т.е. градиент
равен
нулевому вектору.
