Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
kir-mudak-11-14-bilety.docx
Скачиваний:
3
Добавлен:
25.09.2019
Размер:
250.82 Кб
Скачать

14 Применение дробных факторных планов для модели типа (1) и порядок смешивания оценок коэффициентов

План ДФЭ 23-1 . Здесь n = 3, l =1, N=23-1=4.

Генератор в виде . Для неполного квадратичного полинома

количество столбцов плана составляет восемь.

1

+1

-1

-1

+1

+1

-1

-1

+1

2

+1

+1

-1

-1

-1

-1

+1

+1

3

+1

-1

+1

-1

-1

+1

-1

+1

4

+1

+1

+1

+1

+1

+1

+1

+1

. Суммарные значения коэффициентов , , определяются аналогично.

Под контрастом плана понимается соотношение между элементами матрицы F, задающее элемент первого столбца мат­рицы F.

Элементы первого столбца, всегда равные единице, обозначим символически через . План с генератором имеет следующий контраст: .

План с генератором имеет контраст .

Пример Для дробного факторного плана 23-1 с контрастом получаем следующий порядок смешивания для факторов и :

Для оценок имеем соответственно

Для дробного факторного плана 24-1 с контрастом получаем аналогично

Порядок контраста - число элемен­тов в нем

. . обобщающий контраст Пример

Для дробного факторного плана 25-2 в качестве генераторов выбраны соотношения и

Контрасты плана и

Обобщающий контраст .

Умножая все составляющие обобщающего контраста на факторы, находим совпадающие столбцы матрицы F:

.

Вычислительные формулы и свойства планов

Оценки всех коэффициентов не сме­шаны (т. е. матрица F не имеет совпадающих столбцов):

. (2) . (3)

Планы типа являются, таким образом, ортогональными для моделей вида (1). Для вычисления оценок коэффициентов получаем формулы

(6) Здесь (k +1) —общее число коэффициентов модели (1).

БИЛЕТ 13

25 Численные методы оптимизации.

Решение задачи нахождения векторов оценок, которые минимизируют критерий идентификации: .

Ограничения на вектор оценок не накладывается – задача безусловной оптимизации. Метод покоординатной оптимизации (Гаусса – Зайделя)

1) Задаемся начальным приближением к точке минимума функции . Полагаем (номер направления), (номер итерации). Метод предполагает поиск минимума вдоль каждого направления.

2) Осуществляем поиск точки минимума функции вдоль - го координатного вектора. Функцию m – переменных преобразуем в функцию – ой переменной. В качестве остальных координат – значения, полученные на текущей итерации или предыдущей:

3) Проверяем выполнение условий окончания поиска:

(29)

Расстояние между двумя точками меньше некоторой заданной величины и значение функций в этих точках не превосходит заданной величины , то найденная точка объявляется решением задачи. .

Если условия не выполняются, то увеличивают номер направления поиска на 1: , или номер итерации и идти к п.2.

Особенности метода: метод весьма прост, но почти не используется в оптимизационных поисках, т.к. этот метод подвержен зацикливанию, когда поиск осуществляется по одной и той же траектории. С помощью этого метода можно осуществить минимизацию функций с разделяющими переменными.

Градиентные методы поиска

Этот метод первого порядка, который использует информацию о производной функции f. Значения f или критерия идентификации должны быть дифференцируемы на Rn (во всем n – мерном пространстве), т.е. иметь градиент в любой точке этого пространства. Алгоритм метода - (

Т.к. k– го приближения формируется на основании точных k-1 приближений и поправки – второе слагаемое в (30) – скаляр, показывающий величину шага(длину) перемещений из точки в точку ; – градиент, указывающий направление от точки k-1 приближения к точке k– го приближения. Т.к. значение (-1), то направление осуществляется вдоль антиградиента.

Точка начального приближения задается методом приближения к оси.

a) – простейший градиентный метод;

б) – метод наискорейшего спуска;

в) –градиентный метод с дроблением шага. Неравенство – условие спуска.

Задаются величины , обычно . Проверка выполнения условия спуска. Если выполняется, не меняют. Если не выполняется, то шаг дробят до выполнения условия.

Особенности: градиентные методы эффективные с точки зрения скорости сходимости, на начальных этапах оптимизационной процедуры, когда критерий идентификации хорошо аппроксимирует линейную зависимость. В окрестности точки минимума, где градиент близок к нулю, данный метод требует множество итераций для уточнения окрестности точки минимума.

Градиентный метод для произвольной функции сходится к множеству стационарных точек, а не к точке минимума. Стационарной является точка, удовлетворяющая нулевому градиенту, т.е. градиент равен нулевому вектору.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]